PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon R9 290X: (P)Review-Thread


Seiten : 1 2 3 4 5 [6] 7 8 9 10 11 12 13 14 15 16 17

[dzp]Viper
2013-11-02, 15:52:34
Ich würde erstmal richtige Reviews der 290iger abwarten bevor man sie anhand eines Previews in der Luft zerreißt. Vorschnell Urteile fällen und "rumposaunen" ist dämlich..

Ronny145
2013-11-02, 15:54:20
Zusammenfassung PCGH zur AMD R9 290:


- Testmuster leidet unter ernsten Temperaturproblemen
- zwei Bios ROMs, jedoch kein Uber Modus-->maximal 40 Prozent Lüfter/4,4 Sone sind gesetzt
- selbst im Freiluftaufbau nach wenigen Minuten 95 Grad
- häufigste Taktrate nach 10 Minuten 662 Mhz (aufgrund Schutzmechanismus)
- mit Standard 40% Lüfter kein vernünftiger Betrieb möglich
- erst bei 60 Prozent Lüfter/11,6 Sone kann sie ihren 947 Mhz Boost in allen Spielen halten


Naheliegend wäre, dass AMD neue Biose verteilt hat und deswegen den launch verschieben musste, um die Default Lüftergrenze anzuheben. Im PCGH Zustand ist es eine Fehlkonstruktion.

V2.0
2013-11-02, 15:55:18
Sie hat keinen Ubermode mit der BIOS Version, die für die Printausgabe der PCGH vorlag.

Dort hat sie einen Boost auf max. 947mhz. Da der Lüfter in dem Bios aber auf 40% begrenzt war, drosselte sie herunter auf bis zu 662mhz. Die Leistungsaufnahme entsprach ca. der 290X im Quietmode. (mal mehr mal weniger je Benchmark)

Diese Probleme sollten aber heute Vergangenheit sein.

horn 12
2013-11-02, 15:58:52
Dies nützt einem aber auch nix, bei 11 Sone und 60%
Dies wäre Fatal und könnte die R9 290 lächerlich erscheinen lassen, knappe 10% vor der HD7970 im Bestfall.
Welche Ingenieure arbeiten bei AMD bloß !!

dildo4u
2013-11-02, 16:02:19
Es wäre Fatal wenn es der Chip ist was man vermuten könnte.Der selbe Kühler muss schneller laufen um weniger Takt als bei der 290X zu erreichen.Lässt vermuten das die 290 Abfallchips bekommt die für weniger Takt mehr Spannung brauchen.

gnahr
2013-11-02, 16:05:19
nicht im ernst? bis auf 600MHz?!
kein wunder, dass es keinen garantierten takt gibt...

Ronny145
2013-11-02, 16:13:31
Jup selbst wenn sie den Standardbetrieb auf 60% Prozent Lüfter anheben, ist die Karte bei der Lautstärke nicht zu empfehlen. Das ist doch heutzutage nicht mehr zeitgemäß. Aber Hauptsache große Balkenlänge.

Blediator16
2013-11-02, 16:15:24
Jup selbst wenn sie den Standardbetrieb auf 60% Prozent Lüfter anheben, ist die Karte bei der Lautstärke nicht zu empfehlen. Das ist doch heutzutage nicht mehr zeitgemäß. Aber Hauptsache große Balkenlänge.

Beweise für deine Äußerung?

Ronny145
2013-11-02, 16:21:20
Beweise für deine Äußerung?


Dass 11 Sone nicht mehr zeitgemäß sind? Dazu brauchst du dir nur ein paar Tests anschauen. 11 Sone liegen weit unter der üblichen Norm.

gnahr
2013-11-02, 16:27:14
dürfte ich die als mietwohnungsbesetzer überhaupt laufen lassen?
zimmerlautstärke sind immerhin bis 5 sone...

Blediator16
2013-11-02, 16:40:16
Dass 11 Sone nicht mehr zeitgemäß sind? Dazu brauchst du dir nur ein paar Tests anschauen. 11 Sone liegen weit unter der üblichen Norm.

Über Lautstärke allgemein kann man sich natürlich unterhalten, aber wo gibt es entgültige Test von der 290?

LSSJBroly
2013-11-02, 16:44:16
Über Lautstärke allgemein kann man sich natürlich unterhalten, aber wo gibt es entgültige Test von der 290?

Eben in der aktuellen PCGH ;D
Natürlich möglich, dass die 290 dann in den launchreviews dann eben mit 55% Fanspeed läuft :freak: - oder die nochmal per BIOS die Spannung etwas runterschrauben. Große veränderungen sind in den paar Tagen sicherlich nicht drin.

Blediator16
2013-11-02, 16:55:39
Eben in der aktuellen PCGH ;D
Natürlich möglich, dass die 290 dann in den launchreviews dann eben mit 55% Fanspeed läuft :freak: - oder die nochmal per BIOS die Spannung etwas runterschrauben. Große veränderungen sind in den paar Tagen sicherlich nicht drin.

Ich schaue mir dann doch gerne eine eher gewisse Masse an Reviews durch bevor ich mir eine genauere Meinung bilde ;)

V2.0
2013-11-02, 17:03:06
Außerdem kann das ein neues BIOS heilen oder die PCGH hatte ne defekte Karte.

Ronny145
2013-11-02, 17:03:09
Über Lautstärke allgemein kann man sich natürlich unterhalten, aber wo gibt es entgültige Test von der 290?


Wir reden vom PCGH Test. 40%/4,4 Sone wäre für die Masse denke ich schon das Maximum am zumutbaren. Ich sehe kein Spielraum nach oben. Sie können es erhöhen für bessere Balkenlänge, ein Prädikat empehlenswert kann man dann leider trotzdem nicht geben. Vermutlich ist eine erhöhte Lüfterdrehzahl der Verschiebungsgrund, hoffentlich wird die Laustärke entsprechend kritisiert in den Tests. Ohne Custom Modelle mit gescheiter Kühlung sehe ich schwarz.

//differentRob
2013-11-02, 17:17:18
AMD täte nun gut daran, die Boardpartner ihre Arbeit so rasch wie möglich auf den Markt bringen zu lassen.


Ehrlich gesagt werde ich doch langsam schwach gegenüber einer 770 Phantom die nun wirklich sehr attraktiv im Preis ist.
Aber zum glück will ich erst sehen was Mantle bei BF4 bringt, dann wird innert wenigen Tagen zugeschlagen. Ich kauf aber zum Glück nur für BF3/Bf4.

TurricanM3
2013-11-02, 17:19:19
Außerdem kann das ein neues BIOS heilen oder die PCGH hatte ne defekte Karte.


Ich bin zwar NV User, aber wenn das so wäre und der Test trotzdem unter den Umständen veröffentlicht wurde, das wäre schon ein Unding. :nono:

Raff
2013-11-02, 17:21:41
Kein Defekt. Mittlerweile sollte klar sein, warum das NDA verschoben wurde. Mehr muss/kann ich dazu nicht sagen.

MfG,
Raff

horn 12
2013-11-02, 17:28:17
Bringt der Neue Kartenmodus echt die Mehrperformance die man brauchte, dafür aber muss bei der Lautstärke/ Hitzeentwicklung enorme Abstriche gemacht werden und nicht mehr zumutbar, oder wie richtig gesagt zeitgemäß!

Ich für meinen Teil warte nun auf Custommodelle der R9 290X
Will keinen Abfall von Hawai in meinem Rechner!!
Oder wechsle zur GTX 780 von EVGA !!
Dies sagt ein ATI / AMD Jünger!

V2.0
2013-11-02, 17:28:30
Ich bin zwar NV User, aber wenn das so wäre und der Test trotzdem unter den Umständen veröffentlicht wurde, das wäre schon ein Unding. :nono:

Er wurde unter äußerstem Vorbehalt veröffentlicht. Es dürfte klar sein, da Raf sagt dass die KArte ok war, was das neue BIOS wohl ändert.

Kosh
2013-11-02, 17:31:07
Heisst das nicht einfach,das die Lüfterkonstruktion einfach nur scheisse ist?

Zwar wird die Karte schon viel Hitze erzeugen und somit die Lüfter hart arbeiten müssen, aber wenn 40% Lüfter schon laut ist, dann ist doch der Lüfter generell scheisse,weil 100% Lüfter dann bedueten würde, das sich Leute 2 Strassen weiter über den Lärm beschweren würden.

Ronny145
2013-11-02, 17:38:08
Kühler kann nur Mist sein. Wenn es doch irgendwie an der GPU liegt wäre es noch schlimmer. Sicherlich verbraucht die 290 mehr als Nvidias Gegenstück und noch dazu auf kleinerer Fläche, aber so groß ist der Unterschied auch wieder nicht um die Karte nur mit 10+ Sone zum vernünftigen Arbeiten zu bewegen. Custom Kühllösungen werden es zeigen.

fondness
2013-11-02, 17:45:40
Kein Defekt. Mittlerweile sollte klar sein, warum das NDA verschoben wurde. Mehr muss/kann ich dazu nicht sagen.

MfG,
Raff

Und warum landet dann ein nicht freigegebener Test im Heft? Gab es da eine Sondervereinbarung?

horn 12
2013-11-02, 17:46:47
AMD täte wohl gut daran R9 290 (X) Custom Modelle ab spätestens Mitte November lieferbar zu haben, ansonsten rennen Ihnen alle potentiellen Kunden davon,- und dies zur Konkurrenz.
So einen hilflosen, verspäteten und trotzdem ungenügenden Launch gab es meines Wissen NOCH NIE bei AMD !!
Da war gar noch der R600 besser dran.

AMD soll selbst auf das komplett vermurkste Referenz Modell pfeifen, Hatten es ja selbst in der Hand! Dies ist ja das Schlimme daran:
Von wegen zukünftige Lüfter werden besser sein, dies muss sich vor ALLEM in Lautstärke und Kühlung zeigen, bzw. bewahrheiten!
Und gerade dort punktet die Neue Arsch Konstruktion noch weniger als die Vorgängerkarten, welche noch Leise zu bekommen gewesen sind.

V2.0
2013-11-02, 17:55:52
Und warum landet dann ein nicht freigegebener Test im Heft? Gab es da eine Sondervereinbarung?

Weil der Test freigegeben ist, wenn das Heft am Kiosk liegt.

Iruwen
2013-11-02, 18:07:01
Wenn AMD den Redaktionen so einen Mist zur Verfügung stellt sind sie selbst schuld.

//differentRob
2013-11-02, 18:09:19
AMD ist Opfer ihrer eigenen NDA Politik...
Klassischer self pwned :D

Gipsel
2013-11-02, 19:18:42
Kein Defekt. Mittlerweile sollte klar sein, warum das NDA verschoben wurde. Mehr muss/kann ich dazu nicht sagen.Selber Chip mit gut 5% niedrigerem Takt und 9% deaktivierten Einheiten soll mehr verbrauchen? Ansonsten ist heftigeres temperaturbedingtes Drosseln bei gleichem Kühler ja schwer vorstellbar. Was übersehe ich?

Marty98
2013-11-02, 19:40:45
Selber Chip mit gut 5% niedrigerem Takt und 9% deaktivierten Einheiten soll mehr verbrauchen? Ansonsten ist heftigeres temperaturbedingtes Drosseln bei gleichem Kühler ja schwer vorstellbar. Was übersehe ich?

290X hat die rausgesuchten besten Chips, 290 ist der Abfall, welcher mehr Spannung braucht.

Knuddelbearli
2013-11-02, 19:45:00
schwer zu glauben AMD hat bisher sogut wie keinerlei binning betrieben

gnahr
2013-11-02, 19:46:31
ist das der blanke wahn "irgendwas abzuliefern" um mit werbung in den markt gehen zu können oder kann es sein, dass ein knebelvertrag mit dem siliziumdealer trotz altem prozess und ansonsten brauchbarer ausbeute hier eben versagt und zu solchen bescheidenen produkten führt? die kühler sind ja offensichtlich für 20-30% weniger spannung und damit abwärme ausgelegt und in der letzte minute weiter zu doktern kann ja nicht im masterplan gestanden haben.

Kosh
2013-11-02, 20:17:36
Was ich nicht so ganz verstehe, es ist doch in der Branche mittlerweile mehr als gut bekannt, das schnellste Karte kein Positives Echo bringt, wenn Verbrauch und Lautstärke einfach indiskutabel ist.

Das führt zu Negativurteilen und absolutes Negativimage einer Karte,so das sie sich mit Sicherheit sehr schlecht verkaufen wird.

Geschwindigkeit einer Karte ist doch heutzutage nur noch einer von vielen Punkten bezüglich einer Kaufentscheidung und nicht mehr mit dem Preis das A und O.

Immer vorausgesetzt das ganze wird wirklich so schlimm wie manche schreiben,dann versaut sich AMD gerade die ganze Kartenserie.

Duplex
2013-11-02, 20:24:20
290X hat die rausgesuchten besten Chips, 290 ist der Abfall, welcher mehr Spannung braucht.
Takt & Spannung der 290er Karten sind allgemein zu hoch, macht man die Karten effizienter & leiser, dann ist man nicht mehr Konkurrenzfähig.
Kurz gesagt: Die Karten sind kein Stück besser als Nvidia´s Karten :smile:

Knuddelbearli
2013-11-02, 20:26:42
naja technologisch schon aber das interessiert den kunden halt nicht ^^

fondness
2013-11-02, 20:30:49
Man hätte auch einfach einen (sehr) guten Kühler verbauen können. Dann würde die Leistungsaufnahme etwas sinken, die Taktraten besser gehalten werden und man wäre leiser.

V2.0
2013-11-02, 20:54:28
Man hätte auch einfach einen (sehr) guten Kühler verbauen können. Dann würde die Leistungsaufnahme etwas sinken, die Taktraten besser gehalten werden und man wäre leiser.

gerade bei der Preisklasse hätte man das tun sollen. Wenn die 290X für 599 gekommen wäre hätte man jeder ein Acce. Extreme verpassen können. Wenn NV nun am 7. mit einer Karte kommen sollte, die schneller und leiser ist, aber teurer dann hat AMD sein "Billigimage" erfolgreich gefestigt.

matty2580
2013-11-02, 21:10:05
Was mit guten Custom Designs möglich ist, zeigen die Posts der User mit einem Accelerator.
Also wird man sich noch bis Anfang Dezember gedulden müssen.

Ich bin auch gespannt auf den angeblich verbesserten Treiber für die R9 290.
http://www.planet3dnow.de/cms/5090-bestaetigt-offiziell-verschiebung-amd-radeon-r9-290-treiberprobleme/
Das wäre ja ein Ding, wenn alle bisherigen Test auf "schlechten" Treibern beruhen. ^^

Gipsel
2013-11-02, 21:32:46
290X hat die rausgesuchten besten Chips, 290 ist der Abfall, welcher mehr Spannung braucht.Das wird durch den niedrigeren Takt erschlagen. Die sollten die max 947 MHz schon bei gleicher Spannung wie die 1GHz der 290X schaffen. Der 28nm Prozeß ist inzwischen sehr gut eingefahren, da sind die Streuungen einfach nicht mehr so groß wie am Anfang. Und selbst da kamen die "Abfall-Version" mit höherer Spannung und mehr deaktivierten Einheiten (a la 5830 oder 7870 "Boost" mit Tahiti LE) typischerweise deutlich später (auch, weil es davon einfach nicht so viele gibt ;)).

Hübie
2013-11-02, 21:34:29
GK104 hat bspw. eine Serienstreuung von 15%. Finde ich jetzt nicht wenig, aber noch okay.

Gipsel
2013-11-02, 21:35:54
GK104 hat bspw. eine Serienstreuung von 15%. Finde ich jetzt nicht wenig, aber noch okay.15% wovon?

Iruwen
2013-11-02, 21:46:08
Spannung? Bei max. 1,21V? Ich kenn keine Kepler Karte die mit 1,03V läuft.

Hübie
2013-11-02, 21:59:58
15% wovon?

Na der Dies. Die Aussage kam von einem großen AIB.

@Iruwen: Ganz so einfach ist die Rechnung dann doch nicht.

Blediator16
2013-11-02, 22:00:09
gerade bei der Preisklasse hätte man das tun sollen. Wenn die 290X für 599 gekommen wäre hätte man jeder ein Acce. Extreme verpassen können. Wenn NV nun am 7. mit einer Karte kommen sollte, die schneller und leiser ist, aber teurer dann hat AMD sein "Billigimage" erfolgreich gefestigt.

Ausser die Konsumsklaven interessiert das doch niemanden.

Gipsel
2013-11-02, 22:22:53
Na der Dies. Die Aussage kam von einem großen AIB.15% Streuung der Dies sagt immer noch nicht, was da streuen soll. Bestimmt nicht deren Größe oder die Transistorzahl, nicht? ;)
Aber im Ernst, das ist so als Aussage ohne weitere Erläuterungen, was genau gemeint war und unter welchen Umständen das dann eintreten soll, vollkommen wertlos.

Hübie
2013-11-02, 22:37:25
Hahahaa... Transistorzahl oder Größer. Der war gut. ;D :up:
Gemeint sind aber eher die Güte was Taktrate, Widerstand, Stromdichte und Spannung impliziert. Wenn gewünscht hake ich da noch mal nach.

Meine beiden Karten sind auch extrem ziemlich unterschiedlich obwohl die ASICQ bei 79,2 bzw. 81,1% liegt. Eine Karte boostet konstant auf 1352 MHz bei 1.212 Volt und verharrt bei 71°C wenn ich Lüfter voll aufdrehe (~2900rpm). Die andere 1280 MHz bei 1.212 Volt und geht locker auf 83°C trotz 2900 Touren.

Also die ASIC sagt da halt auch herzlich wenig aus. Die Standardspannungen sind identisch.

aufkrawall
2013-11-02, 22:46:41
Güteschwankungen der Kühllösungen hast du ausgeschlossen?
Kannst ja mal spaßeshalber die Kühler vertauschen.

Gipsel
2013-11-02, 23:06:28
@Hübie:
Im Prinzip lieferst Du mit Deinem Beispiel von nur zwei Karten (also nur eine Differenz?) schon genug Evidenz, daß eine einzige Prozentzahl da nicht aussagekräftig ist. Im Übrigen funktioniert bei AMD das Binning auch anders als bei nV. Bei AMD werden gezielt Unterschiede zwischen den Dies minimiert (für den Betrieb@stock natürlich nur).

Hübie
2013-11-02, 23:13:04
Güteschwankungen der Kühllösungen hast du ausgeschlossen?
Kannst ja mal spaßeshalber die Kühler vertauschen.

Hab ich getan, ja. Auch WLP getauscht.

@Gipsel:
Mein Beispiel dient zur Veranschaulichung. Wenn mir aber ein großer Hersteller sowas sagt, dann ist da i.d.R. was dran. Ich hake da mal nach. Kommende Woche ist jedoch wenig Zeit, also ohne Gewähr. Wie AMD binning betreibt weiß ich nicht. Kannst du das genauer erklären?

aufkrawall
2013-11-02, 23:27:45
Hab ich getan, ja. Auch WLP getauscht.

Das nenn ich präzise. :)

Hübie
2013-11-02, 23:32:02
Danke. :D

horn 12
2013-11-03, 03:17:27
@Raff

Wurdest positiv überrascht durch das Neue Bios/ den "Neuen" Treiber odg.
bzw. erkauft man sich die Mehrperformance durch andere weitaus schlechtere Symphome ?

LSSJBroly
2013-11-03, 03:23:53
@Raff

Wurdest positiv überrascht durch das Neue Bios/ den "Neuen" Treiber odg.
bzw. erkauft man sich die Mehrperformance durch andere weitaus schlechtere Symphome ?

Dass du das nicht raffst(:D) :facepalm:
Du tust ja wirklich alles, um so abgestempelt zu werden:crazy2:
Er darf dir noch nichts sagen ... oder ist das NDA schon gefallen?

horn 12
2013-11-03, 03:29:00
Pfeif auf das NDA, AMD HAT ES NICHT BESSER VERDIENT !!
Hätt ich nur die Karte am Dienstag bestellt, kostete aber 567 Euro und dies ist sie niemals Wert.

Weis selbst was es bedeutend das NDA ZU BRECHEN, ABER dies ist eine Anmerkung.
Vielleicht werden die Neuen Karten bereits mit anderem Bios aufgespielt ausgeliefert, sobald die erste Marge weg ist, sollen sich ja in Distrib-Shops bis zu 1000 Karten befinden.
AMD TÄTE WOHL GUT DARAN DIE REFERNZ KARTE AUSLAUFEN ZU LASSEN UND ausschließlich CUSTOM BEI BEIDEN KARTEN DEN VORRANG ZU LASSEN !!

Denn nur so kann man NV Paroli bieten, andersrum hat man bereits verspielt!
Obriger Satz war nicht erst zu nehmen, bin halt schwer enttäuscht von AMD.
Nach langer Zeit wieder eine Sehr Gute Karte in Sichtweite und dann versemmeln AMD den Lüfter, bzw. sind zu "geizig" dort Investitionen zu tätigen.
Mann hätte wohl einen Custom Lüfter seitens Sapphire nehmen sollen und eben jenen weiter optimieren, um bei den stetigen Negativpunkten diesmal mehr als nur Positiv auffallen zu können!

LSSJBroly
2013-11-03, 03:34:07
Pfeif auf das NDA, AMD HAT ES NICHT BESSER VERDIENT !!

Du hast echt keinen Plan, oder?
Ein NDA ist ein Vertrag - wenn du diesen unterzeichnest, also bindend. Wenn dieser gebrochen wird, regnet es sanktionen - bis hin zu üblen Geldstrafen (eben, was darin ausgemacht wurde). Dass Raff vllt in einer Redaktion arbeitet und ein brechen des NDAs zur folge haben kann, dass AMD PCGH keine samples mehr zuschickt, hast du wohl noch nicht dran gedacht...

john carmack
2013-11-03, 04:10:59
Pfeif auf das NDA, AMD HAT ES NICHT BESSER VERDIENT !!
Hätt ich nur die Karte am Dienstag bestellt, kostete aber 567 Euro und dies ist sie niemals Wert.

Weis selbst was es bedeutend das NDA ZU BRECHEN, ABER dies ist eine Anmerkung.
Vielleicht werden die Neuen Karten bereits mit anderem Bios aufgespielt ausgeliefert, sobald die erste Marge weg ist, sollen sich ja in Distrib-Shops bis zu 1000 Karten befinden.
AMD TÄTE WOHL GUT DARAN DIE REFERNZ KARTE AUSLAUFEN ZU LASSEN UND ausschließlich CUSTOM BEI BEIDEN KARTEN DEN VORRANG ZU LASSEN !!

Denn nur so kann man NV Paroli bieten, andersrum hat man bereits verspielt!
Obriger Satz war nicht erst zu nehmen, bin halt schwer enttäuscht von AMD.
Nach langer Zeit wieder eine Sehr Gute Karte in Sichtweite und dann versemmeln AMD den Lüfter, bzw. sind zu "geizig" dort Investitionen zu tätigen.
Mann hätte wohl einen Custom Lüfter seitens Sapphire nehmen sollen und eben jenen weiter optimieren, um bei den stetigen Negativpunkten diesmal mehr als nur Positiv auffallen zu können!


trink nicht so viel...

matty2580
2013-11-03, 08:28:57
Ihr seid echt witzig, und horn 12 regt sich immer so schön auf. ^^
Zwei Tage bis zum möglichen Test der R9 290 kann man bestimmt noch warten. :P

oids
2013-11-03, 09:08:10
Ich muß immer wieder lachen wenn ich mir den Thread durchlese.

Warum wollen sich einige hier sofort ne 290x holen obwohl
sie zu heiß/zu laut ist?

Müßt ihr wirklich hier und jetzt und sofort ne neue Graka haben?

Einfach auf die Custom Karten warten und sich freuen:

1.Die Karte bekommt dann bessere Kühler
2.Die Karte wird günstiger.

Wo also ist das Problem zu warten?

Hübie
2013-11-03, 09:42:46
Geduld ist eine Tugend :freak: Die Leute bekommen ja gleich Durchfall wenn der Regler in BF4 nicht ganz rechts steht...
scnr ;D

L.ED
2013-11-03, 09:53:43
Um so schneller die Customs kommen, desto schneller fallen auch diese im Preis und zu dem heizt es die Konkurrenzsituation weiter an!

Persönlich hoffe auch auf Customs mit vormontierten FullCover Wasserkühlern und aktuell auf PowerColor (da sie u.a. solche auch als zeitnahe bereits angekündigt). :smile:

horn 12
2013-11-03, 09:55:55
Na dann will ich mal wenn RAFF schon nicht kann :-)

Quelle:C't 24/2013

zur 290X abs es bereits Tests hier erstmal ie Technischen Daten der 290.
Sie waren weitestgehend bekannt(In Klammern die Werte der 290X):

6,2 Mrd. Transistoren
Schader 2560 (2816)
40 CUs (44)
Textureinheiten 160 (176)
Texturdurchsatz 152 Gtex/s (176)
Takt 947MHz (1000)
SP/DP 4,85/1,2 TFlops (5,63/1,4)
4GB VRam

UVP 400€

Fehlende Daten sind mit der 290X identisch.

Im 3DMark Firestrike schlät die 290 die GTX 780, bleibt aber hinter der Titan.

In Punkte Spiele wurde auch wieder hier zwischen Normalen und Uber Modus unterschieden.

Im Letzter kann sich die Karte teils deutlichen der GTX 780 absetzten, ausser in Battlefield 3 hängt sie 2FPS bei Full HD Auflösung zurück.
Im Normalen Modus kann sie sich oft aber nicht immer vor der GTX 770 positionieren.

Ein paar Benchmarks:

Karte .................Anno 2070 .........BF3.........Bioschock Inf. ......... Crysis 3 ........Dirt Showdown...........Tomb Raider
290 Normal..............71 ...............79 ...............108 .....................41..................100 .........................71
290 Uber.................93 ................92 ............... 112 ...................... 42 ................102.........................75
GTX 780.................85 .................. 94 .............70...........................42...... ........... 89 ..........................70
GTX 770................ 80 ................78 ................96 ....................... 36 .................. 78 .........................59

Man kann sagen das AMD auch hier wieder eine ordnetliche Leistung zeit, leider der Über Modus aber übers Knie in punkte Krach und Leistungsaufnahme gebrochen ist. Es gilt das gleiche wie bei der 290X. Warten auf andere Kühle.


PS:
Der Ueber Modus scheint nicht immer Richtig zu greifen,
zudem mit dem Neuen Bios Settings/ Treiber Setting sieht es nicht mehr sooo schlecht aus bei der R9 290 - Vorausgesetzt man wartet auf Custom Modelle zur kleinen Karte...
Oder aber AMD hat die Lüftersteuerung doch nicht allzuhoch angesetzt, dem ich aber recht misstraue.

V2.0
2013-11-03, 10:13:15
Lohnt sich nur vom Preis her irgendwie nicht. Da kann man auch gleich ne X nehmen. Aber ansonsten werden die 290er mit Customkühlern sicher Superkarten. ASUS,m MSI und Vertex3D bringen da in Kürze einige nette Optionen.

(del676)
2013-11-03, 10:22:30
Um 350 machts vielleicht Sinn.

matty2580
2013-11-03, 10:27:12
Joo, typischer Early Adopter Aufschlag.
Die fällt bestimmt schnell in Richtung 350 €.

Botcruscher
2013-11-03, 10:46:55
Der Kühler muss ja dann noch schlechter sein. Für 23X€ gehen derweil die verbliebenen 7970GHz OC Modelle weg.

Taigatrommel
2013-11-03, 10:50:13
Die Preise werden garantiert in absehbarer Zeit fallen. Bereits die Preise für die aktuell nur bescheiden verfügbaren 290X sind ja vollkommen daneben. Ich hab für meine Karte ja auch um die 570,- bezahlt und bereue das jetzt schon ein wenig.
Ich gehe stark davon aus, dass die Preise sich mit der nächsten Großlieferung normalisieren werden. Sprich die 290X wird bei knapp unter 500,- für die normale Edition ankommen. Bereits jetzt werden ja einzelne Karten so gelistet, nur lieferbar sind sie natürlich. Das nun einige Händler mit Lagerbeständen die schlechte Situation in Form hoher Preise ausnutzen ist zwar bedauerlich, aber irgendwo nachvollziehbar.
Bleibt abzuwarten, wie dann die Verfügbarkeit der 290 aussehen wird. Ist die so "umfangreich" im Handel erhältlich wie der große Bruder, dann wird es kein attraktives Angebot werden. Vor allem nicht jetzt, wo nVidia die GTX 780 für teils deutlich unter 400,- platziert - bei großflächiger Verfügbarkeit.


Ach so, ich kann mich bis jetzt nicht über meine 290X beklagen. Die Karte steht seit Installation im Uber Modus und im Vergleich zu meiner XFX 7970 mit ihrem (zugegebenermaßen bescheidenen) Custom Design ist sie nicht lauter, wohl aber deutlich wärmer. Die Stille in Punkto Spulenpfeifen hingegen ist ein wahrer Segen, vergleichbar mit meiner GTX 480.

V2.0
2013-11-03, 11:02:16
Naja der 7970 Referenzkühler ist auch eher ein Massstab für Schrott. Respekt wenn Du das ertragen kannst.

(del676)
2013-11-03, 11:05:17
Ne, die Kuehler der 7950s sind Schrott. Da wird NUR die GPU gekuehlt, und sonst garnix. die Rams und VRMs haben keine Kuehlkoerper.

horn 12
2013-11-03, 11:09:53
V2.0

Was weißt du diesbezüglich?
Wohl 1 Ghz R9 290 mit fix eingestelltem Lüfterprofil und unter 80 Grad :-)

Raff
2013-11-03, 11:27:06
Ne, die Kuehler der 7950s sind Schrott. Da wird NUR die GPU gekuehlt, und sonst garnix. die Rams und VRMs haben keine Kuehlkoerper.

Ja, das war echt eine sehr "kostenoptimierte" Lösung und entsprechend laut. Bei der Radeon HD 7950 haben's Partner aber sehr gut gelöst, da gibt's einige leise bis sehr leise Modelle. Deswegen bin ich bei der 290 auch zuversichtlich, obgleich diese in einer anderen TDP-Klasse sitzt. Wartet doch einfach bis Dezember und legt euch eine Custom-Karte unter den Baum. Den Launch hat AMD dann zwar immer noch versaut, aber das soll nicht das Problem der Kunden sein.

MfG,
Raff

Iruwen
2013-11-03, 11:36:07
Um so schneller die Customs kommen, desto schneller fallen auch diese im Preis und zu dem heizt es die Konkurrenzsituation weiter an!

Höhö.

:biggrin:

V2.0
2013-11-03, 11:37:33
V2.0

Was weißt du diesbezüglich?
Wohl 1 Ghz R9 290 mit fix eingestelltem Lüfterprofil und unter 80 Grad :-)

Ich weiß noch nicht wie viel Mhz AMD freigibt für die OC Versionen. Ansonsten kennt man viele Kühlerdesigns von den 780er OC, wobei da einige 3 Lüfter Versionen dabei sind.

horn 12
2013-11-03, 11:42:42
@Raff

Kennst diese 7950-er Custom Karte von Sapphire
HD 7950 OC 900
http://www.computerbase.de/news/2012-01/amd-radeon-hd-7950-das-bild-fuegt-sich-zusammen/

Wie laut ist nun der Lüfter der R9 290/X im 40% Modus
bzw. der 55 oder gar 60% Modus der R9 290-er Karte

Dann kann ich mir schonmal ein Bild davon machen, mit Power Up Tuner verstelle ich die Lüftergeschwindigkeit meiner Sapphire HD7950 OC 900.
Dank Dir!

Raff
2013-11-03, 11:48:43
Grob: Der Hawaii-Referenzkühler ist schon mit 40 Prozent etwa doppelt so laut wie deine Karte ab Werk.

MfG,
Raff

fondness
2013-11-03, 12:04:42
Wie gut lässt sich die Karte eigentlich Undervolten? Also was spricht dagegen 0.1V weniger Spannung zu gegen und dafür den Lüfter auf max. 30% zu stellen zB?

Kosh
2013-11-03, 12:08:31
Ich muß immer wieder lachen wenn ich mir den Thread durchlese.

Warum wollen sich einige hier sofort ne 290x holen obwohl
sie zu heiß/zu laut ist?

Müßt ihr wirklich hier und jetzt und sofort ne neue Graka haben?

Einfach auf die Custom Karten warten und sich freuen:

1.Die Karte bekommt dann bessere Kühler
2.Die Karte wird günstiger.

Wo also ist das Problem zu warten?

Manche Leute wollen halt sowas neues sofort haben. Kann ich verstehen.

Jedoch sind die Contrapunkte auch für Wakübesitzer quasi nicht vorhanden und normalerweise sollten Hardwarejunkies ne gescheite Wakü haben für ihr Hobby.

Kosh
2013-11-03, 12:19:45
Grob: Der Hawaii-Referenzkühler ist schon mit 40 Prozent etwa doppelt so laut wie deine Karte ab Werk.

MfG,
Raff

Sorry, ein Kühler,der bei 40% schon sehr laut ist,ist einfach scheisse und taugt keinen Schuss Pulver, wenn das keine Karte für einen seperaten Serverraum ist,wo es immer laut ist.

Was produziert der Lüfter denn für einen Lärm bei 100%?

V2.0
2013-11-03, 12:23:08
20+ Sone

Iruwen
2013-11-03, 12:25:01
Männerhardware halt. Alles unter Presslufthammerlautstärke ist Spielzeug.

Eggcake
2013-11-03, 12:31:20
@Kosh
Wie laut der Lüfter bei 100 Prozent ist, ist eigentlich völlig irrelevant... Das war bei der 5800er Serie z.b. Genau gleich. Der Lüfter dreht sich einfach nur bis max. 40 Prozent, was interessiert es mich da wie laut man den Lüfter theoretisch hochdrehen könnte.
Der Kühler bzw. Lüfter wäre IMHO völlig in Ordnung, wenn er bei 40 Prozent auch anständig kühlen würde, nur tut er das nicht. Dass dann trotzdem höhere Drehzahlen notwendig werden, ist schon ziemlich scheisse.
Die benutzen einfach den praktisch gleichen Kühler und Lüfter wie schon bei der 5800er Serie. Dort war diese Kombi auch noch völlig ausreichend. Sie scheinen es schlicht versäumt zu haben, passende Hardware für die 290er zu entwickeln, wodurch sich der Lüfter weit außerhalb seines ursprünglichen Drehzahlbereichs bewegen muss, was logischerweise unglaublichen Krach verursacht.

gnahr
2013-11-03, 12:31:55
Wie gut lässt sich die Karte eigentlich Undervolten? Also was spricht dagegen 0.1V weniger Spannung zu gegen und dafür den Lüfter auf max. 30% zu stellen zB?
dass a) 30% noch lange nicht bei 0,1volt weniger möglichsind
und b) du den lüfter auch so auf "noch fast erträglich" pinnen kannst und die karte sich dann durchgehend throttelt.
da es keinen garantierten takt gibt sagt dir der hersteller sowiso "F*** U!", die karten werden als pcie-torch-devices verkauft und nicht als pixelbeschleuniger. :)

fondness
2013-11-03, 12:44:56
dass a) 30% noch lange nicht bei 0,1volt weniger möglichsind
und b) du den lüfter auch so auf "noch fast erträglich" pinnen kannst und die karte sich dann durchgehend throttelt.
da es keinen garantierten takt gibt sagt dir der hersteller sowiso "F*** U!", die karten werden als pcie-torch-devices verkauft und nicht als pixelbeschleuniger. :)

Untervoltig bringt einiges, da die Spannung quadratisch in die Verlustleistung mit einfließt und die 290X mit 1,25V relativ viel Spannung bekommt.

mironicus
2013-11-03, 13:30:28
Die Karten laufen bestimmt auch mit 1,1 Volt, je nach ASIC-Qualität. Da kann es je nach Karte schon 30-40 Watt Unterschied geben.

Raff
2013-11-03, 13:36:02
Wenn man den Takt auf beispielsweise 800 MHz senkt, undervoltet sich die GPU übrigens automatisch. 64 feine Spannungsstufen sind's. Das heißt, geringerer Fixtakt sorgt dafür, dass die Kiste nicht so schnell überhitzt und rumbrüllt.

MfG,
Raff

M4xw0lf
2013-11-03, 13:39:42
Wenn man den Takt auf beispielsweise 800 MHz senkt, undervoltet sich die GPU übrigens automatisch. 64 feine Spannungsstufen sind's. Das heißt, geringerer Fixtakt sorgt dafür, dass die Kiste nicht so schnell überhitzt und rumbrüllt.

MfG,
Raff
Ja bäh, wer will denn sowas... Kann man nicht hohen Takt UND niedrige Spannung einstellen? ^^

gnahr
2013-11-03, 14:43:28
Spannung quadratisch in die Verlustleistung mit einfließt
genähert. trotzdem sind 10% weniger spannung nicht 10*10% weniger abwärme. (außer die kiste stürzt ab^^)
raffs aussage klingt interessant. default kommt das dem kunden entgegen, aber leute die halbwegs hand anlegen wollen werden in den wahnsinn getrieben. niemand justiert freiwillig 2^6 stufen. ;D

oids
2013-11-03, 14:57:38
Zitat: "Im Vergleich zu einer AMD R9 280X, die nur 250 Euro kostet, bringt die AMD R9 290X einen Schub von etwa 30 Prozent. Dies ist nicht wenig, doch der Aufpreis beträgt rechnerisch mehr als 90 Prozent! In diesem Sinne ist die AMD R9 290X ihren Preis dann doch nicht wert, was übrigens auch für die Nvidia GTX 780 gilt"

http://www.pcaction.de/Hardware-Thema-130320/Specials/AMD-R9-290X-Das-Flaggschiff-im-Test-gegen-Geforce-GTX-Titan-1094964/5/

Matrix316
2013-11-03, 15:33:37
Also für mich ist die 290X mit Referenzkühler eh unkaufbar. Vielen Dank AMD. :( Warum machen die so einen Scheiß?

kunibätt
2013-11-03, 15:42:19
AMD halt :freak:

Matrix316
2013-11-03, 15:59:34
Das war bei der 5870 schon so, wenn auch nicht so dramatisch (auch wenn der Referenzkühler verdammt laut war), bei der 6 und 7970 wars noch schlimmer.

Merken die nicht, dass viel mehr Leute die Karten kaufen würden, wenn sie gescheite Kühler hätten?

oids
2013-11-03, 16:04:15
Ich frag mich auch ob AMD nicht die zahlreichen Reviews liest,in dem der
Scheißkühler bemängelt wird und dann trotzdem keine Besserung gelobt :freak:

mustrum
2013-11-03, 16:05:40
Witzig, wie hier Leute jammern und meinen sie würden mit besserem Kühler mehr Karten verkaufen. Die Karten sind AUSVERKAUFT. Lagernd gibt es sie um 580 € bei den frechen Händlern die auf dumme Käufer warten.
Bis alle eine haben die eine kaufen wollten, gibts dann auch Versionen mit besserem Kühler.

Edit: Trotzdem sollten sie nicht solche Schrottkühler verbauen. Ist schon lächerlich.

Botcruscher
2013-11-03, 16:22:12
Deswegen macht man sich trotzdem die Marke kaputt. Der Erste Test bleibt halt hängen und färbt auch auf die Herstellerprodukte ab. OEM Käufer haben ganz Pech. Bei einer 300€+ Karte sollte man nicht krampfhaft den letzten Euro sparen.

Johnny Rico
2013-11-03, 16:48:40
das sag ma ner firma die niederlassungen schließt, um jeden preis die konsolen wollte und deren seele an die saudis verkauft ist.

Ronny145
2013-11-03, 17:00:06
Witzig, wie hier Leute jammern und meinen sie würden mit besserem Kühler mehr Karten verkaufen. Die Karten sind AUSVERKAUFT.



Als ob das eine Aussakegraft hätte. Bei der jämmerlichen Verfügbarkeit ist es nur logisch das die kaum verfügbar ist.

Blediator16
2013-11-03, 17:12:01
AMD ist scheisse zum 30. mal können wir wieder zum Thema kommen?

CoolhandX
2013-11-03, 17:16:28
Also wenn ich das alles so lese bin ich echt froh das ich mir die 780GTX Super Jetstream gekauft habe.
Habe den ganzen Thread jetzt von Anfang an verfolgt und bestellt hatte ich ne 290x auch schon aber genau aus den oben genannten Gründen (Preis, Verfügbarkeit) und wegen angeblicher nicht Verfügbarkeit vom Händler von seiner Seite her eine Stornierung und später dann wieder für mehr Geld verfügbar bin ich umgeschwenkt.

Die Karte macht genau das, was die AMD Karten "im Moment" noch nicht machen. Sau leise, ist rappel schnell und hat eine vernünftige Temperatur so das mein System nicht anfängt zu kochen. Und wenn ich will kann ich sie ohne großen Aufwand sogar noch übertakten.

Finde die momentane Einführungsphase absolut nicht gelungen. Vielleicht wirds ja was bei den nächsten Radeon Generation.

Ätznatron
2013-11-03, 17:20:19
AMD ist scheisse zum 30. mal können wir wieder zum Thema kommen?

Ja, langsam wird's lächerlich.

Der Kühler soll laut CB sogar relativ gut sein:

Unter Last haben wir dann zunächst schlimmes befürchtet, da die Radeon HD 7970 GHz Edition ein regelrechter Radaumacher gewesen ist. Aus den Fehlern hat AMD aber offensichtlich gelernt, denn lauter als 50 Dezibel wird das neue Single-GPU-Flaggschiff nicht. Damit ist die Karte zwar lauter als die GeForce GTX Titan, bleibt aber durchaus im Rahmen des Erträglichen – eine deutliche Verbesserung gegenüber der letzten Generation! Die Karte ist zu keiner Zeit störend.

Und mit Uber-Schalter auf "An" sind es nichtmal 4 db(A) unterschied zur Titan (56 zu 59,5) unter Last.

Raff
2013-11-03, 17:35:07
Moment. Die 290X setzt im Quiet-Modus 40 Prozent PWM-Frequenz, lässt den Radiallüfter so mit ~2.000 U/Min. drehen und erzeugt laut PCGH-Messung aus 50 Zentimetern Entfernung eine Lautheit von 4,4 Sone. Die Titan bleibt bei gleicher Lüfterdrehzahl fast 15 (!) Grad kühler und erzeugt nur 3,2 Sone. Wie kann man da sagen, dass der AMD-Kühler gut ist?

MfG,
Raff

L.ED
2013-11-03, 17:41:08
Meiner Meinung nach haben AMD-ATI auch ernsthaft ein an der Pfanne, rein Datenblatt-technisch und natürlich auch vom Preis die R9 290X in vielerlei Hinsicht momentan wohl äußerst Interessant. Um dann im selben Lauf gleich durch den Lüfter erneut so eine Farce draus zumachen (unverständlich)? :mad:

Obgleich die Zielgruppe von dem Ding, würde und werde mir das in dieser Form auch niemals ins Haus holen! Und mit ein paar Monate weiter täte auch gleichsam die Bereitschaft sinken das auszugeben wofür man aktuell noch bereit wäre. Irgendwie hat man schon das Gefühl AMD möchte nicht wirklich an seinen Produkten verdienen und es den Leuten lieber später in besser aufgelegt noch billiger Verkaufen, :ucoffee: nun gut auch ne Form von Strategie. ^^

fondness
2013-11-03, 17:44:44
Moment. Die 290X setzt im Quiet-Modus 40 Prozent PWM-Frequenz, lässt den Radiallüfter so mit ~2.000 U/Min. drehen und erzeugt laut PCGH-Messung aus 50 Zentimetern Entfernung eine Lautheit von 4,4 Sone. Die Titan bleibt bei gleicher Lüfterdrehzahl fast 15 (!) Grad kühler und erzeugt nur 3,2 Sone. Wie kann man da sagen, dass der AMD-Kühler gut ist?

MfG,
Raff

Was ist denn das für ein seltsamer Vergleich? Wenn dann müsstest du den Luftstrom messen, alles andere ist Äpfel/Birne. Titan (speziell das Die) verbraucht weniger Strom, hat eine größere Fläche was die Wämeabfuhr erleichtert, das macht es für den Kühler natürlich leichter leiser zu sein.

Faktum ist die Karte ist im Quiet-Modus maximal 4,4 Sone laut, da gab es schon wesentlich schlimmere Referenzkühler. Jetzt hier so ein Faß aufzumachen ist schon etwas seltsam. Der GTX680 Referenzkühler war auch Schrott, das hat dort seltsamerweise kaum wen gestört. Wer einen leiseren Kühler will der wartet wie immer auf Custom-Designs oder schraubt sich selbst einen drauf, es passe eh praktisch alle Kühler drauf, fertig. Hier wird der Untergang von AMD gepredigt weil der Kühler ein Sone lauter ist als auf Titan, unfassbar. Dieselben Leute übertaktet dann wohl ihren Titan bis an die Kotzgrenze sodass dieser an die 10 Sone laut ist.

Ätznatron
2013-11-03, 17:52:41
Moment. Die 290X setzt im Quiet-Modus 40 Prozent PWM-Frequenz, lässt den Radiallüfter so mit ~2.000 U/Min. drehen und erzeugt laut PCGH-Messung aus 50 Zentimetern Entfernung eine Lautheit von 4,4 Sone. Die Titan bleibt bei gleicher Lüfterdrehzahl fast 15 (!) Grad kühler und erzeugt nur 3,2 Sone. Wie kann man da sagen, dass der AMD-Kühler gut ist?

MfG,
Raff

Das Statement ist von CB.

Und ich schrieb dazu "relativ gut". Auf jeden Fall ist er bei weitem nicht so schlecht, wie er hier gemacht wird.

Es ist auch klar, dass es natürlich bessere Kühllösungen gibt.

Solange er die GPU aber auf unbedenklichem Temperaturniveau hält- und das macht er offenbar -, ist das okay.

Die Temperaturen einer Titan scheinen zwar besser, aber die kostet auch € 300,- mehr. Da kann man auch etwas mehr u.a. vom Kühler erwarten.

L.ED
2013-11-03, 18:05:40
Das ist ein weitläufiger Irrglauben, selbst höherwertige Kühllösungen Kosten in der Fertigung nicht die Welt und an solchen Dingen einen guten Start scheitern zu lassen ist völlig Banane weil unnötig!

PS:
Die Nummer Rund um Silent ist heut zu Tage auch bei HighEnd Hardware tendenziell vielmehr im Fokus als anno zu damals, wobei das in dem Fall nur meint das ab bestimmten Punkt halt schlicht Schluss ist (Schmerzgrenzen überspannt), kannst bzw. solltest den Leuten so nicht mehr Anbieten! Zumal es eben obendrein wie schon geschrieben schlicht unnötig bei nicht mal sonderlich an mehr Kosten verursachend (erst recht nicht in der Massenfertigung)!

Rancor
2013-11-03, 18:10:37
Also rein subjektiv gesehen geht der Lüfter bei 40% noch einigermaßen klar. Man hört Ihn zwar deutlich, aber mit Headset stört es nicht so sehr.

Mit 55% kann man das aber total vergessen, das ist einfach nur scheisse. Da gibts nichts zu diskutieren ( wer was andere beahuptet hat die Karte noch nicht live gehört )
Es ist absolut unverständlich warum AMD da solch einen Schrott verbaut hat.

Über die Leistung der Karte brauch man ja nicht diskutieren, die ist TOP !

StefanV
2013-11-03, 18:35:03
Ich frag mich auch ob AMD nicht die zahlreichen Reviews liest,in dem der
Scheißkühler bemängelt wird und dann trotzdem keine Besserung gelobt :freak:
Weil 1. die Custom Karten auf dem Fuße folgen und in ein paar wochen kommen und zweitens diese DHE Kühler von irgendwem verlangt werden, warum auch immer...

Ich hab auch auf sowas wie den 7990 Kühler gehofft, aber das wurd wohl nix. Ein entsprechender Kühler wäre wohl auch zu gut, so dass die Partner keine besseren Kühler verbauen konnten...


Ganz ab davon: Hier jetzt zu tun als ob der AMD Referenzkühler unglaublich schlecht ist, ist einfach nur geheuchelt. Ist ja nicht so, dass es nicht ein grundsätzliches Problem von DHE Kühlern ist, dass das Verhältnis von Kühlleistung zu Lautstärke einfach nur scheiße ist...
Aber der Kühler ist halt der einzige Punkt, an dem die ganzen nV Fans hier im Forum überhaupt noch was dran aussetzen können. Wie sehe die Welt bloß aus, wenn der Kühler richtig gut wäre und es gar keinen Kritikpunkt an AMDs neustem Geschöpf gäbe?!

Raff
2013-11-03, 18:38:13
Wie sehe die Welt bloß aus, wenn der Kühler richtig gut wäre und es gar keinen Kritikpunkt an AMDs neustem Geschöpf gäbe?!

Das fänd ich zur Abwechslung mal echt super. Es ist schön, wenn man nicht immer "aber" sagen muss, sondern einfach "kauf die". Titan war/ist übrigens so eine beinahe perfekte Karte. Aber auch hier hat man für einen fetten Kritikpunkt gesorgt: den Preis ... ;)

MfG,
Raff

Ätznatron
2013-11-03, 18:38:27
Also rein subjektiv gesehen geht der Lüfter bei 40% noch einigermaßen klar. Man hört Ihn zwar deutlich, aber mit Headset stört es nicht so sehr.

Mit 55% kann man das aber total vergessen, das ist einfach nur scheisse. Da gibts nichts zu diskutieren ( wer was andere beahuptet hat die Karte noch nicht live gehört )
Es ist absolut unverständlich warum AMD da solch einen Schrott verbaut hat.

Über die Leistung der Karte brauch man ja nicht diskutieren, die ist TOP !

Ja, es stimmt, live gehört habe ich sie noch nicht.

Gucke ich mir die diversen Reviews an, wird sie aber allgemein als leiser als eine HD 7970 beschrieben, die kenne ich und kann mir von daher ein Bild machen.

Raff
2013-11-03, 18:42:17
Du hast eine GHz Edition im Referenzdesign? Und ich dachte, die gab's nur in Form von Pressesamples ... Wie auch immer: Auch die ist leiser als der Uber-Modus einer 290X. Falls du die HD 7970 "925M" meinst: Die liegt tatsächlich im bzw. leicht unter dem Bereich des Quiet Mode.

MfG,
Raff

Felixxz2
2013-11-03, 18:48:37
Echt Jungs, es ist verdammt nochmal die 68 Seite des Threads und immernoch nur der Kühler. Kannn ja wohl echt nicht euer Ernst sein. Passende Customs sind doch aufm Weg (AFAIK Anfang Dezember), gut da hätte man vielleicht früher dran sein können, aber die Kritik am Standardkühler ist so lächerlich. Vor allem der Vergleich mit Titan. Für den Preis kann man sich locker ne 290X mit Wasserkühlung holen oder eben nen Accelero draufschnallen. Wenn dann ist die 780/780 Ti hier der Vergleichspartner. Da hat nVidia in der Tat gerade sehr schöne Angebote.
Bitte bitte hört aber auf mit dieser lächerlichen Kühlerdiskussion, die nurnoch von der noch absurderen Boostdiskussion im Spekuthread überboten wurde. Selbst bei der 7970 oder sonstigen lauten DHE Kühllösungen hat das doch im Long-Run keinen interessiert.

Viel interessanter wären da OC ergebnise von Leuten die sich eben nen schönen kühler draufgepackt haben.

Oder die Frage, ob AMD da nochmal was in 28SHP bringt.

Ätznatron
2013-11-03, 18:49:59
Du hast eine GHz Edition im Referenzdesign? Und ich dachte, die gab's nur in Form von Pressesamples ... Wie auch immer: Auch die ist leiser als der Uber-Modus einer 290X. Falls du die HD 7970 "925M" meinst: Die liegt tatsächlich im bzw. leicht unter dem Bereich des Quiet Mode.

MfG,
Raff

Nein, hatte mal eine ""normale" 925 MHz-Referenzkarte, die mit 1100\1500 MHz übertaktet lief (iirc) und später einen AC-Kühler verpasst bekam.

Momentan bin ich mit einer Palit 780 SJ unterwegs.

L.ED
2013-11-03, 19:04:52
Und viel schlimmer noch ist wenn AMD Vorzugskäufer das ebenfalls monieren, vor allem bekommt es noch mehr gehalt! Würde das Ding für Aktuell 400 im Shop liegen wäre es viel weniger ein Thema, da eben gleich darauf eh den Referenz herunterzureißen um was vernünftiges zu verbauen.

Aber eigentlich wäre es doch schön wenn das gar nicht erst nötig?

Ich denke die Enttäuschung und Missgunst vieler Stimmen rührt auch genau von daher? Man ist zwar heiß auf das Ding aber auch nicht bescheuert (sorry)! Sich Starterpreise für so eine Nummer abziehen lassen zu wollen, wenn man mit dieser Präferenz bzw. Wissen unter Aufgabe der Garantie, sich sowieso gleich wieder am Basteln und ggf. noch extra Investments genötigt sieht. ^^

Marty98
2013-11-03, 19:05:31
Ja, es stimmt, live gehört habe ich sie noch nicht.

Gucke ich mir die diversen Reviews an, wird sie aber allgemein als leiser als eine HD 7970 beschrieben, die kenne ich und kann mir von daher ein Bild machen.

Fünf Minuten spielen im Uber-Mode reichen, um mit der 290X zu erleben, wie laut eine Grafikkarte in der Praxis wirklich werden kann. Vielleicht mit Ausnahme der ersten GTX 480, die aber weniger nervig klingt, ist das die lauteste Grafikkarte, die Golem.de bisher getestet hat. Das Geräusch der neuen Radeon ist, ganz charakteristisch für AMD-Karten im Referenzdesign, nicht nur ein lautes Rauschen.

Je schneller der Lüfter dreht, umso mehr hochfrequente Anteile gibt das System durch die schnell bewegte Luft von sich, was am Ende fast wie ein Pfeifen klingt. Mehrere Personen fanden das sehr unangenehm.

http://www.golem.de/news/radeon-r9-290x-im-test-teilzeit-boost-macht-hawaii-fast-zum-titan-killer-1310-102331-7.html

StefanV
2013-11-03, 19:29:02
Tjo, was anderes als aufm Kühler rum zu dreschen bleibt halt nicht. D amuss man halt bei jeder Gelegenheit drauf hinweisen. Weil man hat ja nix anderes, mit dem man die 290X angreifen kann, außer dem Kühler.

Aber wisst ihr was: Das wird sich bald ändern. In 2-3 Monaten wird der Referenzkühler gar keine Rolle mehr spielen und es wird (fast) nur noch Custom Modelle geben.

Aber hey, nVidia ist trotzdem irgendwie ja doch besser, auch wenn AMD gerad die beste Karte aufm Markt hat...

LSSJBroly
2013-11-03, 19:43:29
auch wenn AMD gerad die beste Karte aufm Markt hat...

Und woran machst du das gerade aus?

gnahr
2013-11-03, 19:52:36
Weil man hat ja nix anderes, mit dem man die 290X angreifen kann, außer dem Kühler.
und da ist sie wieder, die dolchstoßlegende. ;D

über die nicht-weltbewegende leistungssteigerung muss man einfach nicht disskutieren, wenn das produkt untragbar laut wird und neue rekorde beim abnerven setzt sowie durch die gegend drosselt.

(del676)
2013-11-03, 19:55:24
@L.ED: einen billigen Stock Kuehler sehe nicht als Problem. Viel mehr das Fehlen von Customkarten bei Launch. Immerhin gibts genug Leute, die die billigste Referenzkarte haben wollen, um sie auf Wakue umbauen zu koennen.

L.ED
2013-11-03, 19:59:27
Für mich Persönlich ist Nvidia spätestens seit der GTX680 Nummer uninteressant geworden, spricht mich nicht mehr an. Die könnten davor nun auch die GTX 780 TI anstelle der 699 für 200 oder weniger in den Markt werfen und es würde daran nichts ändern. Ich Glaube auch nicht das sie Firmenpolitisch überhaupt willens dazu? Von daher sehe auch für die kommende Generation schon jetzt keine Option. :frown: Schön wäre es wenn eines besseren belehrt, aber das wird höchst wahrscheinlich nicht passieren? :|

Vor diesem Hintergrund kritisiert man (wenn denn), dann aber auch ganz anders und denke in diesem Punkt nicht so allein zu stehen!? :confused:

PS: @Ulukay
Gebe dir da schon recht und was das belangt ist WK im Grunde auch meine Intention, es wäre nur schön wenn man so was auch gleich ab Start kaufen könnte und der Streitpunkt könnte hier dann dort zu suchen sein was man als billig empfindet und hier würde es drohen ins OT zu rutschen. Da es ganz unabhängig von meiner eigenen Lebenssituation allgemein an anderen Dingen festmache! ;) (und davor wären selbst besagte 400 alles andere als billig, viel zu viele Familien haben im Monat auch in Deutschland schon bereits noch viel weniger zum Leben)

Eggcake
2013-11-03, 20:04:53
@Stefan
Nein,AMD hat eben nicht gerade die beste Karte auf dem Markt, eben wegen dem verdammten Kühler. Du darfst mit diesen Kommentaren gerne kommen wenn Custom Karten erhältlich sind, dann mag sich das Blatt auch wenden, aber derzeit ist sie 290X wegen dem Kühler eben nicht kaufbar. Und das sage ich, der sich sehr gerne die 290 ins System geschnallt hätte, wobei mir die PCGH Preview hier eigentlich auch bereits jede Hoffnung genommen hat.

Wenn du schon mit "aber in 3 Monaten sieht das Ganze anders aus" kommst, dann ignorier bitte nicht, dass sich der Markt auch bei NV ändert.

TheCounter
2013-11-03, 20:08:22
Und woran machst du das gerade aus?

DX11.1/2 :ugly:

uweskw
2013-11-03, 20:39:43
.......
Aber der Kühler ist halt der einzige Punkt, an dem die ganzen nV Fans hier im Forum überhaupt noch was dran aussetzen können. Wie sehe die Welt bloß aus, wenn der Kühler richtig gut wäre und es gar keinen Kritikpunkt an AMDs neustem Geschöpf gäbe?!

Wir kennen doch die Hyperaktive NV-Fraktion.
Hätte die 290x den perfekten Kühler , so hätte man sich an anderen gravierenden Schwächen festgebissen. Wie wärs mit akuter Verletzungsgefahr an den scharfkantigen Lammellen des Lüfters oder zu viel/wenig Einstellmöglichkeiten im Treiber oder Fingernagelbruchgefahr beim Abziehen der Stromstecker.... irgend etwas findet sich immer um 70 (in Worten - siebzig-) den bösen Gegner schlecht zu machen.:freak:

Schade dass sich in 1400 Beiträgen nichts zur Bildqualität findet.
Oder sollte es da mal nix zu kritisieren geben?

Greetz
U.S.

Eggcake
2013-11-03, 20:45:22
Die wurde ja noch nicht getestet. Performance top, Lautstärke, Leistungsaufnahme und temps Flop. Was wurde denn in den bekannten Tests noch untersucht?

Menace
2013-11-03, 21:00:14
über die nicht-weltbewegende leistungssteigerung muss man einfach nicht disskutieren, wenn das produkt untragbar laut wird und neue rekorde beim abnerven setzt sowie durch die gegend drosselt.

Hihi.... Würde mich auch ärgern, wenn man bis vor kurzem für die nicht weltbewegende Leistung 1000 € hinblättern musste und AMD die Gemeinheit besitzt damit jetzt Schluss zu machen. ;D

Matrix316
2013-11-03, 21:31:29
[...]
Aber der Kühler ist halt der einzige Punkt, an dem die ganzen nV Fans hier im Forum überhaupt noch was dran aussetzen können. Wie sehe die Welt bloß aus, wenn der Kühler richtig gut wäre und es gar keinen Kritikpunkt an AMDs neustem Geschöpf gäbe?!
Dann hätte ich vielleicht sogar schon auf den Bestellknopf gedrückt. ;)

Mir ist es eigentlich fast egal ob Nvidia oder AMD: ich hätte gerne am liebsten wieder mal eine Matrox High End Karte ;D. Ich gehe vor allem nach Preis/Leistung/Lautstärke. ;)

Meine Historie ist z.B. eher abwechslungsreich: ATI Graphics Pro Turbo, Matrox Mystique+Miro Voodoo, Nvidia TNT, NVidia TNT2, Geforce 2 Pro, Radeon 8500, Geforce 4 TI 4200, Radeon 9800 Pro, Geforce 6600GT, Geforce 6800, Radeon X800 Pro, Geforce 6800GS, Radeon X1950XT, Geforce 8800GT (SLI), Radeon 4870X2, Radeon 5870, Geforce GTX 580, GeForce GTX 680

Und eigentlich wäre eine Radeon überfällig. Allerdings gibt es jetzt zwei Sachen die miteinander kämpfen: Neueres DX + Mantl vs Bessere Kühler & GSync & Streaming.

MR2
2013-11-03, 21:42:38
Wenn ich 500€ für ne Grafikkarte ausgebe, wieso dann nicht noch läppische 50 für nen Accelero Extreme III? Dann hat man wenigstens was ordentliches und kann über Lautstärke, Hitze und Co nur müde lächeln.

gnahr
2013-11-03, 21:44:11
garantie? gefrickel?
kann doch nicht unmöglich sein, den ab werk an zu flanschen...

Godmode
2013-11-03, 21:47:07
Wenn ich 500€ für ne Grafikkarte ausgebe, wieso dann nicht noch läppische 50 für nen Accelero Extreme III? Dann hat man wenigstens was ordentliches und kann über Lautstärke, Hitze und Co nur müde lächeln.

Generell frage ich mich, warum AMD das nicht einfach gemacht hat? Die hätten doch sicher einen super Preis bekommen wenn sie gleich ein paar zig Tausend AC3 bestellt hätten?

Rancor
2013-11-03, 21:48:53
DX11.1/2 :ugly:

Also das verwirrt mich irgendwie. Kann mir das mal jemand erklären.

http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/24609-keine-vollstaendige-directx-111-unterstuetzung-bei-kepler-gpus.html

Hier steht zB. Das Kepler alle Spielrelevanten Features unterstützt, aber auf Grund des 2DKrams halt nicht 100% kompatibel ist zu DX11.1.

http://www.hardwareluxx.de/index.php/news/software/betriebssysteme/26859-windows-81-bringt-directx-112-mit-hochaufloesenden-texturen.html

Hier steht das Sie DX11.2 nicht können, weil Kepler 11.1 nicht kann...

Damit die Verwirrung komplett ist, wird hier eine dx11.2 Demo auf einer Kepler Karte gezeigt

http://blogs.nvidia.com/blog/2013/06/26/higher-fidelity-graphics-with-less-memory-at-microsoft-build/

fondness
2013-11-03, 21:49:24
Fünf Minuten spielen im Uber-Mode reichen, um mit der 290X zu erleben, wie laut eine Grafikkarte in der Praxis wirklich werden kann. Vielleicht mit Ausnahme der ersten GTX 480, die aber weniger nervig klingt, ist das die lauteste Grafikkarte, die Golem.de bisher getestet hat. Das Geräusch der neuen Radeon ist, ganz charakteristisch für AMD-Karten im Referenzdesign, nicht nur ein lautes Rauschen.

Je schneller der Lüfter dreht, umso mehr hochfrequente Anteile gibt das System durch die schnell bewegte Luft von sich, was am Ende fast wie ein Pfeifen klingt. Mehrere Personen fanden das sehr unangenehm.

http://www.golem.de/news/radeon-r9-290x-im-test-teilzeit-boost-macht-hawaii-fast-zum-titan-killer-1310-102331-7.html

Man sollte wenigstes so ehrlich sein und nicht nur die Hälfte posten:

Dagegen hält der Quiet-Mode, was der Name verspricht: Zumindest in einer offenen Plattform ist die Karte dann zwar deutlich hörbar, aber keineswegs lästig. Eine parallel in einem zweiten Mainboard betriebene Radeon HD 7970 GHz Edition im Referenzdesign fällt wesentlich störender auf. Selbst im stillen Modus ist die 290X noch lauter als die Geforce Titan, die dafür aber auch viel mehr kostet.

Matrix316
2013-11-03, 21:49:40
Wenn ich 500€ für ne Grafikkarte ausgebe, wieso dann nicht noch läppische 50 für nen Accelero Extreme III? Dann hat man wenigstens was ordentliches und kann über Lautstärke, Hitze und Co nur müde lächeln.
Wenn ich 500 Euro für ne Grafikkarte ausgeben sollte, will ich nicht dran rumbasteln müssen, denn dann geht noch was kaputt und dann sitzt man drauf und hat auch meistens keine Garantie mehr.

Und wieso kann Nvidia auch bei den preiswerteren 770 und 760 den schönen Kühler der Titan und 780 bringen, während AMD bei der teuersten 290X den billigen Kühler der 280 und niedriger verbaut?:ugly:

Und warum erlauben sie nicht von Anfang an 3rd Party Kühler? So lange dort ein AMD Aufkleber drauf ist, kannst doch Furzegal sein für AMD. Das Debakel bringt doch nur schlechte Presse. Oder will man um jeden Preis in jedem Benchmark mit dem Balken vorne liegen? Also bei den FPS und der Lautstärke und dem Stromverbrauch? ;)

fondness
2013-11-03, 21:51:05
Generell frage ich mich, warum AMD das nicht einfach gemacht hat? Die hätten doch sicher einen super Preis bekommen wenn sie gleich ein paar zig Tausend AC3 bestellt hätten?

Weil man für Crossfire eine DHE-Kühler benötigt.

Wenn ich 500 Euro für ne Grafikkarte ausgeben sollte, will ich nicht dran rumbasteln müssen, denn dann geht noch was kaputt und dann sitzt man drauf und hat auch meistens keine Garantie mehr.

Du kannst im CCC die Lüfterdrehzahl nach belieben festlegen, völlig offiziell freigeben von AMD.

Godmode
2013-11-03, 21:52:23
Weil man für Crossfire eine DHE-Kühler benötigt.

Ok stimmt, aber dafür hätte man auch noch eine CF-Edition auflegen können. Naja egal, den Pros ist es eh egal, die kaufen nen guten Kühler und fertig. Fürs Marketing ists halt scheisse.

Blediator16
2013-11-03, 21:53:58
Wenn ich 500 Euro für ne Grafikkarte ausgeben sollte, will ich nicht dran rumbasteln müssen, denn dann geht noch was kaputt und dann sitzt man drauf und hat auch meistens keine Garantie mehr.

Und wieso kann Nvidia auch bei den preiswerteren 770 und 760 den schönen Kühler der Titan und 780 bringen, während AMD bei der teuersten 290X den billigen Kühler der 280 und niedriger verbaut?:ugly:

Und warum erlauben sie nicht von Anfang an 3rd Party Kühler? So lange dort ein AMD Aufkleber drauf ist, kannst doch Furzegal sein für AMD. Das Debakel bringt doch nur schlechte Presse. Oder will man um jeden Preis in jedem Benchmark mit dem Balken vorne liegen? Also bei den FPS und der Lautstärke und dem Stromverbrauch? ;)

Weil man evtl. seinen Partnern mit den Kühlerdesigns vertraut. Ich frage mich wieso so ein Aufriss wegen dem Ref. Kühler gemacht wird. Es wird langsam alt.

aufkrawall
2013-11-03, 21:55:48
Weil man für Crossfire eine DHE-Kühler benötigt.

Macht doch keinen Spaß, der Radau.
Axial-Kühler kann man ohne Probs mit offenem Gehäuse betreiben, und das ist immer noch zig Mal leiser.

Matrix316
2013-11-03, 21:59:42
[...]

Du kannst im CCC die Lüfterdrehzahl nach belieben festlegen, völlig offiziell freigeben von AMD.

Leiser == heißer.

Und das ist blöd.

Leiser und kühler - DAS wäre gut.

Warum gibt man nicht etwas mehr Hirnschmalz in die Entwicklung eines etwas besseren Referenzkühlers? Muss ja nicht so eine Turbine sein.

Knuddelbearli
2013-11-03, 22:00:22
Generell frage ich mich, warum AMD das nicht einfach gemacht hat? Die hätten doch sicher einen super Preis bekommen wenn sie gleich ein paar zig Tausend AC3 bestellt hätten?


Asus und Co hätte sich gefreut ...

fondness
2013-11-03, 22:00:54
Macht doch keinen Spaß, der Radau.
Axial-Kühler kann man ohne Probs mit offenem Gehäuse betreiben, und das ist immer noch zig Mal leiser.

Axial-Kühler sind bei offenen Teststand oder Gehäuse sicher überlegen. Bei geschlossenen Gehäuse kann sich das sehr schnell umdrehen.

Matrix316
2013-11-03, 22:03:19
Asus und Co hätte sich gefreut ...
Die hätten sich bestimmt mehr gefreut, hätte AMD gleich erlaubt andere zu verwenden, als den Referenzkühler...

aufkrawall
2013-11-03, 22:04:08
Axial-Kühler sind bei offenen Teststand oder Gehäuse sicher überlegen. Bei geschlossenen Gehäuse kann sich das sehr schnell umdrehen.
Ja, das geht natürlich nicht gut.
Aber die paar CF-Kunden können doch nicht entscheidend sein, dass man diese teilweise desaströsen Testergebnisse in Kauf nimmt.

Die Dinger landen wohl auch in OEM-PCs?
Da kommen Hitzeschleudern sicher nicht gut an.

fondness
2013-11-03, 22:06:09
Die hätten sich bestimmt mehr gefreut, hätte AMD gleich erlaubt andere zu verwenden, als den Referenzkühler...

Das ist keine Frage von Erlauben. Es dauert eben seine Zeit, deswegen erscheinen neue Karte zuerst immer im Referenzdesign. Es sei denn der Chip ist nicht mehr ganz neu, wie zB bei der 280X.

Matrix316
2013-11-03, 22:15:35
Aber die Kühler gibt es doch schon. Oder hat AMD das Design der 290 Karten so drastisch geändert, dass die 7970 Kühler nicht mehr passen?

Iruwen
2013-11-03, 22:16:30
Ganz ab davon: Hier jetzt zu tun als ob der AMD Referenzkühler unglaublich schlecht ist, ist einfach nur geheuchelt. Ist ja nicht so, dass es nicht ein grundsätzliches Problem von DHE Kühlern ist, dass das Verhältnis von Kühlleistung zu Lautstärke einfach nur scheiße ist...
Aber der Kühler ist halt der einzige Punkt, an dem die ganzen nV Fans hier im Forum überhaupt noch was dran aussetzen können. Wie sehe die Welt bloß aus, wenn der Kühler richtig gut wäre und es gar keinen Kritikpunkt an AMDs neustem Geschöpf gäbe?!
Hier wird Kritik von Leuten geübt die Karten professionell testen und den direkten Vergleich haben, und vor allem von Leuten die überhaupt eine 290X haben und das beurteilen können. Das sind dann natürlich alles "nV Fans" die nur auf Teufel komm raus ein Haar in der Suppe finden wollen. Andererseits stürzen sich "gewisse Leute" gierig auf einen Satz von CB dem etliche andere Meinungen gegenüberstehen, u.a. auch solche die betonen, dass nicht nur die reinen Messwerte mau sind, sondern das Lüftergeräusch auch noch unangenehm ist.
Erstbestes Review: http://ht4u.net/reviews/2013/amd_radeon_r9_290x_hawaii_review/index19.php
Das Quiet-BIOS verdient seinen Namen allerdings nur im unmittelbaren Vergleich zur Geräuschkulisse des Performance-BIOS. 35 dB(A) bei einem Radial-Lüfter sind nicht leise, sondern Laut. Immerhin setzte man sich von der Darbietung der HD 7970 GHz-Edition mit rund 44 dB(A) ganz klar ab, aber an die ebenfalls nicht leise GTX Titan mit rund 31 dB(A) kommt man ebenfalls nicht heran. Diese Geräuschkulisse bleibt also in allen 3D-Last-Szenarien anliegend, es sei denn, die gesetzte Temperatur von 94 °C kann weder durch diese Drehzahl, noch die Takt- und Spannungsabsenkungen gehalten werden. Das könnte in einem heißen Sommer und einem schlecht belüfteten Gehäuse der Fall sein. Unter diesen Umständen setzt sich PowerTune dann über die im Treiber gesetzte Lüfterdrehzahl hinweg und dreht höher, bis die Temperaturschwelle wieder erreicht ist.
Oder siehe auch hier (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9986550&postcount=1361).
Also wenn einem "weniger scheiße als die 7970GHz Edition" reicht, bitte. Ich bookmarke mir die Seite mal bis NV eine derartige Karte veröffentlicht. Dürfte sicherlich auch kein Problem sein, derartige Kommentare in alten Review Threads zu finden. Also Ball flachhalten, Mr Doppelmoral. Du bist schließlich immer einer der ersten, die bei sowas losschießen.

Iruwen
2013-11-03, 22:25:15
Also das verwirrt mich irgendwie. Kann mir das mal jemand erklären.

http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/24609-keine-vollstaendige-directx-111-unterstuetzung-bei-kepler-gpus.html

Hier steht zB. Das Kepler alle Spielrelevanten Features unterstützt, aber auf Grund des 2DKrams halt nicht 100% kompatibel ist zu DX11.1.

http://www.hardwareluxx.de/index.php/news/software/betriebssysteme/26859-windows-81-bringt-directx-112-mit-hochaufloesenden-texturen.html

Hier steht das Sie DX11.2 nicht können, weil Kepler 11.1 nicht kann...

Damit die Verwirrung komplett ist, wird hier eine dx11.2 Demo auf einer Kepler Karte gezeigt

http://blogs.nvidia.com/blog/2013/06/26/higher-fidelity-graphics-with-less-memory-at-microsoft-build/

Oh Gott, hör bloß auf. Das Thema darfst du hier über etliche Seiten "genießen", fang bitte nicht nochmal an:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9982818#post9982818

StefanV
2013-11-03, 22:27:38
Axial-Kühler sind bei offenen Teststand oder Gehäuse sicher überlegen. Bei geschlossenen Gehäuse kann sich das sehr schnell umdrehen.
Moderne Gehäuse haben an der Seitenwand 'nen Lüfter (oder zwei), damit kann man dann in solchen Fällen mal 'rumspielen' und schauen, ob blasen oder saugen besser ist...

(del676)
2013-11-03, 22:31:46
Weil man für Crossfire eine DHE-Kühler benötigt.

Warum?
Ich hab 2 7950s mit jeweils einem 7970 Arctic drin. 2 Karten auf 6 Hoeheneinheiten. Warum soll das nicht funktionieren?

Hab gerade 4 Stunden the Hunter gespielt, GPU1 Hoechsttemperatur:69°C, bei 1000MHz und 1.25V

Matrix316
2013-11-03, 22:32:42
Man könnte bestimmt auch einen Axial Lüfter so montieren, dass er die heiße Luft hauptsächlich hinten raus bläst und nicht zurück ins Gehäuse.

C.D.B.
2013-11-03, 22:59:57
Also das verwirrt mich irgendwie. Kann mir das mal jemand erklären.

http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/24609-keine-vollstaendige-directx-111-unterstuetzung-bei-kepler-gpus.html

Hier steht zB. Das Kepler alle Spielrelevanten Features unterstützt, aber auf Grund des 2DKrams halt nicht 100% kompatibel ist zu DX11.1.

http://www.hardwareluxx.de/index.php/news/software/betriebssysteme/26859-windows-81-bringt-directx-112-mit-hochaufloesenden-texturen.html

Hier steht das Sie DX11.2 nicht können, weil Kepler 11.1 nicht kann...

Damit die Verwirrung komplett ist, wird hier eine dx11.2 Demo auf einer Kepler Karte gezeigt

http://blogs.nvidia.com/blog/2013/06/26/higher-fidelity-graphics-with-less-memory-at-microsoft-build/


Ab und zu mal in den News von Leo vorbeischauen schadet nicht. z.B. das hier. http://www.3dcenter.org/news/uebersichtsliste-welche-hardware-unterstuetzt-welches-level-von-directx-11x

Für das DX11.1-Label müssen nun mal alle benötigten Funktionen realisiert werden. Nicht eben nur ein "paar". Sonst wär's ja kein Standard - auf den alle aufbauen könnten. ;) Und Kepler ist halt nicht DX11.1-fähig.

@topic:
Können wir wieder über PT vs TB "diskutieren"? Die elendige Kühler-"diskussion" ödet langsam an! :mad:

V2.0
2013-11-04, 07:24:41
Der Kühler ist doch unbedeutend. Man sollte lieber mal rausstellem, dass die Karte momentan die schnellste Karte am Markt ist, das P/L Verhältnis für High-End bahnbrechend und man nur bei AMD ein zeitgemäßes Featureset bekommt. Wer kauft heute noch eine DX11.0 Karte?

Die Reviews schaffen es imho nicht diese Punkte in ein vernünftiges Verhältnis zu bringen.

Marty98
2013-11-04, 07:49:04
Der Kühler ist doch unbedeutend. Man sollte lieber mal rausstellem, dass die Karte momentan die schnellste Karte am Markt ist, das P/L Verhältnis für High-End bahnbrechend und man nur bei AMD ein zeitgemäßes Featureset bekommt. Wer kauft heute noch eine DX11.0 Karte?

Die Reviews schaffen es imho nicht diese Punkte in ein vernünftiges Verhältnis zu bringen.

Preis Leistung ist bei der 780 und besonders bei der 780 OC besser (siehe CB) und DX11.0 reicht doch für 100% aller Spiele aus. Falls ein 11.1 Spiel mal rauskommt läuft es doch genauso gut auf NVidia, weil spielrelevante Features in HW da sind, nur die 2D Sachen fehlen.

Ohne bessere Kühler ist die 290X (und vermutlich auch die 290) komplett unbrauchbar. Auf leisere Kühler muss man bis Dezember warten und dann ist zu befürchten dass die Karte so heiss wird dass sie permament auf 800MHz drosselt.

Das einzige was für AMD spricht ist eventuell Trueaudio und Mantle in der Zukunft, aber bis das in Erscheinung tritt gibt es bereits eine neue Generation von AMD die dann hoffentlich deutlich besser ist.

horn 12
2013-11-04, 07:54:45
Die GTX 780 kann derzeit mit der R9 290X nicht mithalten, dafür kommt ja wie bereits erwähnt die GTX TI Ersatz.
Dafür wird aber auch die GTX 780 verramscht (Wie auch bei AMD die HD7950 /7970 - Ghz) und geht EOL
In etwa 1 Monat wird es kaum mehr die GTX 780 inkl. Custommodelle mehr geben, jene werden ebenso EOL auch gehen und auf der TI ersetzt.
Titan ist auch nicht mehr haltbar und wird ausgelassen ...

Merkt IHR was ...

V2.0
2013-11-04, 07:55:33
Einen Kühler kann ich tauschen, fehlende DX11.2 Features nicht.

Die GTX 780 kann derzeit mit der R9 290X nicht mithalten, dafür kommt ja wie bereits erwähnt die GTX TI Ersatz.
Dafür wird aber auch die GTX 780 verramscht (Wie auch bei AMD die HD7950 /7970 - Ghz) und geht EOL
In etwa 1 Monat wird es kaum mehr die GTX 780 inkl. Custommodelle mehr geben, jene werden ebenso EOL auch gehen und auf der TI ersetzt.
Titan ist auch nicht mehr haltbar und wird ausgelassen ...

Merkt IHR was ...

Die 780 (v2.0) bleibt als Gegner der 290 erhalten. Die 780ti steht gegen die 290X. (Ist aber halt ein Speicherkrüppel und hat unter 4k keine Chance)

horn 12
2013-11-04, 08:04:58
Ja, spielst auf die Ghz Versionen an, diese wird es auch brauchen um gegen Custom Modelle der R9 290 anzutreten.
Eine GTX 780 "Standard" wird es nimmer lange geben...

Loeschzwerg
2013-11-04, 08:15:12
Speicherkrüppel? Es kommt doch eine 6GB und sogar 12GB Variante :D Und wiso unter 4K keine Chance?

Die Featuresets DX11.1 und DX11.2 dürften so viel Gewicht haben wie damals DX10.1, also eher wenig... bis nichts. Aber die 780 Ti soll hier nach den ersten Aussagen ja zulegen (vermutlich daher die B1 Revision).

Ätznatron
2013-11-04, 08:24:09
Speicherkrüppel? Es kommt doch eine 6GB und sogar 12GB Variante :D

Sind offizielle Spezifikationen seitens nVidia bereits verfügbar?

Wäre toll, wenn du die Dokumente verlinken könntest.

Dann hätte man eine Basis für weitere Diskussionen.

V2.0
2013-11-04, 08:28:36
Speicherkrüppel? Es kommt doch eine 6GB und sogar 12GB Variante :D Und wiso unter 4K keine Chance?

Die Featuresets DX11.1 und DX11.2 dürften so viel Gewicht haben wie damals DX10.1, also eher wenig... bis nichts. Aber die 780 Ti soll hier nach den ersten Aussagen ja zulegen (vermutlich daher die B1 Revision).

Und die sind preislich albern.... (ok wer ne Titan gekauft hat findet es wahrscheinlich billig)

Loeschzwerg
2013-11-04, 09:04:26
@Ätznatron: Offiziell gibt es da leider noch nichts, aber andererseits macht eine 3GB only 780 Ti auch nicht viel Sinn.

@V2.0: Die werden freilich mehr kosten als 599USD der 3GB Version, die Frage ist aber auch ob mehr Speicher benötigt werden in naher Zukunft?

uweskw
2013-11-04, 09:17:44
Sollte heute nicht die 290Pro vorgestellt werden?

Raff
2013-11-04, 09:29:36
Offensichtlich nicht. ;)

MfG,
Raff

Sven77
2013-11-04, 09:35:12
Was haben hier eigentlich alle mit P/L immer... als wäre die 290X ein P/L-Hammer.. das mag auf die 280X zutreffen, aber wer eine 290X kauft hat genauso Kohle in ein paar Schwanzmarkframes gesteckt wie ein Titankäufer damals.. auch wenn die Preise nicht vergleichbar sind, Luxus bleibt Luxus

M4xw0lf
2013-11-04, 09:37:13
Sollte heute nicht die 290Pro vorgestellt werden?
5.11. hieß es ;)

Ätznatron
2013-11-04, 09:38:19
@Ätznatron: Offiziell gibt es da leider noch nichts, aber andererseits macht eine 3GB only 780 Ti auch nicht viel Sinn.

@V2.0: Die werden freilich mehr kosten als 599USD der 3GB Version, die Frage ist aber auch ob mehr Speicher benötigt werden in naher Zukunft?

Mit anderen Worten:

Eine 6 GB Karte wird in etwa den Preispunkt einer vermutlich etwas langsameren Titan erreichen.

Speicher kann man ohnehin nie genug haben, und da es bereits Spiele gibt, die vergleichsweise viel VRAM benötigen können - sei es durch Mods, höhere Auflösungen, extremere Filterung, und was da sonst noch so alles an BQ-Verbesserungen existieren mag - wäre es irgendwie unklug, beim Kartenkauf ausgerechnet da am falschen Ende zu sparen.

Loeschzwerg
2013-11-04, 09:41:06
Ich gehe nicht von 999USD bei der 6GB Version aus, mit der starken 290X als Gegner wird das nichts. Eher 699-799USD, die 12GB dann 999USD.

Edit: Und ja, ich würde persönlich auch eher in die 6GB investieren.

Ätznatron
2013-11-04, 09:44:40
Ich gehe nicht von 999USD bei der 6GB Version aus, mit der starken 290X als Gegner wird das nichts. Eher 699-799USD, die 12GB dann 999USD.

Die Titan gibt's doch schon ab ~ € 820,-.

Und beim üblichen 1:1 Umrechnungsverhältnis machen die € 21,- den Kohl nicht fett.

Loeschzwerg
2013-11-04, 09:49:18
Offiziell ist der Titan Preis immer noch bei 999USD gesetzt, soweit mir bekannt. Titan wird aber eh auslaufen, folglich braucht es hier Ersatz.

Also morgen Launch der 290. Lieferbar ist die schon ab 475€. Wundert mich warum hier noch keine detaillierten Benches zu sehen sind.

LSSJBroly
2013-11-04, 09:52:16
Also morgen Launch der 290. Lieferbar ist die schon ab 475€. Wundert mich warum hier noch keine detaillierten Benches zu sehen sind.

Siehe aktuelle pcgh (Abo) :D

Rancor
2013-11-04, 09:52:42
3GB Speicherkrüppel ? Wo lebt ihr eigentlich ^^

Wer will den ernsthaft 4k Gaming mit den aktuell Karten betrieben ? Dafür sind die allesamt zu lahm, abgesehen davon sind passende Monitore noch unbezahlbar.

Raff
2013-11-04, 10:00:44
Siehe aktuelle pcgh (Abo) :D

:up:

3GB Speicherkrüppel ? Wo lebt ihr eigentlich ^^

Wer will den ernsthaft 4k Gaming mit den aktuell Karten betrieben ? Dafür sind die allesamt zu lahm, abgesehen davon sind passende Monitore noch unbezahlbar.

Ich. Mittels Downsampling. Und das geht sehr wohl, wenn man den GPUs die Sporen reinrammt und mit 30-40 Fps zufrieden ist.

MfG,
Raff

Rancor
2013-11-04, 10:03:48
:up:



Ich. Mittels Downsampling. Und das geht sehr wohl, wenn man den GPUs die Sporen reinrammt und mit 30-40 Fps zufrieden ist.

MfG,
Raff

Wer ist das denn ? :) Wenn man in 4k bei 60 -80 fps angekommen ist, wird das erst intressant.

Loeschzwerg
2013-11-04, 10:12:05
Siehe aktuelle pcgh (Abo) :D

Damn, manchmal wäre so ein Abo schon praktisch :biggrin:

Ätznatron
2013-11-04, 10:19:16
Wer ist das denn ? :) Wenn man in 4k bei 60 -80 fps angekommen ist, wird das erst intressant.

Tja, ich sehe das ähnlich wie Raff.

30-40 FPS sind allemal relativ gut spielbar.

Richtig ärgerlich wird's aber, wenn sich wegen Speichermangel die FPS im einstelligen Bereich bewegen.

Loeschzwerg
2013-11-04, 10:22:36
Richtig ärgerlich wird's aber, wenn sich wegen Speichermangel die FPS im einstelligen Bereich bewegen.

Trifft dies auf moderne Grafikkarten überhaupt noch so krass zu wie zur Jahrtausendwende?

Ätznatron
2013-11-04, 10:32:59
Trifft dies auf moderne Grafikkarten überhaupt noch so krass zu wie zur Jahrtausendwende?

Ja, sogar ziemlich krass.

Da gibt's so einen netten Vergleich (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/22235-test-palit-geforce-gtx-680-4-gb-jetstream.html?start=16) einer 4 GB GTX 680 mit einer 2 GB 680 auf Hardwareluxx.

Oder diverse Berichte über die durch Speichermangel verursachten FPS-Einbrüche beim Flugsimulator X-Plane.

usw...

Die ganze Sache ist also hochaktuell.

Loeschzwerg
2013-11-04, 10:36:02
Ja, sogar ziemlich krass.

Da gibt's so einen netten Vergleich (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/22235-test-palit-geforce-gtx-680-4-gb-jetstream.html?start=16) einer 4 GB GTX 680 mit einer 2 GB 680 auf Hardwareluxx.

Oder diverse Berichte über die durch Speichermangel verursachten FPS-Einbrüche beim Flugsimulator X-Plane.

usw...

Die ganze Sache ist also hochaktuell.

THX :smile:

Knuddelbearli
2013-11-04, 10:53:05
Also morgen Launch der 290. Lieferbar ist die schon ab 475€. Wundert mich warum hier noch keine detaillierten Benches zu sehen sind.

Ist hier ja auch der 290X Thread nicht der 290 ohne X Thread ^^

V2.0
2013-11-04, 11:59:28
Und VRAM wird mit den Next Gen Konsolen wichtiger than ever. Alles unter 4GB im HighEnd und ohne DX11.2 ist nicht zukunftssicher.

M4xw0lf
2013-11-04, 12:11:45
Und VRAM wird mit den Next Gen Konsolen wichtiger than ever. Alles unter 4GB im HighEnd und ohne DX11.2 ist nicht zukunftssicher.
Vielleicht wird es zutreffender, je öfter man es wiederholt. :uponder:

Iruwen
2013-11-04, 12:44:26
Naja, bald kommen ja DX11.2 Spiele, bald kommen auch Mantle Spiele, bald gibt es auch leise Lüfter, bald kommen 4K-Monitore und bald benötigt man 4GB VRAM und mehr... AMD kauft man eben für die Zukunft, nicht für heute! ;D
Heute hat man zumindest schonmal maue Kühler und... joah. Nach acht Monaten Titan-Leistung. Also für ein paar Tage vermutlich, bis die 780Ti rauskommt halt. Ich möchte auch kein AMD Fan sein ;)

N0Thing
2013-11-04, 12:54:37
Ist der gleiche Blödsinn wie bei Fermi und dem von Nvidia-Lager propagierten Slogan "DX11 done right". Heute, wo so endlich mal mehr als 2 Spiele pro Jahr mit DX11 raus kommen, ist eine GTX 480 nicht mehr zeitgemäß im Vergleich zu ihrem Highend-Status und Preis zum Releasezeitpunkt.

Jetzt ist die R290x eine schnelle Karte zu einem angemessenen Preis. Mehr nicht.

StefanV
2013-11-04, 13:11:43
AMD kauft man eben für die Zukunft, nicht für heute! ;D
Genau, das ist in 7 von 10 Fällen auch so gewesen!

FX5000 Serie gegen 9000er
X850 gegen 6800
X1900 gegen G70

Nur bei der D3D10 Generation hat nV 'nen Vorteil gehabt...

boxleitnerb
2013-11-04, 13:15:28
R420 konnte nur SM 2.0, NV40 war bei SM 3.0. Was letztendlich daraus wurde, hat glaub ich kaum einer beleuchtet.

Raff
2013-11-04, 13:20:36
Das, was immer draus wird: Die fortschrittlichere Karte kann fünf Jahre später Sachen darstellen, die die rückständige nicht kann. Man kann sich also hübsche, neue Diashows anstelle von Fehlermeldungen ansehen. ;)

MfG,
Raff

Pirx
2013-11-04, 14:08:49
R420 konnte nur SM 2.0, NV40 war bei SM 3.0. Was letztendlich daraus wurde, hat glaub ich kaum einer beleuchtet.
Doch, 3DC!:D

http://www.3dcenter.org/dateien/abbildungen/17_cry-mittel.png

http://www.3dcenter.org/artikel/die-leistungsf%C3%A4higkeit-alter-grafikkartengenerationen

jaja und es gab dann die übliche 3DC-"ultra-kontroverse" Diskussion, die durch das Abschneiden der nV-Karten ausgelöst wurde.:D



nV hat außerdem immer wieder gern auch in ihren High-End-Karten einen Kaufanreiz für spätere Zeiten in Form von relativ knappem VRAM eingebaut.

CoolhandX
2013-11-04, 14:42:18
Das ist wie ich finde stellenweise echt Quark war hier geschrieben wird. Vorweg ich bin nicht eingefahren auf NV oder AMD. Mir ist es egal was ich für ne Graka habe Hauptsache sie macht dass was sie soll.

Aber was soll denn heute an einer 780er z.B. gegenüber einer 290x nicht zukunftsicher sein? Seid Jahren reden die leute über mehr Speicher oder DX11. Das ist die Zukunft. Wenn man aber danach geht, dann hat diese prognostizierte Zukunft gerade erst angefangen. Es gibt ein paar einzelne Spiele die DX11 haben und wenn dann nur ninimal besser aussehen oder schneller laufen. Es gibt glaube ich kaum ein Spiel was einen unterschied macht zwischen 2 oder 3 oder gar 4 Gig VRam.

Habe mir vor glaube ich 1 1/2 Jahren oder noch länger eine 570er gekauft mit 1.25 Gig VRam. Und trotzdem konnte ich alles spielen, meist sogar mit den höchsten Einstellungen.

Ich wette das auch in 2 Jahren sich an der heutigen Situation nix geändert hat. Diese ganzen tollen Sachen wie die neueste Version DX oder 6 Gig VRam oder auch jetzt wieder Mantle werden immer auf ein so hohes Podest gehoben, aber bis auf 2-3 vereinzelte Programme die das dann auch wirklich ausnutzen hat es nichts gegeben.

Deswegen finde ich die Aussage das man mit NV oder wem auch immer in Zukunft nicht mehr vernünftig was machen kann bzw. nicht in die Zukunft investiert nicht sehr glaubhaft.

Kosh
2013-11-04, 14:54:47
Tjo, was anderes als aufm Kühler rum zu dreschen bleibt halt nicht. D amuss man halt bei jeder Gelegenheit drauf hinweisen. Weil man hat ja nix anderes, mit dem man die 290X angreifen kann, außer dem Kühler.

Aber wisst ihr was: Das wird sich bald ändern. In 2-3 Monaten wird der Referenzkühler gar keine Rolle mehr spielen und es wird (fast) nur noch Custom Modelle geben.

Aber hey, nVidia ist trotzdem irgendwie ja doch besser, auch wenn AMD gerad die beste Karte aufm Markt hat...

Du kapierst es nicht. Ich bin absolut Pro 290X eingestellt, ja durch Wakü Kühlung noch nicht mal wirklich vom lauten Lüfter betroffen.

Aber weil mir AMD nun mal nicht scheissegal ist, verstehe ich auch nicht deren Dummheit.

Fakt ist,das jetzt wohl alle Tests die Karte Top Leistung bescheinigen werden,aber ein dickes,fettes "Aber" hinter her werfen werden.


Statt uneingeschränkt Top hat man nun mal auch dicke Minuspunkte bei der Karte und die bleiben sogar eher im Kopf als die Positiv Eigenschaften.

JETZT kommen alle Tests zur gleichen Zeit raus und in den Köpfen verfestigt sich "SAULAUT!!!!"
Ganz egal ob in 2 Monaten viel,viel bessere Kühler raus kommen werden. Die 290X werden sich viele da gar nicht mehr ansehen,weil sie alle bei der Karte nur an "Saulaut" denken.

AMD macht sich durch den popligen Kühler extrem viel kaputt.

Und wie viele dutzend Millionen Euro hat denn das Entwickeln der 290/290x Chips gekostet? Und das versaut man sich dann,weil man 100-200t Euro bei der passenden Kühlerentwicklung spart?

Wenn Negativpunkte mal in den Köpfen sind, ist es verdammt schwer die wieder rauszubekommen.

Siehe Opel. In den 90ern durch Lopez Einsparungen den Ruf komplett ruiniert, hängt denen imme rnoch der miese Ruf an, obwohl sie seit vielen Jahren absolute Top Autos bauen,aber ind en Köpfen der Leute ist das Image am Boden und es bleibt ein negativer Beigeschmack wenn man an Opel denkt.

derguru
2013-11-04, 15:01:07
stimmt schon,3gb sollten für 1080p locker ausreichen aber gerade nvler können ds nutzen und somit könnte es demnächst knapp werden.
ob dx11 oder 11.2 ist imo lächerlich, mir persönlich wird es auf mantle´s performance ankommen,wenn das einiges bringen sollte wird mir die entscheidung leicht fallen, denn es kommen noch dice-engine spiele wie das nächste mass effect,dragon age,mirror´s egde usw.

also bis dezember gemütlich warten bis mantle in bf4 eingefügt ist und schauen was die customkühler so bringen.:wink:

TheCounter
2013-11-04, 15:10:41
Das, was immer draus wird: Die fortschrittlichere Karte kann fünf Jahre später Sachen darstellen, die die rückständige nicht kann. Man kann sich also hübsche, neue Diashows anstelle von Fehlermeldungen ansehen. ;)

Ich glaube treffender könnte man es nicht ausrücken :up:

Bis die ersten Spiele kommen, die DX11.1/2 wirklich nutzen, sind die Karten eh schon wieder zu langsam für hohe Settings/IQ.

Wenn man sich immer eine aktuelle GPU kauft und diese im nächsten Jahr wieder verkauft und sich wieder ne neue kauft, fährt man IMO am besten (wenn man so Setting/IQ-Geil ist :biggrin: ). So bekommt man für 200-250EUR im Jahr ne Highend Karte ;)

Armaq
2013-11-04, 15:27:18
Ich glaube treffender könnte man es nicht ausrücken :up:

Bis die ersten Spiele kommen, die DX11.1/2 wirklich nutzen, sind die Karten eh schon wieder zu langsam für hohe Settings/IQ.

Wenn man sich immer eine aktuelle GPU kauft und diese im nächsten Jahr wieder verkauft und sich wieder ne neue kauft, fährt man IMO am besten (wenn man so Setting/IQ-Geil ist :biggrin: ). So bekommt man für 200-250EUR im Jahr ne Highend Karte ;)
Wobei BF4 ja schon jetzt Vorteile zieht aus 8.1 und das deutlich.

CoolhandX
2013-11-04, 15:33:47
Für mich war genau das eben keine Frage. Bei mir musste jetzt eine neue Karte her da ich aktuelle Titel ruckelfrei spielen wollte und meine 570er echt an der Grenze des machbaren war. Hätte AMD das Referenzdesign vorbildlich gestaltet, eben mit besserem Kühler und geringerer Temp, dann wäre es auch eine 290x geworden. Und ja, ich weiß das der Chip für diese Tempereturen ausgelegt ist aber bei einem normalen System ist wie ich finde die Gefahr recht groß, das eben auch das innere des Gehäuses darunter leidet und ich wollte eben nur die Graka austauschen, keine Folgekomponenten wie Lüfter oder Gehäuse.

TheCounter
2013-11-04, 15:40:48
Wobei BF4 ja schon jetzt Vorteile zieht aus 8.1 und das deutlich.

Allerdings bei AMD und NVIDIA ;)

MartinRiggs
2013-11-04, 15:45:06
Mir ist das mit DX11.111111 oder der laute Lüfter eigentlich komplett Laterne, ich weiß nur das ich zum Jahresende meine Grafikkarte tausche, wenn die Lieferfähigkeit nicht rapide zunimmt dann wirds wohl ne GTX780, die gibts zuhauf und das sogar leise.

Ätznatron
2013-11-04, 15:51:57
Für mich war genau das eben keine Frage. Bei mir musste jetzt eine neue Karte her da ich aktuelle Titel ruckelfrei spielen wollte und meine 570er echt an der Grenze des machbaren war. Hätte AMD das Referenzdesign vorbildlich gestaltet, eben mit besserem Kühler und geringerer Temp, dann wäre es auch eine 290x geworden. Und ja, ich weiß das der Chip für diese Tempereturen ausgelegt ist aber bei einem normalen System ist wie ich finde die Gefahr recht groß, das eben auch das innere des Gehäuses darunter leidet und ich wollte eben nur die Graka austauschen, keine Folgekomponenten wie Lüfter oder Gehäuse.

Da musst du dir wohl keine Sorgen machen:

Überrascht waren wir dann im Bereich der Wandlertemperaturen, denn prinzipiell hätten wir erwartet, dass die hohe GPU-Temperatur das Grafikboard stark aufheizen wird und damit sich die Temperaturen auch auf weitere Komponenten übertragen könnte. Darum haben wir uns mittels unserer Thermografie-Kamera die verschiedenen Platinenbereiche aus der Nähe betrachtet.

Die reine Wandlertemperatur bewegte sich unterhalb von 80 °C. Im unmittelbaren Umfeld der GPU, welche mit 94 °C arbeitete, trafen wir dann Hotspots im Bereich von 78 bis 83 °C an. Der heißeste Punkt war ein Treiberbauteil auf der rechten Platinenseite mit knapp 95 °C, wohingegen der restliche Teil dieses Platinenteils mit den geringsten Temperaturen zu kämpfen hatte.

Somit gehen wir aktuell nicht davon aus, dass die hohen GPU-Temperaturen ein allgemeines Problem für den gesamten R9 290X-Aufbau darstellen werden.

(HT4U (http://ht4u.net/reviews/2013/amd_radeon_r9_290x_hawaii_review/index16.php))

Naja, ähnliche Temps erzeugen auch Haswell-CPUs. Und da wird komischerweise keinem Bange. :smile:

CoolhandX
2013-11-04, 15:57:25
Da musst du dir wohl keine Sorgen machen:



(HT4U)

Naja, ähnliche Temps erzeugen auch Haswell-CPUs. Und da wird komischerweise keinem Bange. :smile:

Das hört sich dann ja wiederrum gar nicht so schlecht an... da hatte ich nämlich arge Bedenken. Naja, mal schauen was die später mit Custom Karten so raus holen aus dem Chip. Dann bekommt der Sohnemann eben die 780er und ich dann eine 290er. :D

Ätznatron
2013-11-04, 16:03:51
Das hört sich dann ja wiederrum gar nicht so schlecht an... da hatte ich nämlich arge Bedenken. Naja, mal schauen was die später mit Custom Karten so raus holen aus dem Chip. Dann bekommt der Sohnemann eben die 780er und ich dann eine 290er. :D

Obwohl eine Palit GTX 780 Super Jetstream schon eine attraktive Alternative darstellen könnte, allerdings mit nur 3 GB Speicher.

Armaq
2013-11-04, 16:20:32
Allerdings bei AMD und NVIDIA ;)
Habe ich nicht bestritten. Ich denke nur, dass wir in den nächster Zeit durch die Konsolen schneller die Features sehen, die wir kaufen.

Kosh
2013-11-04, 16:32:18
Habe ich nicht bestritten. Ich denke nur, dass wir in den nächster Zeit durch die Konsolen schneller die Features sehen, die wir kaufen.

Haben die Konsolen alle 11.2 ,Mantel usw?

Falls ja, dürfte man mit einer 290 die nächsten Jahre bestimmt wunderbar zurecht kommen,wenn man nicht immer höhere Ansprüche stellt als die Konsole abliefert.

Die ersten Games werden jetzt schon auf 720p gedrosselt, wenn der PC Spieler dann direkt die 2500er Auflösung braucht, dann kommt man mit seiner Grafikkarte natürlich schnell ans Limit.

Aber bei der 1900er Auflösung dürfte man mehrere Jahre wohl gut zurechtkommen mit der 290.

Denn die Verbesserungen der Zukunft, wenn jetzt schon gedrosselt werden muss auf der Konsole, liegt ja dann nur noch in Optimierungen und Hardware besser kennen.
Also nichts ,was man auf dem PC nicht auch haben könnte, auch wenn in der Praxis die Hersteller oftmals zu faul sind bissel die Leistung für den PC zu optimieren.

aufkrawall
2013-11-04, 17:06:47
Brauchts für r290x CF eigentlich PCIe 3.0?

Marty98
2013-11-04, 17:43:56
Haben die Konsolen alle 11.2 ,Mantel usw?

MS sagte ganz klar dass sie kein Mantle für die XBOX planen. Würden sich ja selbst ans Bein (DirectX) pinkeln.

Armaq
2013-11-04, 17:55:20
Es geht nicht um das unterstützte Tech-Level der Konsolen in PC-Form, sondern um die verfügbare Basis und die Kosten einer Anpassung/Portierung. Wir waren jahrelang (3-5) durch die Konsolen hart ausgebremst. Jetzt ist das Feld wieder offener, die Hardware sehr viel ähnlicher und die Tools eh viel weiter. Ergo werden schneller neue Themen eingesetzt. Das unterliegt natürlich einer Degression in den nächsten ~5 Jahren.

Ätznatron
2013-11-04, 17:57:32
Haben die Konsolen alle 11.2 ,Mantel usw?

Falls ja, dürfte man mit einer 290 die nächsten Jahre bestimmt wunderbar zurecht kommen,wenn man nicht immer höhere Ansprüche stellt als die Konsole abliefert.

Die ersten Games werden jetzt schon auf 720p gedrosselt, wenn der PC Spieler dann direkt die 2500er Auflösung braucht, dann kommt man mit seiner Grafikkarte natürlich schnell ans Limit.

Aber bei der 1900er Auflösung dürfte man mehrere Jahre wohl gut zurechtkommen mit der 290.

Denn die Verbesserungen der Zukunft, wenn jetzt schon gedrosselt werden muss auf der Konsole, liegt ja dann nur noch in Optimierungen und Hardware besser kennen.
Also nichts ,was man auf dem PC nicht auch haben könnte, auch wenn in der Praxis die Hersteller oftmals zu faul sind bissel die Leistung für den PC zu optimieren.

"Mantle" wird offenbar ganz gut von der Spieleindustrie aufgenommen (http://www.hardwareluxx.de/index.php/news/software/spiele/28512-amds-mantle-wird-von-spieleindustrie-angenommen.html).

Und das Microsoft bei der XBOX da ein wenig ausscherrt: wayne...

Iruwen
2013-11-04, 18:00:04
Ich muss immer lachen wenn da von "der Spieleindustrie" geredet wird. Das sind Einzelfälle, so gesehen wird auch GPU-PhysX "gut aufgenommen". Und das mit den 15 Spielen wurde iirc nie so gesagt. Außerdem unterstützt Sony bislang auch kein Mantle. Wozu auch, die Konsolen haben eigene APIs.
Ansonsten gilt, was auch aus diesem Artikel hervorgeht:
http://www.edge-online.com/news/power-struggle-the-real-differences-between-ps4-and-xbox-one-performance/
Kein Entwickler macht sich die Mühe, herstellerspezifische Optimierungen einzubauen wenn es sich nicht rechnet.

Rancor
2013-11-04, 18:01:35
Mantle ist die einzige wirkliche interessante Sachen die Nvidia den Kopf kosten könnte. Setzt sich das durch, war es das für NV. Hätten Sie damals Glide weiterentwickelt und nicht auf DX gesetzt sähe die Welt heute anders aus :)

Ätznatron
2013-11-04, 18:03:21
Ich muss immer lachen wenn da von "der Spieleindustrie" geredet wird. Das sind Einzelfälle, so gesehen wird auch GPU-PhysX "gut aufgenommen". Und das mit den 15 Spielen wurde iirc nie so gesagt.

Und ich muss immer lachen, wenn Leute hingehen und immer noch von "Einzelfällen" sprechen, während einige Schwergewichte der Spielebranche bereits auf den "Mantle-Zug" aufgesprungen sind.

Iruwen
2013-11-04, 18:04:27
Und bei 40% Marktanteil für AMD und kein Mantle auf den Konsolen ist die Wahrscheinlichkeit dafür wie hoch? Außerdem wird es immer auch DX-Support geben. Mantle krankt am gleichen Problem wie PhysX.

Rancor
2013-11-04, 18:05:01
Intressant ist allerdings das Mantle offen ist ( war mir bisher unbekannt ), d.h. auch Nvidia kann Mantle nutzen. In wie fern das irgendwas bringt ist fraglich.

http://de.wikipedia.org/wiki/AMD_Mantle

Iruwen
2013-11-04, 18:08:20
Der Artikel ist Müll, steht nicht umsonst in der QA-Liste. Die Informationen sind veraltet und unvollständig.

gedi
2013-11-04, 18:08:59
Als NV-Jünger würde mir auch der Arsch auf Grundeis gehen: Unter Umständen fährt mir bald eine 240€ Kikilala-AMD Gpu um die Ohren und dies, obwohl ich annähernd 1000€ in den Bohlen investiert habe :)

Ätznatron
2013-11-04, 18:10:02
Und bei 40% Marktanteil für AMD und kein Mantle auf den Konsolen ist die Wahrscheinlichkeit dafür wie hoch? Außerdem wird es immer auch DX-Support geben. Mantle krankt am gleichen Problem wie PhysX.

"Mantle" bringt handfeste (Geschwindigkeits-)Vorteile, gar nicht zu vergleichen mit nVidias PhysX-Kinkerlitzchen.

PS: Wie hoch ist eigentlich nVidias Anteil am aktuellen Konsolenmarkt?

Blediator16
2013-11-04, 18:10:11
Und bei 40% Marktanteil für AMD und ein Mantle auf den Konsolen ist die Wahrscheinlichkeit dafür wie hoch? Außerdem wird es immer auch DX-Support geben. Mantle krankt am gleichen Problem wie PhysX.

Zum Teufel wieso wird denn immer mit der Marktanteilkeule geschwunden? Physx wird doch auch als Kaufargument angeführt und wenn Mantle doch größer werden sollte wer sagt dir, dass AMD bei 40% bleibt? Genau das soll Mantle verändern, dass mehr AMD Karten verkauft werden was am Ende evtl. in einem größeren Marktanteil resultieren kann. Mal davon abgesehen sprechen alle immer nur von Highend Karten. Man kann davon ausgehen, dass von Laptop bis Enthusiatpc mehr Leistung bekommen wird. Wieviel am Ende das sind wissen wir nicht, aber seien wir ehrlich. AMD wird sicher nichts wegen 10% entwickeln.

Iruwen
2013-11-04, 18:13:16
"Mantle" bringt handfeste (Geschwindigkeits-)Vorteile, gar nicht zu vergleichen mit nVidias PhysX-Kinkerlitzchen.

Ach, du hast schon Mantle Software?

PS: Wie hoch ist eigentlich nVidias Anteil am aktuellen Konsolenmarkt?

Was tun die Konsolen bzgl. Mantle zur Sache?

Zum Teufel wieso wird denn immer mit der Marktanteilkeule geschwunden? Physx wird doch auch als Kaufargument angeführt

Genau, und wie sieht die Realität aus? PhysX hat praktisch keine Bedeutung, trotz höheren Marktanteils.

Armaq
2013-11-04, 18:14:26
Und bei 40% Marktanteil für AMD und kein Mantle auf den Konsolen ist die Wahrscheinlichkeit dafür wie hoch? Außerdem wird es immer auch DX-Support geben. Mantle krankt am gleichen Problem wie PhysX.
Nein. Differenziert betrachtet nicht.

PhysX - bringt Effekte - kostet Performance

Mantle - bringt Performance

Der Unterschied ist kritisch und entscheidend. Wozu sollte ich PhysX machen, wenn Nvidia 100 Vergleichsvideos auf youtube einstellen muss, damit Otto es merkt?

Mantle runs the latest game always smooth on AMD. Muss ich keiner Sau erklären.

Iruwen
2013-11-04, 18:15:27
Das Problem sind ja auch nicht die Käufer, sondern die Entwickler. Irgendwie muss sich der Mehraufwand finanzieren.

TheCounter
2013-11-04, 18:18:24
Haben die Konsolen alle 11.2 ,Mantel usw?

Bezüglich Mantle ist die aktuelleste Info das weder die Xbox One noch die PS4 dies unterstützen bzw. eine Unterstützung geplant ist.

Und NVIDIA könnte Mantle auch nutzen, wenn es denn wirklich so viel bringen sollte.

Armaq
2013-11-04, 18:21:03
Das Problem sind ja auch nicht die Käufer, sondern die Entwickler. Irgendwie muss sich der Mehraufwand finanzieren.
Richtig. Man wird sehen müssen, inwieweit die Leads von AMD hier Überzeugungsarbeit leisten. Idealvorstellung aus dem Business wäre natürlich mehr Käufer bzw. weniger technische Schwierigkeiten im Support (einfachere Handhabung).

Noch muss viel Wasser den Fluss herab laufen, aber das Flussbett ist schon verdammt breit - bei meiner These 30-50% breiter als bisher.

Ätznatron
2013-11-04, 18:22:24
Ach, du hast schon Mantle Software?



Was tun die Konsolen bzgl. Mantle zur Sache?



Genau, und wie sieht die Realität aus? PhysX hat praktisch keine Bedeutung, trotz höheren Marktanteils.

Natürlich nicht, die Sache ist ja noch zu neu.

Aber die großen Entwickler sind kräftig dabei mit und für Mantle zu entwickeln und das machen sie bestimmt nicht, weil sie an einen Misserfolg von Mantle glauben. Besitzer von AMD-Karten dürften sich sehr bald schon über die Mehrperformance freuen.

Die Konsolen sind von dir angebracht worden, weil ja angeblich dort keine Mantle-Unterstützung geplant ist. Bei der XBOX scheint das ja zumindest zu stimmen.

Allerdings setzen die aktuellen Konsolen, so weit ich weiss, alle auf AMD-Hardware, und daher meine Frage nach dem Anteil von nVidia am dortigen Markt.

Rancor
2013-11-04, 18:24:46
Sollte Mantle sich durchsetzen ( und wesentliche Performnacevorteile im Bereich 30 - 40 % bringen )und Nvidia kann es nicht nutzen, dann sind sie weg vom Markt und gehen den 3DFX weg... welch Ironie..

Ob das jetzt gut oder schlecht für uns als Gamer ist, ist die andere Sache. Ihr habt ja gesehen was Nvidia bei der Marktmacht getan hat, nämlich unverschämte Preise verlangt !

TheCounter
2013-11-04, 18:30:10
Sollte Mantle sich durchsetzen ( und wesentliche Performnacevorteile im Bereich 30 - 40 % bringen )und Nvidia kann es nicht nutzen, dann sind sie weg vom Markt und gehen den 3DFX weg... welch Ironie..


30 - 40%? Ähm, ich denke einige sollten ihre Erwartung da erstmal deutlich runterschrauben.

Wenn's am Ende nur 5-10% (wenn überhaupt) bringt sind sonst eh wieder alle enttäuscht.

fondness
2013-11-04, 18:31:57
Und NVIDIA könnte Mantle auch nutzen, wenn es denn wirklich so viel bringen sollte.

Das will ich sehen wie NV einen nativen GCN-Code nutzt. ;)
Mantle ist auch nicht offen, das wurde von AMD ganz klar gesagt.

Rancor
2013-11-04, 18:32:08
30 - 40%? Ähm, ich denke einige sollten ihre Erwartung da erstmal deutlich runterschrauben.

Wenn's am Ende nur 5-10% (wenn überhaupt) bringt sind sonst eh wieder alle enttäuscht.

Ich sage ja nur wenn. Nachdem Getöse überall muss da schon was fettes bei rumkommen, sonst macht sich AMD lächerlich.. Wenn es nur 5 - 10 % wären
Die AMD Fanboys sollte sich die Situation nur nich zu sehr herbeiwünschen. Fliegt ein Hersteller vom Markt ( in dem Fall NV ) und es gibt nur noch AMD, werden die Preise ins unermessliche steigen. Man hat ja grad gesehen, was eine starke Konkurrenz ausmacht. Nämlich sinkende Preise..

Ätznatron
2013-11-04, 18:38:29
Ich sage ja nur wenn. Nachdem Getöse überall muss da schon was fettes bei rumkommen, sonst macht sich AMD lächerlich.. Wenn es nur 5 - 10 % ist es lächerlich.

Durch eine reine Softwarelösung 5-10% Mehrleistung sollen lächerlich sein?

Das sehe ich anders.

Wenn ich mehr anschaue, was gerade für ein Riesentanz veranstaltet wird wegen der GTX 780 Ti mit vielleicht 5% hardwareseitig erzielter Mehrleistung zur Titan bei entsprechend höherer Leistungsaufnahme, lob ich mir doch die Softwarelösung.

PS: Die Preise sinken doch nur bei den (Alt-)Karten, die gerade durch neue Modelle nach nur wenigen Monaten abgelöst werden. Und die neuen sind nach wie vor sehr hochpreisig.

gnahr
2013-11-04, 18:39:41
die schwergewichte betreiben gerne mal "train-hopping". ;)

TheCounter
2013-11-04, 18:40:47
Das will ich sehen wie NV einen nativen GCN-Code nutzt. ;)

Erstmal abwarten obs überhaupt was bringt und vor allem wie genau es funktioniert.

Mantle ist auch nicht offen, das wurde von AMD ganz klar gesagt.

Die einzige Aussage von AMD ist "Works with all GCN GPUs". Wenn der Aufwand nicht unerheblich ist und es dann nur von einer kleineren Nutzergruppe genutzt werden kann, muss AMD erstmal die Geldkoffer auspacken ;)

Ansonsten ist so eine Software-Lösung allerdings schon lange überfällig.

Rancor
2013-11-04, 18:46:22
Durch eine reine Softwarelösung 5-10% Mehrleistung sollen lächerlich sein?

Das sehe ich anders.

Wenn ich mehr anschaue, was gerade für ein Riesentanz veranstaltet wird wegen der GTX 780 Ti mit vielleicht 5% hardwareseitig erzielter Mehrleistung zur Titan bei entsprechend höherer Leistungsaufnahme, lob ich mir doch die Softwarelösung.

PS: Die Preise sinken doch nur bei den (Alt-)Karten, die gerade durch neue Modelle nach nur wenigen Monaten abgelöst werden. Und die neuen sind nach wie vor sehr hochpreisig.

5 - 10 % machen den Kohl aber nicht fett und haben nicht die Mach NV vom Markt zu fegen. 30 - 40 % schon, nämlich dann wenn eine Performance Karte so schnell ist wie das High End Modell der Konkurrenz...

fondness
2013-11-04, 18:57:25
Erstmal abwarten obs überhaupt was bringt und vor allem wie genau es funktioniert.


Eine solchen Aufwand betreibt man nicht wegen lächerlichen 5%.
Immerhin sind heute neben der Frostbite-Engine drei weitere Kunden dazu gekommen...


Die einzige Aussage von AMD ist "Works with all GCN GPUs". Wenn der Aufwand nicht unerheblich ist und es dann nur von einer kleineren Nutzergruppe genutzt werden kann, muss AMD erstmal die Geldkoffer auspacken ;)


Nachdem wir unseren privaten Gesprächstermin mit AMDs verlorenem Sohn und Softwarechef Raja Koduri hatten, haben wir in Sachen offener Plattform noch einmal nachgehakt. AMD versteht Mantle nicht als offenen Standard à la OpenCL oder OpenGL. Man hofft aber, dass sich die API zu einer Art Industriestandard entwickeln wird und außer Dice und einigen bislang noch nicht näher genannten weiteren Entwicklern insbesondere die Unterstützung in den großen Lizenz-Engines etablieren wird. Denn die, so Koduri, hätten inzwischen einen weitaus wichtigeren Stellenwert als noch vor zehn Jahren. Daher sei auch eine Analogie zu Glide nicht ganz zutreffend. Falls aber ein anderer Hardwareanbieter AMD anspreche, um ebenfalls ein Backend für Mantle mit Spezialtreiber für seine eigene Hardware zu erstellen, werde AMD diese Ansuchen nicht von vornherein ablehnen, ergänzte Koduri. Uns kommt dieses Spielchen wie das Hickhack um Physx und einen möglichen AMD-Treiber dafür vor, der vor einigen Monaten für heftige Diskussionen sorgte.

http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/AMD-Low-Level-API-Mantle-Battlefield-4-1090085/

Es ist genau so "offen" wie PhysX. ;)

Ätznatron
2013-11-04, 18:58:13
5 - 10 % machen den Kohl aber nicht fett und haben nicht die Mach NV vom Markt zu fegen. 30 - 40 % schon, nämlich dann wenn eine Performance Karte so schnell ist wie das High End Modell der Konkurrenz...

Keiner soll vom Markt gefegt werden, nicht auszudenken, was dann passieren würde. :biggrin:

Etwas "umweltschonende" Mehrleistung würde mir persönlich schon reichen.

gnahr
2013-11-04, 19:05:21
Etwas "umweltschonende" Mehrleistung würde mir persönlich schon reichen.
das ist kein kriterium, der aufwand (und kosten) bewegen sich ja nur in richtung entwickler.
dann kosten halt spiele generell 70€ (bzw. battlefield-mantle-special-edition 150 USD) wie auf den "hochoptimierten" konsolen.

DarknessFalls
2013-11-04, 19:15:56
Ah, okay, Spiele mit PhysX kosten also auch mehr als Spiele ohne?

Rancor
2013-11-04, 19:18:16
Keiner soll vom Markt gefegt werden, nicht auszudenken, was dann passieren würde. :biggrin:

Etwas "umweltschonende" Mehrleistung würde mir persönlich schon reichen.

Wenn man sich so die Fanboywars anschaut schon. Anders kann man sich das ja nicht erklären. Man möchte den jeweils andere Hersteller vernichten :)

Foundess hätte sicher nichts gegen die Abwesenheit Nvidias...

fondness
2013-11-04, 19:21:49
Foundess hätte sicher nichts gegen die Abwesenheit Nvidias...

fondness. Und wirklich nette Art mir einfach irgend eine Blödsinn zu unterstellen alle Achtung. :smile:

horn 12
2013-11-04, 19:26:42
R9 290 um 399 Euro
http://www.eprice.it/search/qs=R9%20290X&mets=R9%20290X

Preis zeigt aber noch die gestrigen, bis Heute 16 Uhr 598 Euro an
Denke es sind bis Morgen früh unter 400 Euro, und nicht vereinzelt.
Hoffe stark AMD kann Custom in 2 Wochen freigeben und auch Hersteller auch liefern

gnahr
2013-11-04, 19:34:16
Ah, okay, Spiele mit PhysX kosten also auch mehr als Spiele ohne?naja, das was nvidia den studios zukommen lässt die darauf setzen ist mehr als warme luft und küsschen... ja.
und bei mantle wird ja davon gesprochen, dass es noch VIEEEEL weiter geht. von daher...

Rancor
2013-11-04, 19:34:17
fondness. Und wirklich nette Art mir einfach irgend eine Blödsinn zu unterstellen alle Achtung. :smile:

Ja ist doch richtig ? Würdest du nicht abfeiern wenn AMD über NV triumphiert? Weil das wir die Konsequenz sein wenn Mantle einschlägt und sich "immer mehr Hersteller" dafür intressieren

fondness
2013-11-04, 19:44:17
Ja ist doch richtig ? Würdest du nicht abfeiern wenn AMD über NV triumphiert? Weil das wir die Konsequenz sein wenn Mantle einschlägt und sich "immer mehr Hersteller" dafür intressieren

Nein würde ich nicht, aber um mich geht es hier auch gar nicht. Auch ist deine Schlussfolgerung ziemlicher Blödsinn. 3dfx hatte Glide soweit, dass bereits Spiele erschienen die ohne 3dfx-Karte gar nicht liefen. Trotzdem sind sie untergegangen. Es gehört schon etwas mehr dazu als eine eigene Schnittstelle. Auch ist es ja nicht so als ob Nvidia nicht alle möglichen Dinge AMD vorenthält bzw. nur auf NV-Hardware laufen.

Rancor
2013-11-04, 19:51:01
Nein würde ich nicht, aber um mich geht es hier auch gar nicht. Auch ist deine Schlussfolgerung ziemlicher Blödsinn. 3dfx hatte Glide soweit, dass bereits Spiele erschienen die ohne 3dfx-Karte gar nicht liefen. Trotzdem sind sie untergegangen. Es gehört schon etwas mehr dazu als eine eigene Schnittstelle. Auch ist es ja nicht so als ob Nvidia nicht alle möglichen Dinge AMD vorenthält bzw. nur auf NV-Hardware laufen.

Die Sachen die Nvidia AMD vorbehält sind aber nicht Kriegs entscheidet.
PhysX ist schrott, weil der optische Gewinn marginal ist, es aber Performance ohne Ende kostet. TXAA ist zwar toll, muss aber extra vom Spiel unterstütz werden.
Eine low-level API die fetten Performance Gewinn verspricht, ist eine ganz andere Liga. Es ist noch gar nicht abzusehen, was Mantle anrichten kann..
Glide ist unteregangen, weil DX immer besser wurde.... 30 - 40 % Mehrleistung unter Mantle hat Nvidia nichts entgegenzusetzen...

Iruwen
2013-11-04, 19:53:42
Wenn ich mehr anschaue, was gerade für ein Riesentanz veranstaltet wird wegen der GTX 780 Ti mit vielleicht 5% hardwareseitig erzielter Mehrleistung zur Titan bei entsprechend höherer Leistungsaufnahme, lob ich mir doch die Softwarelösung.

Ach, so wie bei der 290X? :rolleyes:

Ätznatron
2013-11-04, 20:32:07
Ach, so wie bei der 290X? :rolleyes:

Ja, war das da auch so schlimm?

CoolhandX
2013-11-04, 20:48:35
Obwohl eine Palit GTX 780 Super Jetstream schon eine attraktive Alternative darstellen könnte, allerdings mit nur 3 GB Speicher.

Genau das habe ich ja auch gemacht und die Karte ist der Knaller. Bin halt nur leider auch Radeon Fan, hatte damals eine der ersten Stunde und die war genial die Karte, daher sehr Schade im Moment.

Thomas Gräf
2013-11-04, 21:13:37
Die Sachen die Nvidia AMD vorbehält sind aber nicht Kriegs entscheidet.
PhysX ist schrott, weil der optische Gewinn marginal ist, es aber Performance ohne Ende kostet. TXAA ist zwar toll, muss aber extra vom Spiel unterstütz werden.
Eine low-level API die fetten Performance Gewinn verspricht, ist eine ganz andere Liga. Es ist noch gar nicht abzusehen, was Mantle anrichten kann..
Glide ist unteregangen, weil DX immer besser wurde.... 30 - 40 % Mehrleistung unter Mantle hat Nvidia nichts entgegenzusetzen...

3dfx hat sich selbst ins Knie geschossen und hatte mit nV einen äußerst kriegerischen und ekeligen Gegner...und 30-40% Mehrleistung als nV schafft keine Karte aus diesem Sonnensystem. Ein solches 3dfx/Glide Syndrom wird er nie wieder geben.
Irgendwie ist das Rad nämlich schon erfunden...

Ätznatron
2013-11-04, 21:16:30
So, um mal den Focus auf etwas anderes zu lenken als diese ewigen und ermüdenden NV vs AMD-Diskussionen und völlig off topic mal ein Spieletipp:

Battle World:Kronos
(http://battle-worlds.de/)
Momentan noch in der Beta-Phase, macht aber bereits jetzt mächtig Spass.

Wer sich für rundenbasierte Strategie begeistern kann und eventuell noch Battle Isle 2 kennt und mag, findet da einen würdigen Nachfolger.

Hardwareanforderungen sind so gut wie keine vorhanden. :wink:

Iruwen
2013-11-04, 21:18:16
Passt ja perfekt in den Review-Thread einer High-End Grafikkarte.

Ätznatron
2013-11-04, 21:20:50
Passt ja perfekt in den Review-Thread einer High-End Grafikkarte.

Finde ich auch, denn zum Spielen sind sie schließlich da, die High End Karten.

Und nicht nur zum Benchen...

Thomas Gräf
2013-11-04, 21:27:44
...och wie nett ;) Ich warte auf xRebirth von Egosoft, soll ja auch ganz schön zuppen auf @FullGrafik. Werde dann mal die Custom Karten beäugen.

Godmode
2013-11-04, 21:33:05
Irgendjemand hier hat ja sicher schon ein 290X Crossfire am laufen? Kann man da schon was zu sagen?

Ätznatron
2013-11-04, 21:42:54
...och wie nett ;) Ich warte auf xRebirth von Egosoft, soll ja auch ganz schön zuppen auf @FullGrafik. Werde dann mal die Custom Karten beäugen.

Im Moment warte ich weltraummäßig eher auf Star Citizen, u.a. wegen dessen "Mantle"-Unterstützung.

Da kann ich mir dann ein eigenes Bild machen, welche Vorteile AMD-Karten durch Mantle haben, vor allem aber, mit welcher AMD-Karte meine GTX 780 dann leistungsmäßig vergleichbar sein wird.

Obwohl X Rebirth wahrscheinlich auch gekauft wird, die X-Reihe zocke ich schon seit Jahren.

TheCounter
2013-11-04, 21:44:47
Na nächste Woche wirds doch erste Mantle Benchmarks geben, zusammen mit den ganzen Infos über Mantle.

Ätznatron
2013-11-04, 21:51:03
Na nächste Woche wirds doch erste Mantle Benchmarks geben, zusammen mit den ganzen Infos über Mantle.

Ist denn Star Citizen schon so weit, dass es gebencht werden kann?

TheCounter
2013-11-04, 21:52:52
Ist denn Star Citizen schon so weit, dass es gebencht werden kann?

Ne, ist ein anderer Dev:

Auf dem AMD Developer Summit (APU 13), das in der kommenden Woche stattfindet, soll unter anderem auch Mantle ein Thema sein. Neben Vorträgen wird eine Demonstration („public sneak preview“) der Leistungsfähigkeit von Mantle durch Oxide Games in Aussicht gestellt.

http://www.computerbase.de/news/2013-11/amd-holt-sich-verstaerkung-fuer-mantle-ins-boot/

Ätznatron
2013-11-04, 21:57:20
Ne, ist ein anderer Dev:



http://www.computerbase.de/news/2013-11/amd-holt-sich-verstaerkung-fuer-mantle-ins-boot/

Danke für den Link.

Mal abwarten, was die Tech-Demo für Schlüsse zulässt.

Thomas Gräf
2013-11-04, 22:02:03
Im Moment warte ich weltraummäßig eher auf Star Citizen, u.a. wegen dessen "Mantle"-Unterstützung.

Da kann ich mir dann ein eigenes Bild machen, welche Vorteile AMD-Karten durch Mantle haben, vor allem aber, mit welcher AMD-Karte meine GTX 780 dann leistungsmäßig vergleichbar sein wird.

Obwohl X Rebirth wahrscheinlich auch gekauft wird, die X-Reihe zocke ich schon seit Jahren.

Ohhja, aber bis SC kommt wird es tief in 2015 sein, wer weiß wenn Mantle zünden sollte und nV dann mit einen "TopNew-Glide" kommt wird Crytek das auch bringen.Du weißt, Crytek gibt "nach aussen" keine Versionsnummern mehr raus. Sie Entwickeln stufenlos weiter an ihrer Engine...und ein Typ namens Chris R. wird immer die neueste Version davon haben wollen. ;)

Ätznatron
2013-11-04, 22:08:08
Ohhja, aber bis SC kommt wird es tief in 2015 sein, wer weiß wenn Mantle zünden sollte und nV dann mit einen "TopNew-Glide" kommt wird Crytek das auch bringen.Du weißt, Crytek gibt "nach aussen" keine Versionsnummern mehr raus. Sie Entwickeln stufenlos weiter an ihrer Engine...und ein Typ namens Chris R. wird immer die neueste Version davon haben wollen. ;)

2015? Wahrscheinlich dann um Weihnachten herum.

Na, das ist natürlich ein bisschen sehr fern in der Zukunft.

Gut, dann heisst's, die Mantle-Präsentation abzuwarten und ebenso BF4.

Thomas Gräf
2013-11-04, 22:15:39
Nja bei RSI kommen doch immer erst Pre-Alphas und dann hoffentlich Full-Betas und dann...müssen sie irgendwann mal die Hosen runterlassen, bestimmt noch bis 2015.
Bin zwars gar kein BF Fan aber drücke trotzdem die Daumen.

Knuddelbearli
2013-11-04, 22:58:10
Ach, so wie bei der 290X? :rolleyes:

die dann aber auch halbierte UVP hat ^^

6Gb 780TI wird wohl ca Titanpreis haben

L.ED
2013-11-04, 23:18:36
Die Konsolen müssen Mantle nicht unterstützen weil sie es bereits haben! Mantle ist nur der Name bzw. Versuch eines dementsprechenden Lowlevel Zugang zur Hardware auch auf dem PC zu etablieren (als zukünftig weitere allgemeine Option)! Von Entwicklerseiten wurde das schon vielfach gefordert und letztendlich waren und sind AMD aktuell auch leider die einzige realistische Adresse dafür gewesen.

Und diese Ideen das da irgendwas GCN speziell wäre sind nicht richtig, warum aktuell von AMD seitens es nur GCN Unterstützung in den Treibern und nicht mit älteren geplant sollte eigentlich bei kurzer Überlegung offenkundig werden? Einschließlich dem, wenn mal vor ruhigen Auge führend was denn eine LowLevel API sein soll, gemeint ein sog. LowLevel HW Zugang ist!

Wenn man wollte könnte man über so eine Schnittstelle jegliche x beliebige mit den entsprechenden vor und Nachteilen ebenso Ansprechen!

Und eine GeForce würde allenfalls nur durch einen ausgebremst und zwar durch Nvidia, denn Mantle ist diesbezüglich eine völlig andere Ebene des Sinn-zwecks und auch Intentionen dahinter! Und wenn Nvidia das dann aus politischer Verstimmung heraus oder anderem Kindergarten nicht ebenso nutzen wird oder möchte, würde das hoffentlich jetzt dann nur für sie zum Nachteil und nicht auf ein weiteres fürs PC Gaming im allgemeinen. ^^