PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon R9 290X: (P)Review-Thread


Seiten : 1 2 3 4 [5] 6 7 8 9 10 11 12 13 14 15 16 17

Nazar
2013-10-30, 07:59:00
Der Grund der Verschiebung der R9 290
http://videocardz.com/47420/nvidia-updates-geforce-gtx-780-ghz-edition

AMD will somit bei R9 290 wohl etwas höhere Taktraten fahren, oder jene fix takten lassen (Uebermodus)
Somit wahrscheinlich nochmals Stromhungriger, ebenso nicht Leiser und kühler.

Ob dies nun nicht die R9 290X komplett unrentabel erscheinen lässt?
NV hat diesmal enorm gut gekontert, GTX 780 TI mit gar WAHRSCHEINLICH 6GB Speicher :-)


Der Grund der Verschiebung ist eine geringere Wärmesignatur.. echt jetzt? :freak:
Ich bin nun wieder verwirrt!
Einmal spielen die Karten in einer Liga, wo Wärme und Verbrauch egal sind, dann wird eben dieses "Feature" als der Kaufgrund angepriesen? :confused:
Beides ist natürlich optimal aber warum verschieben einige Fans immer wieder ihre Ansprüche und damit auch die Bewertungsgrundlagen für solche Diskussionen?
Es wäre ja nicht schlimm, wenn es verschiedene Personen wären, doch sind es leider dieselben.
Dieses "unanständige" subjektive Verhalten zerstört jede Diskussionskultur; es erinnert immer stärker an das Verhalten von sehr, sehr jungen Erdenbürgern. Und damit meine ich auch im speziellen das Verhalten der Firmen.
Einfach mal über den Dingen stehen, ist das wirklich so schwer?

Als erstes sollten sich alle bei AMD bedanken; auch die nV-Fans!
Alleine durch diesen recht gelungenen Wurf von AMD, haben wir wieder einen Konkurrenten für nV am Start, der die Preise endlich wieder in eine Region drückt, die als "geht so" anzusehen und weit weg von "total behämmert" sind.
Und wir haben endlich auch wieder die "freie" Wahl in allen Segmenten der Leistung.
Und davon profitieren, wie wir gerade alle sehen, insbesondere die nV Jünger!
Plötzlich purzeln die Preise bei nV und nicht etwa weil nV plötzlich menschlich geworden ist, nein, weil AMD momentan nV gewaltig auf den Füßen steht!

Deshalb:

DANKE AMD!

fondness
2013-10-30, 08:39:50
Auslieferzustand, Werkseinstellungen... nenn es wie du willst, aber diese sind IMMER definiert. Die Mitarbeiter in der Fertigung bekommen penibelst genau ihre Vorgaben.
Wie kommst du darauf dies wäre bei der 290X nicht der Fall?


Was hindert einen AIB wie Sapphire, MSI, etc. daran den Schalter default-mäßig auf den Uber-Modus zu stellen? Nichts. Nur deshalb so ein Faß auf zumachen ist lächerlich.

ShadowXX
2013-10-30, 08:42:48
Als erstes sollten sich alle bei AMD bedanken; auch die nV-Fans!
Alleine durch diesen recht gelungenen Wurf von AMD, haben wir wieder einen Konkurrenten für nV am Start, der die Preise endlich wieder in eine Region drückt, die als "geht so" anzusehen und weit weg von "total behämmert" sind.
Und wir haben endlich auch wieder die "freie" Wahl in allen Segmenten der Leistung.
Und davon profitieren, wie wir gerade alle sehen, insbesondere die nV Jünger!
Plötzlich purzeln die Preise bei nV und nicht etwa weil nV plötzlich menschlich geworden ist, nein, weil AMD momentan nV gewaltig auf den Füßen steht!

Deshalb:

DANKE AMD!
Da stimme ich dir vorbehaltlos zu.

fondness
2013-10-30, 08:46:44
Als erstes sollten sich alle bei AMD bedanken; auch die nV-Fans!
Alleine durch diesen recht gelungenen Wurf von AMD, haben wir wieder einen Konkurrenten für nV am Start, der die Preise endlich wieder in eine Region drückt, die als "geht so" anzusehen und weit weg von "total behämmert" sind.
Und wir haben endlich auch wieder die "freie" Wahl in allen Segmenten der Leistung.
Und davon profitieren, wie wir gerade alle sehen, insbesondere die nV Jünger!
Plötzlich purzeln die Preise bei nV und nicht etwa weil nV plötzlich menschlich geworden ist, nein, weil AMD momentan nV gewaltig auf den Füßen steht!

Deshalb:

DANKE AMD!

Das auf jeden Fall. Traurig ist es nur für die Leute, die ernsthaft 1K für einen teildeaktivierten Titan oder ~600EUR für eine solche GTX780 gezahlt haben. Jetzt bekommt man wohl bessere Karten zum kleineren Preis plus Spiele plus Shield.

boxleitnerb
2013-10-30, 08:56:34
Meinst du? Das kann man so oft sagen. Anfangs hat z.B. die 7970 ca. 500 Euro gekostet, 5-6 Monate später gab es die schnellere GHz-Edition auch für deutlich weniger. Titan war klar zu teuer, das bestreitet wohl kaum einer, bloß sollte man bei alledem nicht vergessen, dass inzwischen 8 bzw. 5 Monate vergangen sind. Es ist völlig normal, dass das PLV nach so langer Zeit nur besser werden kann.
Das Problem ist halt, wenn beide IHVs nicht gleichzeitig veröffentlichen. Ich könnte mir vorstellen, dass es hierzu gar Absprachen gegeben hat, damit jeder bestmöglich absahnen kann.

Zu deinem Kommentar zum Uber Modus:
Dafür gibt es überhaupt keinen Grund zur Annahme. Du wirst keine Referenzkarte finden, wo dies so ist. Genauso könnte man behaupten, dass Nvidia's AIBs ebenso bei den Targets verfahren. Dem ist aber nicht so. Das ist pure Theorie bloß um die unfairen Testpraktiken zu rechtfertigen.

Armaq
2013-10-30, 09:04:01
Sehe ich ähnlich. In der Region 7870 bekommt man ganz vernünftig Leistung für das Geld, allerdings geht das für ein paar Prozent mehr in Mondregionen. Jetzt geht es durch alle Segmente und drückt natürlich von oben runer

Raff
2013-10-30, 09:05:22
Ich bin gespannt. Morgen latsch ich im Anzug in den SBhf Friedrichstr. krall mir ne PCGH Hardware und schau mir an, ob Du die 290X mit nem Accel. ordentlich "rannehmen" konntest und was der Benchbums dann sagt. ;)

Aber ich glaube ich kauf mir keine 290X, weil 79GE eigentlich reicht. Aber es juckt ein wenig.

Mach das nicht, die neue PCGH gibt's nämlich erst ab dem 06.11. im Handel. ;)

MfG,
Raff

fondness
2013-10-30, 09:05:49
Das ist pure Theorie bloß um die unfairen Testpraktiken zu rechtfertigen.

Nur weil es für dich unfair ist, ist es nicht unfair. :)
Ist ja auch egal, das führt zu nichts, die Argumente wurde genannt, da kannst du dich noch hundert mal darüber aufregen.

Cyv
2013-10-30, 09:10:39
Was hindert einen AIB wie Sapphire, MSI, etc. daran den Schalter default-mäßig auf den Uber-Modus zu stellen? Nichts. Nur deshalb so ein Faß auf zumachen ist lächerlich.
Meine 2 VTX waren im Auslieferungszustand auf "UBER" gestellt...

fondness
2013-10-30, 09:12:55
Meine 2 VTX waren im Auslieferungszustand auf "UBER" gestellt...

Dann ist jetzt hoffentlich auch boxleitnerb glücklich. :)

boxleitnerb
2013-10-30, 09:22:25
Nur weil es für dich unfair ist, ist es nicht unfair. :)
Ist ja auch egal, das führt zu nichts, die Argumente wurde genannt, da kannst du dich noch hundert mal darüber aufregen.

Dass du das so siehst, ist mir klar. Ich habe bislang noch kein einziges objektiv nachvollziehbares Argument gehört, warum die Vorgehensweise fair sein soll, weder von Raff sonst noch irgendjemandem. Hätte man damals die Kepler-Karten mit maximierten Targets getestet, wärst du sicher nicht der einzige gewesen, der sich beschwert hätte.

Eine Antwort von PCGH auf die Frage, warum man nicht auch Nvidia und deren AIBs kontaktiert hat zur Thematik Boost/Garantie - spätestens jetzt wo man es auch bei AMD getan hat - steht immer noch aus (auch wenn es nur Makulatur ist, schließlich wissen wir alle, dass der Boost und die Targets innerhalb der Garantie liegen, siehe meine damalige Nachfragen bei den AIBs). Es wäre schön, wenn Raff dazu ein paar Worte sagen könnte.

Dann ist jetzt hoffentlich auch boxleitnerb glücklich. :)

Jein. Wenn das ein AIB so macht, wird noch lange kein Standard daraus. Will man eine Referenzkarte testen, wie soll man sich dann entscheiden, wenn der Käufer es einmal so und einmal bekommen kann?

Mr. Lolman
2013-10-30, 09:22:48
Wo ist das Problem mit der Uber Geschichte. Nach aktuellem Kenntnissstand dreht das Uberbios ja ohnehin nur den Lüfter auf max. 50%, damit es länger dauert, bis das 94°C Limit erreicht wird. Je nach Rechner, Kühlerconfig ist ein Ubermodus demnach garnicht notwendig.

Ein Quietmodus mit angepasster Lüftersteuerung ( Oder eine 290X mit customkühlung) sollte demnach genauso schnell wie der Ubermodus sein. Mir kommts auch ein bisschen so vor, als hätte AMD mit dem Ubermodus es garantieren wollen, dass unabhängig vom Testsystem die 300W TDP weggekühlt werden können.

Bei einem Test ohne Ubermode in einem schlecht durchlüfteten Gehäuse hätten die Tester der Karte eine zT deutlich schwächere Performance bescheinigen müssen. Mit dem Ubermode kann AMD sicher stellen, dass die Performancewerte immer möglichst hoch ausfallen. In einem schlechten Case ist das Ding dann halt entsprechend laut.

Aber:

- man kann die 290X undervolten (anscheinend tw um 0.1V weniger)
- man kann der 290X einen Customkühler verpassen (mit entsprechend netten Temperaturen)
- man kann bloß mit niedrigeren Temperaturen (im 70°C Bereich) offenbar die Leistungsaufnahme um 30W senken

Schad, dass die so schlecht verfügbar ist. Um 450€ hätt ich schon zugeschlagen. :biggrin:

Dural
2013-10-30, 09:27:00
@Schaffe
Die anliegende Taktrate wäre dabei aber noch relevant. Oder ist das mit den genannten 1.12GHz?

Ich denke nicht, selbst mit 1,25V sind 1100MHz + stabil nicht selbstverständlich.

Man muss bei den 290X sowie so Extrem aufpassen, solange im Treiber nicht alles auf max. gestellt wird kann die schon mal von alleine Runtertakten obwohl alle Parameter noch im grünen Bereich sind.

Gerade bei der Temperatur reagiert die Karte sehr sensibel, ich konnte schon Beobachten das die Karte schon bei ca. unter 10°C eingestellter Soltemperatur anfängt runter zu Takten.

Cyv
2013-10-30, 09:27:37
Also ich hab dir Karten im uber-mode gelassen. Mein gehäuse ist sehr gut gedämmt, ich nehme sie kaum wahr. Bei crossfire taktet lesiglich die obere Karte gelegentlich etwas runter. Der Takt oendelt zwischen 1030 und 1000 etwa...

uweskw
2013-10-30, 09:27:48
http://videocardz.com/47420/nvidia-updates-geforce-gtx-780-ghz-edition
Zitat:
NVIDIA will not release any reference model, this GPU only will be available from AIBs, most likely with custom cooling solutions.

Die wissen schon warum, nur stellt sich NV hier wieder mal schlauer an als AMD. Hilft aber auch nicht viel bei veraltetem Feature-Set.

Was ich aber überhaupt nicht nachvollziehen kann, ist dass AMD die 290Pro schneller machen soll. Die ist doch ohnehin schon sehr nahe an der 290X.
Ist nicht eher das Gegenteil der Fall: Die machen die 290Pro etwas langsamer, kühler und leisser. Dann ist sie 5% langsamer als ne 780GHZ, aber hat nen bessres Feature-Set, ist leisser, braucht weniger und kostet 200 weniger. Wer will holt sich per Uber-Schalter nochmal 8% Speed und gut ists.


Greetz
U.S.

fondness
2013-10-30, 09:28:58
Jein. Wenn das ein AIB so macht, wird noch lange kein Standard daraus. Will man eine Referenzkarte testen, wie soll man sich dann entscheiden, wenn der Käufer es einmal so und einmal bekommen kann?

Deine Aussage vor wenigen Minuten:

Man kann ja mal 100 Karten kaufen und schauen, wo der Schalter steht. Wenn man auch nur eine findet, wo er auf Uber steht, ziehe ich meine Aussage sofort zurück.

Dural
2013-10-30, 09:30:10
WTF?! Schon wieder?!

Warum geht AMD immer ans obere Ende, bei der Spannung?!
OK, trotz der hohen Spannung ist man nicht soo viel schlechter als Tahiti...


Genau genommen sogar mehr, den der Vdroop ist bei den Referenz 7970 grösser als es jetzt bei der 290X Referenz der fall ist.

MartinRiggs
2013-10-30, 09:30:22
Dass du das so siehst, ist mir klar. Ich habe bislang noch kein einziges objektiv nachvollziehbares Argument gehört, warum die Vorgehensweise fair sein soll, weder von Raff sonst noch irgendjemandem. Hätte man damals die Kepler-Karten mit maximierten Targets getestet, wärst du sicher nicht der einzige gewesen, der sich beschwert hätte.

Eine Antwort von PCGH auf die Frage, warum man nicht auch Nvidia und deren AIBs kontaktiert hat zur Thematik Boost/Garantie - spätestens jetzt wo man es auch bei AMD getan hat - steht immer noch aus (auch wenn es nur Makulatur ist, schließlich wissen wir alle, dass der Boost und die Targets innerhalb der Garantie liegen, siehe meine damalige Nachfragen bei den AIBs). Es wäre schön, wenn Raff dazu ein paar Worte sagen könnte.



Jein. Wenn das ein AIB so macht, wird noch lange kein Standard daraus. Will man eine Referenzkarte testen, wie soll man sich dann entscheiden, wenn der Käufer es einmal so und einmal bekommen kann?


Könntest du deine hexenjagd langsam mal einstellen?
Bist du einer der Titan-Käufer die sich jetzt verarscht vorkommen weil Sie wissentlich viel zuviel Geld bezahlt haben?

Du hast es jetzt sogar schwarz auf weiß das man eine R9 290X ab Werk mit aktiviertem UberBios bekommen kann und mokierst dich trotzdem noch.
Sowas stumpfes hab ich selten erlebt.

Edit: Er ist ja im Titanen-Club, da wundert mich natürlich nix mehr.....:facepalm:

(del676)
2013-10-30, 09:44:15
Manchen Leuten ist echt nicht mehr zu helfen. Wenn man nach Custom Kuehler Ergebnissen, Crossfire Erlebnissen usw... sucht, dann tut man das wohl nicht im 3DCenter. Neiiin. Dort flamen die nvidioten ueber 20 Seiten rum und spalten Haare. Sinnvolles gibts hier nicht mehr. Tolle Community!

Loeschzwerg
2013-10-30, 09:52:11
Was hindert einen AIB wie Sapphire, MSI, etc. daran den Schalter default-mäßig auf den Uber-Modus zu stellen? Nichts. Nur deshalb so ein Faß auf zumachen ist lächerlich.

Mit hoher Wahrscheinlichkeit Vorgaben von AMD ;) Im Uber Mode wird die Karte den meisten Usern zu laut sein, ein default auf dieses Bios ist also nicht sinnvoll und bleibt daher lediglich eine Option. Nur wegen ein paar Enthusiasten wird sich AMD nicht die Masse vergraulen.

Abgesehen davon kommen Custom Lösungen welche das volle Potential des Hawaii entfalten werden, also kein Grund von den AMD Vorgaben abzuweichen.

ShadowXX
2013-10-30, 09:54:12
Unfug. Übrigens macht der Ton die Musik.

Kein Unfug....ist mir und anderen ziemlich oft passiert. Jedesmal wenn man den Test, den Tester oder was anderes kritisiert wird das Zeug gelöscht....egal wie nett man es verpackt.


Nochmals: Das macht man einmal. Irgendwann, am besten direkt beim Einbau. Ansonsten muss man die Karte dafür nicht ausbauen: Gehäusewand ab, Schalter umlegen, fertig.

Für mich ist das Ding erst dann ein Feature wenn man es direkt im Treiber per Profil an ein Game binden kann.

Waren das jetzt tatsächlich zirka 7 Seiten über Benchmarks bei PCGH und wie gekauft das Magazin doch ist oder wie falsch oder richtig die Redakteure das machen? Unglaublich. Richtig haben Carsten und Raff das gemacht.

Wie war das noch mit der Krähe die der anderen kein Auge aushackt....


Aber 95 Prozent der Anwender sind eben Bildchengucker und Kurztabellenversteher. Und denen möchte man ebenfalls kein falsches Bild zeichnen (und darf es auch nicht - es gibt genügend andere die das tun). Und wenn du nun mal 100.000 Leser am Tag hast (oder von mir aus nur 10.000), dann schlägt die Prozentzahl derbe rein, die man falsch informiert mit Tabellen und Diagrammen.

Und genau diese 95% Anwender kaufen die Karte und stecken Sie einfach rein....und wundern sich dann das die Karte gar nicht so schnell ist wie in den Testberichten....


Du hast es jetzt sogar schwarz auf weiß das man eine R9 290X ab Werk mit aktiviertem UberBios bekommen kann und mokierst dich trotzdem noch.

Hat er nicht. Nur weil da jemand behauptet das seine Karte ab Werk auf Uber standen muss das nicht stimmen.

boxleitnerb
2013-10-30, 10:02:26
Könntest du deine hexenjagd langsam mal einstellen?
Bist du einer der Titan-Käufer die sich jetzt verarscht vorkommen weil Sie wissentlich viel zuviel Geld bezahlt haben?

Du hast es jetzt sogar schwarz auf weiß das man eine R9 290X ab Werk mit aktiviertem UberBios bekommen kann und mokierst dich trotzdem noch.
Sowas stumpfes hab ich selten erlebt.

Edit: Er ist ja im Titanen-Club, da wundert mich natürlich nix mehr.....:facepalm:

Du glaubst also, weil man ein bestimmtes Produkt besitzt, muss man auch eine bestimmte Meinung haben? Da glaubst du falsch. So kann man sein Gegenüber natürlich prima denunzieren, nur mit Anstand und Objektivität hat das rein gar nichts zu tun.
Ich finde es eher stumpf, wenn unangenehme Fragen als Hexenjagd abgestempelt werden. Ist da wohl ein wunder Punkt getroffen? Fragen und Kritik sind wichtig - wie soll sich sonst etwas verbessern, wie soll sonst Klarheit herrschen? Hätte sich damals niemand mit Flimmer-AF und Boosts kritisch auseinandergesetzt, wäre doch auch nichts passiert bzgl. Implementierung bzw. Testmethodik.


Wie war das noch mit der Krähe die der anderen kein Auge aushackt....


Das wundert mich. Gerade HT4U ist doch sonst so kritisch in ihrer Betrachtung. Ist eine Testmethodik automatisch fair, nur weil man gut beschreibt, was man warum macht? Nicht zwangsläufig.

Iruwen
2013-10-30, 10:04:55
Einmal spielen die Karten in einer Liga, wo Wärme und Verbrauch egal sind, dann wird eben dieses "Feature" als der Kaufgrund angepriesen? :confused:
Beides ist natürlich optimal aber warum verschieben einige Fans immer wieder ihre Ansprüche und damit auch die Bewertungsgrundlagen für solche Diskussionen?
Es wäre ja nicht schlimm, wenn es verschiedene Personen wären, doch sind es leider dieselben.
Dieses "unanständige" subjektive Verhalten zerstört jede Diskussionskultur; es erinnert immer stärker an das Verhalten von sehr, sehr jungen Erdenbürgern. Und damit meine ich auch im speziellen das Verhalten der Firmen.
Einfach mal über den Dingen stehen, ist das wirklich so schwer?

Wem sind denn Wärme und Verbrauch egal :freak:
Abgesehen von Maximus (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9974431#post9974431) :biggrin:

Die machen die 290Pro etwas langsamer, kühler und leisser. Dann ist sie 5% langsamer als ne 780GHZ, aber hat nen bessres Feature-Set

Ansichtssache.

Und Öl ins Feuer kippen dient dem Zusammenhalt, ja? :facepalm:

Besonders erheiternd wenn solche Beiträge von Leuten mit so einer bestechenden Beitragshistorie wie Ulukay kommen. Ich glaub manche vergessen gern mal dass es hier eine Beitragssuche gibt :rolleyes:

Iruwen
2013-10-30, 10:06:29
/e: Doppelpost

Hübie
2013-10-30, 10:20:56
Manchen Leuten ist echt nicht mehr zu helfen. Wenn man nach Custom Kuehler Ergebnissen, Crossfire Erlebnissen usw... sucht, dann tut man das wohl nicht im 3DCenter. Neiiin. Dort flamen die nvidioten ueber 20 Seiten rum und spalten Haare. Sinnvolles gibts hier nicht mehr. Tolle Community!

Und Öl ins Feuer kippen dient dem Zusammenhalt, ja? :facepalm:

@box: Findest du deine Reaktion aber nicht etwas übertrieben? So wie es PCGH gemacht hat finde ich es richtig. Explizite Hinweise und gesonderte Tests der jeweiligen Modi in Gegenüberstellung der Konkurrenz mit ebenfalls ausgefahrenen Grenzen. :smile:
Wie gesagt: je näher sich ein Test an den Bedingungen bei mir Zuhause bewegt desto wertvoller ist er doch, oder etwa nicht? Und wer sich bei so einer Investition nicht informiert hat meiner Meinung nach selbst Schuld wenns nach hinten los geht.
Aber hey: Wozu gibt's denn dass Fernabsatzgesetz? ;D

Armaq
2013-10-30, 10:33:53
Warum dürfen Shadow und boxleitner in dem Thread überhaupt noch ihr Unwesen treiben?

Iruwen
2013-10-30, 10:36:01
Wiel hier glücklicherweise auch Meinungen geduldet werden die dir nicht gefallen vermutlich. Sind ja nicht im GAF.

Rancor
2013-10-30, 10:44:46
Also ich bin Nvidia Besitzer, finde die Testmethode aber Fair. Es ist halt ein Feature das vom Hersteller direkt in die Hardware der Grafikkarte eingebaut wurde.

Das man bei Nvidia mit den PT Targets per Software rumspielen kann, ist zwar richtig, es ist aber kein Hardwarefeature der Karte. Ausserdem garantiert AMD den betrieb im Uber Modus. Bei einer Stock Titan oder 780 GTX, kannst du pech haben und garnix ocen.

Wenn ich Softwarefrickeleien bei einem Test berücksichtigen müsste, dann könnte ich gar nicht mehr objektiv testen, da jede Karte anders performt.

Dural
2013-10-30, 10:45:04
Ja ich finde es langsam auch mühsam.

Ich finde es zwar auch nicht richtig, weil man damit den GK110 künstlich bremst und die 290X in den Benchmarks bevorzugt. Ein GK110 mit gleichem verbrauch wie 290X Uber Modus dürfte genau so schnell, wenn nicht sogar etwas schneller sein, egal.

Ehrlich gesagt mag ich das NV sogar richtig Gönnen, wenn sie das Gefühl haben so extrem teure Grafikkarte wie die Titan künstlich einbremsen zu müssen. Selber Schuld! :P

Jeder hat da halt seine Meinung. Aber es sollte jetzt langsam wirklich genug sein. :rolleyes:

Raff
2013-10-30, 10:54:42
Zurück zum Thema, bitte. Am besten mit sowas:

Radeon R9 290X: Quiet Mode vs. Uber Mode im direkten Hörvergleich (http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Videos/Radeon-R9-290X-Luefter-Video-1094985/)

MfG,
Raff

Hübie
2013-10-30, 11:19:15
Ähm, Raff? Wir sind hier im Preview-Thread der 290x wo eben auch diskutiert werden darf ob Methodiken legitim sind oder nicht. Jeder kann und darf also diesbezüglich Stellung nehmen ohne vom Thema abzuweichen.
Im R9 290x-Thread wird Technik bequatscht. ;)

just my 50 cent.

Übrigens ist 40% schon ein Graus. Egal ob offen oder geschlossen.

Mr. Lolman
2013-10-30, 11:23:15
Nur so BTW: Die so schon oft empfohlene ZOTAC 780 AMP ist ein wenig lauter als die 290X im Quiet-Mode.

Raff
2013-10-30, 11:23:23
Ähm, Raff? Wir sind hier im Preview-Thread der 290x wo eben auch diskutiert werden darf ob Methodiken legitim sind oder nicht. Jeder kann und darf also diesbezüglich Stellung nehmen ohne vom Thema abzuweichen.
Im R9 290x-Thread wird Technik bequatscht. ;)

Ist schon okay. Erwartet aber nicht, dass ich mich weiter dazu äußere. Falsches Forum. ;)

Nur so BTW: Die so schon oft empfohlene ZOTAC 780 AMP ist ein wenig lauter als die 290X im Quiet-Mode.

Dazu schreibt PCGH (http://www.pcgameshardware.de/Geforce-Titan-Grafikkarte-256920/Tests/Zotac-Geforce-GTX-780-AMP-im-Test-preiswerter-Titan-Killer-1082941/): "In der Praxis hinterlässt der Triple Silencer gemischte Gefühle: Zwar erzielt der Kühler gute Temperaturwerte, welche den GPU Boost aufrecht erhalten, allerdings auf Kosten der Ruhe: Beim Spielen messen wir eine maximale Lautheit von ausreichenden 4,6 Sone (erste Version der Karte mit geringerem Boost: 3,8 Sone) und damit klar mehr als beim Referenzdesign der GTX Titan und GTX 780 (3,2 Sone). Das Geräusch entspricht einem relativ hochfrequenten Surren. Positiv ist, dass Zotac den Leerlauf-Makel bei der Kartenrevision beseitigt hat: Erzeugte das Original noch 1,4 Sone in jeder Lage (Desktop/Blu-ray/Multi-Display), drehen die Lüfter nun deutlich langsamer und die Lautheit halbiert sich auf gute 0,7 Sone."

Konsequent.

MfG,
Raff

Vader
2013-10-30, 11:33:10
Mich würde eher interessieren, wie sich die 290x mit einem Arctic Accelero Xtreme III schlägt. Sollte doch alles gut sein, außer das die Garantie flöten geht.

oids
2013-10-30, 11:34:59
Das die Garantie flöten geht finde ich jetzt aber nicht so prickelnd :freak:

Eggcake
2013-10-30, 11:37:25
Mich würde eher interessieren, wie sich die 290x mit einem Arctic Accelero Xtreme III schlägt. Sollte doch alles gut sein, außer das die Garantie flöten geht.

Wurde ja von Usern auch schon berichtet. Temperatur ist in den 60ern mit leisen Lüftern und 1GHz.
Aber auf Garantieverlust habe ich persönlich halt auch nicht wahnsinnig viel Bock ;>

Iruwen
2013-10-30, 11:39:25
Ausserdem garantiert AMD den betrieb im Uber Modus. Bei einer Stock Titan oder 780 GTX, kannst du pech haben und garnix ocen.

Der Ubermodus ändert offenbar nur die Lüfterkennlinie damit der Boosttakt besser gehalten wird. Mit OC hat das nichts zu tun. Das gleiche passiert, wenn man bei Titan & Co die Parameter ändert: der Boosttakt wird gehalten. Und das wird ebenfalls durch die Garantie abgedeckt.

Wenn ich Softwarefrickeleien bei einem Test berücksichtigen müsste, dann könnte ich gar nicht mehr objektiv testen, da jede Karte anders performt.

Musst du so oder so aufgrund unterschiedlicher Treiber. Die Software des Herstellers zu installieren ist wohl kaum "Frickelei".

Vader
2013-10-30, 11:41:24
Wurde ja von Usern auch schon berichtet. Temperatur ist in den 60ern mit leisen Lüftern und 1GHz.
Aber auf Garantieverlust habe ich persönlich halt auch nicht wahnsinnig viel Bock ;>

Hatte hier im thread ja schon gefragt, ob es noch Hersteller gibt, die eine Demontage des Kühlers erlauben, so wie EVGA (früher?).
Aber so bescheuert ist wohl keiner :D

Eggcake
2013-10-30, 11:45:09
Hatte hier im thread ja schon gefragt, ob es noch Hersteller gibt, die eine Demontage des Kühlers erlauben, so wie EVGA (früher?).
Aber so bescheuert ist wohl keiner :D

AFAIK wurde MSI und ASUS erwähnt?! Bin mir jetzt aber nicht sicher.
Nun gut. Eigentlich geht die Garantie ja beim Übertakten eh flöten (theoretisch) und jeder mit einem Accelero wird auch übertakten. Von daher...

Vader
2013-10-30, 11:51:45
Nun, der hohe Preis verfügbarer 290x zusammen mit der baldigen Präsentation der 290 sorgen dafür, die "muss ich haben, jetzt" Einstellung bei mir auszulösen, es fällt aber schwer :freak:

dargo
2013-10-30, 11:56:05
Der Grund der Verschiebung der R9 290
http://videocardz.com/47420/nvidia-updates-geforce-gtx-780-ghz-edition

AMD will somit bei R9 290 wohl etwas höhere Taktraten fahren, oder jene fix takten lassen (Uebermodus)
Somit wahrscheinlich nochmals Stromhungriger, ebenso nicht Leiser und kühler.

Halte ich für Quatsch. Wenn AMD die Taktrate der R9 290 weiter anhebt ist die 290X völlig überflüssig und kann eingestampft werden.

StefanV
2013-10-30, 12:07:22
Halte ich für Quatsch. Wenn AMD die Taktrate der R9 290 weiter anhebt ist die 290X völlig überflüssig und kann eingestampft werden.
...bis die 'Eigenkreationen' der Hersteller eintrudeln...
Weil hier könnte AMD den Herstellern empfehlen, spezielle 'OC Versionen' mit bestimmten Takten zu produzieren...

Es ist ja nicht so, dass es keine 7970 GHz gab, bevor die GHz Edition vorgestellt wurde ;-)

dargo
2013-10-30, 12:14:55
Das ist völlig irrelevant. Es geht um die Referenz-Taktraten. Bei Custom-Designs wird es genauso OC-Versionen einer 290X geben.

Loeschzwerg
2013-10-30, 12:32:52
http://geizhals.at/de/sapphire-radeon-r9-290-21227-00-40g-a1023288.html

Hier werden 947MHz als maximaler Takt angegeben.

akira883
2013-10-30, 12:33:12
dann gibt es halt die 290x Uber edition :D

Schnitzl
2013-10-30, 12:34:06
Der Ubermodus ändert offenbar nur die Lüfterkennlinie damit der Boosttakt besser gehalten wird. Mit OC hat das nichts zu tun. Das gleiche passiert, wenn man bei Titan & Co die Parameter ändert: der Boosttakt wird gehalten. (...)
Ich frage mich warum das so gemacht wird. Das gilt sowohl für AMD Powertune als auch für den nVidia Boost.
Um deutlich zu werden: Das eine ist Scheisse und das andere Kacke.
Wenn ich ne Grafikkarte habe möchte ich ne bestimmte Leistung, für die ich auch bezahlt habe!
Was interessiert mich die Temperatur?
Ich bezahle für Leistung X. Um die Leistung zu halten über die Zeit wird eben die Karte lauter und/oder wärmer...wtf?
Aber nun wird die Karte mit der Zeit langsamer. Was ist denn das für eine Gülle???

Also wenn man sich hier aufregt dann imho über das. Was passiert mit den Karten, die 500 oder mehr Euro kosten nach 6+ Monaten? Wie schnell sind die dann noch? So wie ich das in letzter Zeit beobachten konnte, reinigt keiner der "Normal-User" seinen PC vom Staub, da wird irgendwann ein neuer gekauft.

nur mal so am Rande.
MfG

Raff
2013-10-30, 12:35:26
Die Karten sind zu weit beisammen: Ein 2560-SP-Chip wie Hawaii Pro liegt mit 1,1 GHz auf dem Niveau eines 2816er-Kerns @ 1.000 MHz. Richtig dicke OC-Versionen der R9 290 wird's wohl nicht geben ...

MfG,
Raff

M4xw0lf
2013-10-30, 12:41:20
Die Karten sind zu weit beisammen: Ein 2560-SP-Chip wie Hawaii Pro liegt mit 1,1 GHz auf dem Niveau eines 2816er-Kerns @ 1.000 MHz. Richtig dicke OC-Versionen der R9 290 wird's wohl nicht geben ...

MfG,
Raff
Naja, Nvidia hat bei GTX780 vs. Titan auch nichts gegen die Überschneidung bei der Performance durch OC-Versionen unternommen... Allerdings sind die Karten preislich da "besser differenziert" :freak:

Armaq
2013-10-30, 12:43:20
Die Karten sind zu weit beisammen: Ein 2560-SP-Chip wie Hawaii Pro liegt mit 1,1 GHz auf dem Niveau eines 2816er-Kerns @ 1.000 MHz. Richtig dicke OC-Versionen der R9 290 wird's wohl nicht geben ...

MfG,
Raff
Schätzt du 1250 Mhz 290X als nicht realistisch ein. Scheint ja doch machbar?

dargo
2013-10-30, 12:46:43
Schätzt du 1250 Mhz 290X als nicht realistisch ein.
Garantiert nicht als Custom-Design. Höchstens durch eigenes OC. Bei den 290X Customs würde ich jetzt nicht unbedingt mehr als 1,1Ghz erwarten. Möglicherweise 1,15Ghz, mehr halte ich für schwierig.

Raff
2013-10-30, 12:48:33
Yep. Ich sehe das wie dargo.

MfG,
Raff

Schaffe89
2013-10-30, 12:50:40
Naja das reicht ja schon um alle Nvidiaprodukte zu überbieten.
AMD hätte sofort neben den Referenz auch Customdesigns bringen sollen und die 290pro zuerst lauchen sollen und auf die GTX 780 "einstellen". Danach die 290x und bisschen abwarten was Nvidia macht.

Raff
2013-10-30, 12:53:23
Naja das reicht ja schon um alle Nvidiaprodukte zu überbieten.

..., allerdings hat Nvidia noch reichlich Luft nach oben mit GK110, AMD nicht – Hawaii XT ist Hawaii XT. Da geht nur noch XTX, aber keine Rechenwerke mehr.

MfG,
Raff

y33H@
2013-10-30, 13:28:44
So ein GK110 mit 15 SMX und dauerhaft 1 GHz ist zwar auch ein Stromsäufer, der 290X aber deutlich über.

V2.0
2013-10-30, 13:43:09
Definiere deutlich. Ich würde sagen ~15% - weniger unter 4k.

-Plesk-
2013-10-30, 13:45:03
NV kann und wird wohl irgendwann den absoluten Vollausbau präsentieren, diesen werden sich die Jungs aber auch für überirdisch viel Geld bezahlen lassen. Lieber eine 10-15% langsamere Karte, abwarten was Mantle bringt und sich freuen, dass NV die Preisschraube lockern musste und die eigentlich Midrange-Karten nicht mehr zum High-End Preis verkauft werden können.

Iruwen
2013-10-30, 13:47:30
Ich bin mal auf die kommenden Quartalszahlen über das nächste Jahr gespannt.

StefanV
2013-10-30, 13:50:01
Ich bin mal auf die kommenden Quartalszahlen über das nächste Jahr gespannt.
Meinst du dass nVidia heftig Verlust machen wird?

Das würde auch die Nebelkerze G-Sync erklären...

M4xw0lf
2013-10-30, 13:52:50
..., allerdings hat Nvidia noch reichlich Luft nach oben mit GK110, AMD nicht – Hawaii XT ist Hawaii XT. Da geht nur noch XTX, aber keine Rechenwerke mehr.

MfG,
Raff
So gesehen hat AMD noch ziemlich viel Luft nach oben, nur werden sie sicher nicht noch einen GK110-großen Chip rausbringen ^^

Schaffe89
2013-10-30, 14:02:05
So ein GK110 mit 15 SMX und dauerhaft 1 GHz ist zwar auch ein Stromsäufer, der 290X aber deutlich über.

2816 vs 2880. Man sieht dass die 290x und Titan die gleiche IPC haben. Nvidia hat seit langem nicht mehr wirklich viel Spielraum nach oben, wenn die das 15SMX aktivieren wird das kaum etwas bringen.

AMD´s Customkarten können gerne mit 1100mhz laufen oder AMD bringt noch ne Gigahertz edition mit 1050 mhz Standard und 1100mhz Boost mit dem Kühler der 7990, Nvidia hat nicht mehr Spielraum, die paar mehr SP´s sind ziemlich wurscht.

Iruwen
2013-10-30, 14:02:48
Meinst du dass nVidia heftig Verlust machen wird?

Das würde auch die Nebelkerze G-Sync erklären...

Ich vermute, dass sich da relativ wenig bewegen wird. Einfach weil im High-End Consumermarkt nicht das große Geld verdient wird. Wenn, dann eher aufgrund von Verschiebungen im HPC und mobilen Segment.

Dural
2013-10-30, 14:35:14
Schätzt du 1250 Mhz 290X als nicht realistisch ein. Scheint ja doch machbar?

Wie soll das machbar sein? Schon die 1200MHz sind nicht ohne weiteres stabil drin und das mit 100% Lüfter.

Armaq
2013-10-30, 15:25:05
Wie soll das machbar sein? Schon die 1200MHz sind nicht ohne weiteres stabil drin und das mit 100% Lüfter.
Preselection. Gibt hier ja Mitglieder die sowas professionell machen für Hersteller. Custom Kühler bringen ja doch einiges.

Dural
2013-10-30, 15:50:47
Auch dann halte ich das für nicht möglich: zu viel Abwärme, zu viel Verbrauch, zudem ein Hersteller auch eine gewisse Sicherheit einplanen muss und das dürfte bei diesem Takt kaum möglich sein.
Wie gesagt, ich habe zwei 290X und beide kann man auf 1200MHz hochprügeln. Jedoch habe ich mit 1200MHz schon Bildfehler, mit besserer LuKü kann man die sicher stabil machen aber noch mal 50MHz drauf, ich weis nicht.

Zudem muss man aufpassen, die Treiber spinnen derzeit noch sehr. Manchmal läuft die Karte, manchmal läuft die Karte wieder nicht mit den exakt selben Einstellungen. Eventuell liegt es an meinem System oder Win8.1

StefanV
2013-10-30, 15:59:19
Auch dann halte ich das für nicht möglich: zu viel Abwärme, zu viel Verbrauch,
Für den Standardkühler sicherlich.

Bei anderen KÜhlern (wie dem erwähnten Arctic Accelero) schauts hingegen anders aus, der scheint wohl noch mehr als genug Reserven zu haben. Solltest dir vielleicht auch mal anschauen ;-)

Dural
2013-10-30, 16:33:00
Hmm glaub ich auch nicht, wie sprechen bei 1200MHz und je nach Spannung von ca. 350-400Watt

Und Nein, Luftkühler interessieren mich nicht. Kommt was anderes ;)

Eggcake
2013-10-30, 16:48:35
Ich weiss auch nicht warum viele jetzt annehmen dass die OC-Varianten grossartig anders werden? Titan/780er geht ja mit einem gescheiten Luftkühler auch bis 1.2GHz soviel ich weiss, deshalb gibt es keine 1.2GHz Titans oder 1.2GHz 780er.

StefanV
2013-10-30, 16:55:05
Ich vermute, dass sich da relativ wenig bewegen wird. Einfach weil im High-End Consumermarkt nicht das große Geld verdient wird. Wenn, dann eher aufgrund von Verschiebungen im HPC und mobilen Segment.

Das Problem ist, dass High End auf den Rest 'abfärbt'...
Sprich die Leute sehen, wer gerad die schnellste Karte hat und kaufen dann irgend einen Low End Crap von diesem Hersteller. Auch wenns total sinnlos ist...

Ich weiss auch nicht warum viele jetzt annehmen dass die OC-Varianten grossartig anders werden? Titan/780er geht ja mit einem gescheiten Luftkühler auch bis 1.2GHz soviel ich weiss, deshalb gibt es keine 1.2GHz Titans oder 1.2GHz 780er.
Schau dir mal einige 7970 non GHz OC Versionen an.
Bis auf den Speichertakt gibts da einige, die sehr nahe an die GHz kommen bzw sogar drüber.

hier die 7970 Lightning (http://geizhals.at/de/msi-r7970-lightning-v278-003r-a751143.html)
Standard ist wohl gemerkt 925MHz. Takt dieser Karte: 1070...

HarryHirsch
2013-10-30, 16:55:35
Über 340000 PPD mit nur 2 GPUs. :freak:
http://abload.de/img/2013-10-30_165225suo76.jpg (http://abload.de/image.php?img=2013-10-30_165225suo76.jpg)

Ich hab leider welche mit Elpdia Speicher erwischt, mal sehen was so geht. ;)

Botcruscher
2013-10-30, 16:59:24
Das bedeutet jetzt was?

dildo4u
2013-10-30, 17:00:12
Das bedeutet jetzt was?
Das 290X ne gute Compute Karte ist.

HarryHirsch
2013-10-30, 17:00:33
Eine Titan kommt auf ca. 120000 PPD.

Botcruscher
2013-10-30, 17:05:53
Das 290X ne gute Compute Karte ist.
Das war AMD schon immer. Nur fehlt irgendwie komplett der Vergleich.
PS: http://www.foldingstats.eu/index.php?seite=gpu_vergleich

esc
2013-10-30, 17:09:30
Das kann man so oft sagen. Anfangs hat z.B. die 7970 ca. 500 Euro gekostet, 5-6 Monate später gab es die schnellere GHz-Edition auch für deutlich weniger. Titan war klar zu teuer, das bestreitet wohl kaum einer, bloß sollte man bei alledem nicht vergessen, dass inzwischen 8 bzw. 5 Monate vergangen sind. Es ist völlig normal, dass das PLV nach so langer Zeit nur besser werden kann.
Das Problem ist halt, wenn beide IHVs nicht gleichzeitig veröffentlichen. Ich könnte mir vorstellen, dass es hierzu gar Absprachen gegeben hat, damit jeder bestmöglich absahnen kann.

HarryHirsch
2013-10-30, 17:19:03
Das war AMD schon immer. Nur fehlt irgendwie komplett der Vergleich.
PS: http://www.foldingstats.eu/index.php?seite=gpu_vergleich

Die Titan Ergebnisse stimmen mal hinten und vorne nicht.

http://folding.typepad.com/news/2013/05/core-17-update-video-and-reddit-live-qa.html

Knuddelbearli
2013-10-30, 17:33:09
Na weil er den Uber Modus als Auslieferungsstand definieren will um zu rechtfertigen, dass damit getestet wird ;)
Man kann ja mal 100 Karten kaufen und schauen, wo der Schalter steht. Wenn man auch nur eine findet, wo er auf Uber steht, ziehe ich meine Aussage sofort zurück.


Meine 2 VTX waren im Auslieferungszustand auf "UBER" gestellt...




Jein. Wenn das ein AIB so macht, wird noch lange kein Standard daraus. Will man eine Referenzkarte testen, wie soll man sich dann entscheiden, wenn der Käufer es einmal so und einmal bekommen kann?

Langsam wird es lächerlich ... du bist ja schlimmer als Berlsuconi

M4xw0lf
2013-10-30, 17:45:55
So, jetzt haben wir genug PCGH aber auch genug boxleitnerb gebasht.

StefanV
2013-10-30, 18:20:17
Na weil er den Uber Modus als Auslieferungsstand definieren will um zu rechtfertigen, dass damit getestet wird ;)
Man kann ja mal 100 Karten kaufen und schauen, wo der Schalter steht. Wenn man auch nur eine findet, wo er auf Uber steht, ziehe ich meine Aussage sofort zurück.
Du, die Karte wird in China gefertigt. Da würd ich sogar davon ausgehen, dass es bei der einen oder anderen Karte sein könnte, dass der Schalter in einer 'falschen Position' steht...

horn 12
2013-10-30, 19:42:58
Himmel und Hölle, jeden Tag NEUE Beta Treiber:
Ist dies womöglich der Neue R9 290 (X) Turbo Treiber ? HAHAHAH ...

http://www.planet3dnow.de/cms/5066-amd-catalyst-13-11-beta-8-fuer-windows/

foenfrisur
2013-10-30, 20:13:35
ganz sicher nicht...

eher ein "BF4-stürze-bitte-nicht-ab-treiber"

mfg

horn 12
2013-10-30, 22:10:07
Kann es sein das wir trotzdem morgen früh, den 31. Oktober den einen oder anderen ONLINE Testbericht zur R9 290 sehen werden, oder zumindest Werte geleakt, welcher Temperatur, Verbrauch und Performance in etwa uns vorzeigt.
Bin gespannt ob alle auf das Neue Datum, den 05. November setzen.

Einer aus England soll eine R9 290 bereits in den Händen haben.
Bis zum späten Abend folgen weiter Benchmarks...
http://www.3dmark.com/3dm/1515052

http://www.overclock.net/t/1436497/official-amd-r9-290x-290-owners-club/1850

http://forums.overclockers.co.uk/showthread.php?t=18551717&highlight=r9+290x&page=33

http://forums.overclockers.co.uk/showthread.php?t=18551717&highlight=r9+290x&page=35

Lüfter scheint nicht exakt der Selbe zu sein, wirkt etwas anders ...
Hoffe Leiser und bleibt Kühler...

Benchmarkwerte foldender Szenarien:
3D Mark 2011
Heaven 4.0

http://forums.overclockers.co.uk/showthread.php?t=18553209



Und in der Tat, bleibt bei 86 Grad Celsius:
Plus my temps hover at 86 with fan speed 40% on ultra too

StefanV
2013-10-31, 07:39:42
hier noch ein Bericht über den Accelero (http://www.computerbase.de/forum/showthread.php?t=1269597&p=14743350#post14743350)

Bei nur 20% Lüftergeschwindigkeit maximal 63°C ist schon echt krasse. Da sieht man mal wieder wie derb scheiße diese DHE Kühler sind...

Loeschzwerg
2013-10-31, 08:03:15
Dicke Heatpipes, drei große Lüfter, viel Alu... wie soll da DHE auch mithalten können?

Ich find dein DHE Bashing schon irgendwo beeindruckend :D Und trotzdem gibt es Szenarien in denen DHE Sinn macht ;)

M4xw0lf
2013-10-31, 08:36:04
Oh yeah: http://hardforum.com/showthread.php?p=1040332902

http://i.imgur.com/wLk9hAy.jpg

http://i.imgur.com/Qb73sGv.jpg

Dass der Xtreme passt ist inzwischen jedenfalls erwiesen ^^

StefanV
2013-10-31, 08:40:37
Dicke Heatpipes, drei große Lüfter, viel Alu... wie soll da DHE auch mithalten können?
Eben, das sag ich ja die ganze Zeit...

Aber die Differenz ist schon verdammt beeindruckend! Insbesondere der Zustand, dass sich der Accelero nicht mal anstrengen muss, um die Wärme abzuführen...


Ich find dein DHE Bashing schon irgendwo beeindruckend :D Und trotzdem gibt es Szenarien in denen DHE Sinn macht ;)
Bin vom Compaq Evo W6000 geschädigt. Lüfterkanal durch 'nen 120mm Lüfter mit Zalman AFB123 ersetzt und das Teil war leiser und kühler...

Und auch waren die ganzen DHE Kühler eigentlich immer relativ leistungsarm und laut...

Loeschzwerg
2013-10-31, 08:50:18
Aber die Differenz ist schon verdammt beeindruckend! Insbesondere der Zustand, dass sich der Accelero nicht mal anstrengen muss, um die Wärme abzuführen...

Das definitiv und die Kombination gefällt mir auch wesentlich besser als der Shaman. In diesem Zustand schreit die Karte förmlich nach mehr Takt/Spannung.


Bin vom Compaq Evo W6000 geschädigt. Lüfterkanal durch 'nen 120mm Lüfter mit Zalman AFB123 ersetzt und das Teil war leiser und kühler...


Das Konzept bei der W6000 war aber auch ziemlich zweifelhaft... keine Ahnung was die da geritten hat.

Botcruscher
2013-10-31, 10:13:43
Dass der Xtreme passt ist inzwischen jedenfalls erwiesen ^^

Ich nicht. Zwischen Kühler auf die Karte schrauben und _alles_ perfekt zu kühlen gibt es einen enormen Unterschied.

dildo4u
2013-10-31, 10:24:44
PCGH BF4 GPU Benches


http://www.pcgameshardware.de/Battlefield-4-PC-238749/Tests/Battlefield-4-Test-Benchmarks-Grafikkarten-1095050/

Leider keine Info welches Bios und ohne MSAA getestet.

Raff
2013-10-31, 10:35:18
"Uber Mode"

Werte von 20 Grafikkarten in 3 Settings folgen morgen.

MfG,
Raff

boxleitnerb
2013-10-31, 10:56:19
Die Testbedingungen könnte man wenigstens dranschreiben, da hat dildo4u schon Recht. Ich gehe mal davon aus, dass das einfach nur ein Versehen war.

Armaq
2013-10-31, 11:03:36
Die Testbedingungen könnte man wenigstens dranschreiben, da hat dildo4u schon Recht. Ich gehe mal davon aus, dass das einfach nur ein Versehen war.
Und weiter geht es.

Raff
2013-10-31, 11:04:44
Bitte alles lesen:

"Wir haben getestet wie sich die aktuellen High-End-Grafikkarten AMD Radeon R9-290X ("Uber Mode"-BIOS) sowie die Nvidia Geforce GTX Titan in diesen Einstellungen schlagen. Zum Vergleich haben wir vier, bei unseren Lesern weit verbreitete Grafikkarten getestet: Die Geforce GTX 780, Radeon HD 7970 GHz Edition, Geforce GTX 670 sowie Radeon HD 7950. Bei der Auflösung haben wir für diesen ersten Artikel nur FullHD getestet, da dessen Verbreitung mit Abstand am höchsten ist und wir schnellstmöglich die ersten Ergebnisse präsentieren wollen."

... und nicht die Anmerkungen übersehen, dass das nur eine Vorschau der "vollen Dröhnung" ist. :)

MfG,
Raff

boxleitnerb
2013-10-31, 11:10:31
Und weiter geht es.

Gemeldet.

@Raff:
Ich sagte es nur deswegen, weil sonst immer im Diagramm selbst steht, wie getestet wurde "Kepler with fixed Boost" z.B. und ich dachte, es wurde halt einfach vergessen. Es erinnert sich wahrscheinlich nicht jeder an die genaue Vorgehensweise oder schaut in den ursprünglichen Tests die Methodik nach. Dass PCGH das bisher immer mit reingepackt hat, finde ich gut, denn nicht selten wandern die Diagramme (aber nicht der zugehörige Text) durchs Web und diese Infos fehlen dann.

Pirx
2013-10-31, 11:29:21
@boxleitnerb:

Hast du jetzt eigentlich deine Meinung bzgl. des Tests des Uber-Modes revidiert oder bleibst du dabei?

CoolhandX
2013-10-31, 11:31:44
Habe jetzt auch mal zugeschlagen. R9 290x von MSI. Hoffe das die mit der Lieferung nicht so lange brauchen.

Bin sehr gespannt wie die Karte ist. Bin jetzt einfach mal das Risiko eingegangen auch wenn die Karte sich erst mal in meinem System langweilen wird bis nächstes Jahr aufgerüstet wird.

Dann kann die 570er ja in Rente gehen und BF4 wird dann hoffentlich richtig gut befeuert :biggrin:

HarryHirsch
2013-10-31, 12:08:34
Gemeldet.

@Raff:
Ich sagte es nur deswegen, weil sonst immer im Diagramm selbst steht, wie getestet wurde "Kepler with fixed Boost" z.B. und ich dachte, es wurde halt einfach vergessen. Es erinnert sich wahrscheinlich nicht jeder an die genaue Vorgehensweise oder schaut in den ursprünglichen Tests die Methodik nach. Dass PCGH das bisher immer mit reingepackt hat, finde ich gut, denn nicht selten wandern die Diagramme (aber nicht der zugehörige Text) durchs Web und diese Infos fehlen dann.

Bwahaha, langsam wird's echt peinlich.

Raff
2013-10-31, 12:10:16
@Raff:
Ich sagte es nur deswegen, weil sonst immer im Diagramm selbst steht, wie getestet wurde "Kepler with fixed Boost" z.B. und ich dachte, es wurde halt einfach vergessen. Es erinnert sich wahrscheinlich nicht jeder an die genaue Vorgehensweise oder schaut in den ursprünglichen Tests die Methodik nach. Dass PCGH das bisher immer mit reingepackt hat, finde ich gut, denn nicht selten wandern die Diagramme (aber nicht der zugehörige Text) durchs Web und diese Infos fehlen dann.

Hast schon Recht, die Info gehört in die Benchgrafik (auch wenn es sich eh nicht gehört, das Bild ohne Link irgendwo zu posten). Alles Fehlende gibt's morgen mit dem Update. :)

MfG,
Raff

StefanV
2013-10-31, 12:41:56
Tjo, war ja zu erwarten, dass einige Leute etwas 'panisch' reagieren, wenn die eigene 1000€ Grafikkarte nicht mehr das schnellste wo gibt ist sondern nur noch das 2. oder dritt schnellste. Da fühlt man sich dann natürlich 'nen bisserl ungut. Insbesondere wenn die schlagende Karte auch noch fürn halben Preis verkauft wird...

Tjo, that's life. Wer mit dem Wertverlust im PC Bereich nicht umgehen kann, sollte vielleicht etwas kleinere Brötchen backen und sich keine High End Hardware kaufen.


Anyway: Dass PCGH im 'Übermode' testet, find ich völlig in Ordnung und auch berechtigt. Aber das Thema hatten wir schon, sollte eigentlich so langsam mal durch sein. Aber anscheinend wünscht sich jemand, dass die Titan am Ende ganz weit vorn steht und die neuen AMD Karten hinter sich lässt. Anders kann man das, was hier geschiet, nicht erklären. Zumal auch noch die Custom Karten ausstehen. Bei den aktuellen Erkenntnissen sollte man davon ausgehen, dass ein großer Teil der Custom Karten es auch im 'Silent Mode' schafft, die Temperatur auf einem anständigen Niveau zu halten und somit permanent zu boosten...

Iruwen
2013-10-31, 14:01:01
Ihr werdet ja auch nicht müde mit aller Kraft immer wieder darauf einzugehen. box argumentiert wenigstens und wird nicht permanent persönlich.

Eggcake
2013-10-31, 14:13:00
Im ernst, entweder ihr ignoriert es, oder ihr diskutiert (ernsthaft) mit. Alles andere ist ein Witz.

Zudem hat Box in diesem Fall durchaus Recht. Bei der 290X sollte man immer erwähnen, auch in den Diagrammen, welcher Modus benutzt wurde. Insbesondere wenn der Ubermode verwendet wurde, da das ja doch weniger verbreitet ist. Aber darüber muss man jetzt auch nicht mehr diskutieren, da Raff ja bereits geantwortet hat.


OT:
Gief 290 reviewz plx

Dural
2013-10-31, 14:56:21
wenn die eigene 1000€ Grafikkarte nicht mehr das schnellste wo gibt ist sondern nur noch das 2. oder dritt schnellste.


Genau genommen ist Titan nach wie vor die schnellste Karte wenn man sie auf 1000MHz wie die 290X Uber Fixiert ;D

und dabei eventuell noch sparsamer und leiser

captain_drink
2013-10-31, 15:55:19
Anyway: Dass PCGH im 'Übermode' testet, find ich völlig in Ordnung und auch berechtigt. Aber das Thema hatten wir schon, sollte eigentlich so langsam mal durch sein. Aber anscheinend wünscht sich jemand, dass die Titan am Ende ganz weit vorn steht und die neuen AMD Karten hinter sich lässt. Anders kann man das, was hier geschiet, nicht erklären. Zumal auch noch die Custom Karten ausstehen. Bei den aktuellen Erkenntnissen sollte man davon ausgehen, dass ein großer Teil der Custom Karten es auch im 'Silent Mode' schafft, die Temperatur auf einem anständigen Niveau zu halten und somit permanent zu boosten...

Ob Titan oder R290X vorne liegen, ist mir persönlich vollkommen gleichgültig. Mich stört, dass man die eine Karte (stellvertretend für alle Boost-2.0-Karten) fixiert, die andere (für Powertune-2.0-Karten) hingegen nicht. Entweder sollen alle mit fixierten "Baseclock" oder alle mit maximierten Einstellungen gebencht werden. Ob man die Maximierung im Treiber, BIOS oder sonstwo einstellt, sollte für einen Benchmark, bei dem Usability nicht von Interesse ist, irrelevant sein.

dildo4u
2013-10-31, 15:57:51
Das der Bios Switch einfacher sein soll ist doch auch Quark,gibt massig Leute die komplett PC's kaufen und viel eher an der Software was umstellen als den Rechner auf zuschrauben.

boxleitnerb
2013-10-31, 16:32:31
Ob Titan oder R290X vorne liegen, ist mir persönlich vollkommen gleichgültig. Mich stört, dass man die eine Karte (stellvertretend für alle Boost-2.0-Karten) fixiert, die andere (für Powertune-2.0-Karten) hingegen nicht. Entweder sollen alle mit fixierten "Baseclock" oder alle mit maximierten Einstellungen gebencht werden. Ob man die Maximierung im Treiber, BIOS oder sonstwo einstellt, sollte für einen Benchmark, bei dem Usability nicht von Interesse ist, irrelevant sein.

Korrekt. Leider wird versucht, die Überbringer dieser Argumentation auf jede nur erdenkliche Art zu denunzieren statt auf die Argumentation selber einzugehen.
Der Punkt, den dildo4u hervorbringt ist durchaus interessant. Für viele ist wohl die Hürde, an die Hardware selbst Hand anzulegen, höher als etwas in Software zu machen. Zumal wenn man nichtmal weiß, wie man eine Grafikkarte einbauen kann, was auf viele Leute auch in dieser Preisklasse zutrifft.

Knuddelbearli
2013-10-31, 17:18:12
gut das man das selbe wie mit dem Biosswitch ja auch direkt im Treiber erledigen kann ^^

da sogar mit jedem erdenklichen Zwischenwert UND man braucht nichtmal ein weiteres Programm dazu! oO

habe ich jetzt schon ein paar mal erwähnt aber du ignorierst den Fakt ja einfach ...

M4xw0lf
2013-10-31, 17:27:17
gut das man das selbe wie mit dem Biosswitch ja auch direkt im Treiber erledigen kann ^^
Und bei NV kann man das nicht? (echte Frage ;) )

Raff
2013-10-31, 17:28:45
Im Nvidia-Treiberpanel geht goarnix.

MfG,
Raff

Knuddelbearli
2013-10-31, 17:30:38
nö da braucht man ein weiteres Tool dazu, OCer benutzten diese Tools zwar eh Leute die nicht mal eine Graka einbauen können oder einen Switch umlegen aber eher nicht. Dabei ist das Uber Bios scheinbar teilweise schon standardmäßig aktiviert.

Aber lassen wir das Thema ich habe mich da bisher bewusst raus gehalten und lass es auch dabei. Mir geht nur auf den Keks das Bioxleitnerb immer Sagt er argumentiert zumindest sachlich, wobei er aber nur die Argumente nennt die ihm nützen ...

Am Anfang der Diskussion hat er ja sogar gesagt wenn nur EINE Graka standardmäßig mit Uber ausgeliefert wird zieht er seinen Einwand zurück. Hat er natürlich nicht ...


Na weil er den Uber Modus als Auslieferungsstand definieren will um zu rechtfertigen, dass damit getestet wird ;)
Man kann ja mal 100 Karten kaufen und schauen, wo der Schalter steht. Wenn man auch nur eine findet, wo er auf Uber steht, ziehe ich meine Aussage sofort zurück.


Meine 2 VTX waren im Auslieferungszustand auf "UBER" gestellt...


Jein. Wenn das ein AIB so macht, wird noch lange kein Standard daraus. Will man eine Referenzkarte testen, wie soll man sich dann entscheiden, wenn der Käufer es einmal so und einmal bekommen kann?

M4xw0lf
2013-10-31, 17:32:56
Im Nvidia-Treiberpanel geht goarnix.

MfG,
Raff
Ah. Dieses kleine feine Detail war mir gar nicht bewusst.

Dural
2013-10-31, 17:39:32
Früher hatte NV ja nTune, gibt es ja leider nicht mehr. Ich fand das immer super, gerade auf meinem nForce 790i System war die Software echt super, alle Chipsatz /CPU und GPU Einstellungen konnten bequem im Treiber Eingestellt werden. :)

CoolhandX
2013-10-31, 17:42:28
Also es ist schon echt unglaublich. 290x bestellt, 1 Stunde später kam die Stornierung, nicht verfügbar. Lagernd war bei der Bestellung ersichtlich.

Alle weiteren Versandhändler haben sie nicht mehr lieferbar oder verlangen unglaubliche Preise.

Nun ist es die Palit 780GTX SuperJetstream geworden, hätte zwar gerne mal wieder eine Radeon gehabt aber für den Preis konnte ich nicht wiederstehen.

uweskw
2013-10-31, 18:56:27
Also es ist schon echt unglaublich. 290x bestellt, 1 Stunde später kam die Stornierung, nicht verfügbar. Lagernd war bei der Bestellung ersichtlich.

Alle weiteren Versandhändler haben sie nicht mehr lieferbar oder verlangen unglaubliche Preise.

Nun ist es die Palit 780GTX SuperJetstream geworden, hätte zwar gerne mal wieder eine Radeon gehabt aber für den Preis konnte ich nicht wiederstehen.

Ich bin bei genau der gleichen Überlegung. Was mich halt abschreckt ist das es bei NV nur DX11 gibt. Und die Karte soll wieder 3-4 Jahre halten......

Greetz
U.S.

135i
2013-10-31, 19:10:20
Ich bin bei genau der gleichen Überlegung. Was mich halt abschreckt ist das es bei NV nur DX11 gibt. Und die Karte soll wieder 3-4 Jahre halten......

Greetz
U.S.

Jo, sind echt verlockende Preise der 780er, aber aufgrund der DX11- Sache nicht zu empfehlen. Mein nächstes TriSLI-Setup fahre ich besser mit Maxwell.

Chrisch
2013-10-31, 19:39:11
Falls wer eine quasi neue R9 290X haben möchte kann er sich gern melden, würde diese zum Preis den ich bezahlt habe abgeben. Ansonsten tritt diese Samstag die Heimreise an ;)

M4xw0lf
2013-10-31, 19:41:07
Falls wer eine quasi neue R9 290X haben möchte kann er sich gern melden, würde diese zum Preis den ich bezahlt habe abgeben. Ansonsten tritt diese Samstag die Heimreise an ;)
Hmm, wie wärs mit 400€? :usweet:

Knuddelbearli
2013-10-31, 19:45:15
Wieso sollte er das machen wenn er auch den vollen Preis zurück haben kann? ^^

M4xw0lf
2013-10-31, 19:47:23
Wieso sollte er das machen wenn er auch den vollen Preis zurück haben kann? ^^
Was weiß ich? Dreist sein kostet ja nix :ulol:

Godmode
2013-10-31, 19:54:50
hier noch ein Bericht über den Accelero (http://www.computerbase.de/forum/showthread.php?t=1269597&p=14743350#post14743350)

Bei nur 20% Lüftergeschwindigkeit maximal 63°C ist schon echt krasse. Da sieht man mal wieder wie derb scheiße diese DHE Kühler sind...

Benötigt der Accelero nicht drei Slots?

TheCounter
2013-10-31, 20:05:19
Falls wer eine quasi neue R9 290X haben möchte kann er sich gern melden, würde diese zum Preis den ich bezahlt habe abgeben. Ansonsten tritt diese Samstag die Heimreise an ;)

Wieso willst sie denn wieder abgeben?

captain_drink
2013-10-31, 20:12:51
Ich bin bei genau der gleichen Überlegung. Was mich halt abschreckt ist das es bei NV nur DX11 gibt. Und die Karte soll wieder 3-4 Jahre halten......

Greetz
U.S.

Zumindest DirectX 11 (nicht Feature Level 11_1) unterstützen Fermi und Kepler ja durchaus: http://nvidia.custhelp.com/app/answers/detail/a_id/3196

Chrisch
2013-10-31, 20:38:55
Wieso willst sie denn wieder abgeben?
Überwiegend weil der Betrieb mit 2 Monitoren nicht so läuft wie ich mir das vorstelle bzw von NV her kenne. Die ATI/AMD taktet nicht richtig runter, wird dadurch sehr warm und zieht entsprechend Strom. Jedes mal Manuell zu takten ist auf Dauer einfach nervig.

Deswegen werkelt nun eine GTX780 in meinem PC ;)

Wie gesagt, billiger werde ich diese nicht verkaufen. 550€ als BF4 Edition (inkl. unbenutzen Code).

dildo4u
2013-10-31, 20:43:30
Überwiegend weil der Betrieb mit 2 Monitoren nicht so läuft wie ich mir das vorstelle bzw von NV her kenne. Die ATI/AMD taktet nicht richtig runter, wird dadurch sehr warm und zieht entsprechend Strom. Jedes mal Manuell zu takten ist auf Dauer einfach nervig.

Deswegen werkelt nun eine GTX780 in meinem PC ;)

Wie gesagt, billiger werde ich diese nicht verkaufen. 550€ als BF4 Edition (inkl. unbenutzen Code).
Wie läuft die 780 bei BF4 im Verglich?

Chrisch
2013-10-31, 20:49:55
Kaum Unterschied, wobei es mir mit der 290X beim Downsampling ein wenig flüssiger vorkommt.

foenfrisur
2013-10-31, 20:53:56
die erste listung einer r9 290.
weiß jetzt nicht, ob da was neues drin steht.

http://geizhals.de/sapphire-radeon-r9-290-21227-00-40g-a1023288.html

mfg

Tomahawk
2013-10-31, 22:16:31
Die Ct nennt 400 Euro als Preis (290x: 475 Euro)

uweskw
2013-10-31, 22:24:54
Zumindest DirectX 11 (nicht Feature Level 11_1) unterstützen Fermi und Kepler ja durchaus: http://nvidia.custhelp.com/app/answers/detail/a_id/3196

Genau, das ist ja das Problem mit NV. Nur DX11.


.....

Wie gesagt, billiger werde ich diese nicht verkaufen. 550€ als BF4 Edition (inkl. unbenutzen Code).

Schick sie zurück wenns noch geht. Hier gibts die BF-Edition für 497, lieferbar
http://geizhals.de/sapphire-radeon-r9-290x-battlefield-4-edition-21226-00-50g-a1021719.html

Greetz
U.S.

captain_drink
2013-10-31, 22:53:02
Genau, das ist ja das Problem mit NV. Nur DX11.



Schick sie zurück wenns noch geht. Hier gibts die BF-Edition für 497, lieferbar
http://geizhals.de/sapphire-radeon-r9-290x-battlefield-4-edition-21226-00-50g-a1021719.html

Greetz
U.S.

Ups, da hatte ich nicht zuende geschrieben. Ich meinte DirectX 11.1, was von NV unterstützt wird. Lediglich DX11.2 ist AMD aktuell vorbehalten.

Ronny145
2013-10-31, 23:03:53
Genau, das ist ja das Problem mit NV. Nur DX11.



Worunter überhaupt nur ein (möglicherweise) relevantes Spielfeature fällt, was explizit Feature level 11_1 voraussetzt. Was für ein Problem? Das DX11.1 Gebrüll in BF4 hat sich auch wie erwartet als unberechtigt rausgestellt. Nvidia kann es. Ihr schnallt nicht das einige dx11.1 Sachen eh schon optional unter dx11 sind, die Nvidia unterstützt.

uweskw
2013-10-31, 23:17:06
Meine Karte behalte ich ca 3-4 Jahre. Bis dahin können sich die zusätzlichen Features schon deutlich bemerkbar machen. Wenn ich 4-500 Öcken zahle, möchte ich eigentlich schon das aktuellste Feature-Set. Aber dennoch ist die SuperJetstream für 420,00 schon seeehr verlockend. Weis auch nicht ob ich da widerstehen kann. Bei Witcher2 mit SSAA geht meine 570er doch schon sehr in die Knie

Greetz
U.S.

haudi
2013-10-31, 23:20:16
Überwiegend weil der Betrieb mit 2 Monitoren nicht so läuft wie ich mir das vorstelle bzw von NV her kenne. Die ATI/AMD taktet nicht richtig runter, wird dadurch sehr warm und zieht entsprechend Strom. Jedes mal Manuell zu takten ist auf Dauer einfach nervig.

Deswegen werkelt nun eine GTX780 in meinem PC ;)

Wie gesagt, billiger werde ich diese nicht verkaufen. 550€ als BF4 Edition (inkl. unbenutzen Code).
Solange deine beiden Monitore mit der selben Hz laufen (60hz) z.b. taktet die r9 290x sehr wohl in den idle!

HarryHirsch
2013-10-31, 23:22:19
Worunter überhaupt nur ein (möglicherweise) relevantes Spielfeature fällt, was explizit Feature level 11_1 voraussetzt. Was für ein Problem? Das DX11.1 Gebrüll in BF4 hat sich auch wie erwartet als unberechtigt rausgestellt. Nvidia kann es. Ihr schnallt nicht das einige dx11.1 Sachen eh schon optional unter dx11 sind, die Nvidia unterstützt.

Sicherlich.

Leider pushen sie nur ihre eigenen sachen (Cuda, Physx).
Offene Sachen wie DX oder OpenCL werden leider nur stiefmütterlich behandelt.
Wenn du das fördern willst bitte, nicht mit mir. ;)

dildo4u
2013-10-31, 23:24:00
Sicherlich.

Leider pushen sie nur ihre eigenen sachen (Cuda, Physx).
Offene Sachen wie DX oder OpenCL werden leider nur stiefmütterlich behandelt.
Wenn du das fördern willst bitte, nicht mit mir. ;)
Das Argument ist mit Mantle gestorben.

aufkrawall
2013-10-31, 23:25:36
Worunter überhaupt nur ein (möglicherweise) relevantes Spielfeature fällt, was explizit Feature level 11_1 voraussetzt. Was für ein Problem? Das DX11.1 Gebrüll in BF4 hat sich auch wie erwartet als unberechtigt rausgestellt. Nvidia kann es. Ihr schnallt nicht das einige dx11.1 Sachen eh schon optional unter dx11 sind, die Nvidia unterstützt.
Laut dem Link oben kann NV sogar alle D3D-relevanten Features in Hardware.
DX 11.2 auch teilweise, wobei erstmal abzuwarten bleibt, ob das in den nächsten 2-3 Jahren überhaupt eine Rolle spielen wird.

Viel Wind um nichts.

HarryHirsch
2013-10-31, 23:29:07
Das Argument ist mit Mantle gestorben.

Ich dachte Mantle ist genau so offen wie PhysX?

Raff
2013-10-31, 23:34:43
Jetzt mit allem, was man so braucht: [Update] Battlefield 4 im Test: Benchmarks von 20 Grafikkarten, Qualitätsstufen und Ultra HD im Video (http://www.pcgameshardware.de/Battlefield-4-PC-238749/Tests/Battlefield-4-Test-Benchmarks-Grafikkarten-1095050/)

R9 290X mit 840 (Quiet) und mit 1.000 MHz (Uber) neben 18 weiteren Modellen.

MfG,
Raff

HarryHirsch
2013-10-31, 23:38:29
Ich spiele es mit 1680x1050 auf ultra dings und 200% SSAA.
Flüssig isses, aber nicht leise.:freak:

Raff
2013-10-31, 23:43:13
Vergleicht man deine Aussage mit den PCGH-Werten, stimmt etwas nicht. ;) Ultra + 200 Prozent (2x2 SSAA) flüssig? Fast unmöglich, intern rechnet deine Grafikkarte mit 3.360x2.100 Pixeln.

MfG,
Raff

HarryHirsch
2013-10-31, 23:44:41
Da stimmt alles, ich hab 2 der krachmacher am start.

Raff
2013-10-31, 23:45:02
Alles klar. Mein Beileid. X-D

MfG,
Raff

dildo4u
2013-10-31, 23:45:29
Jetzt mit allem, was man so braucht: [Update] Battlefield 4 im Test: Benchmarks von 20 Grafikkarten, Qualitätsstufen und Ultra HD im Video (http://www.pcgameshardware.de/Battlefield-4-PC-238749/Tests/Battlefield-4-Test-Benchmarks-Grafikkarten-1095050/)

R9 290X mit 840 (Quiet) und mit 1.000 MHz (Uber) neben 18 weiteren Modellen.

MfG,
Raff
Die AMD's haben immer noch die komische MSAA Schwäche.

HarryHirsch
2013-10-31, 23:46:38
Danke :freak:

Knuddelbearli
2013-10-31, 23:48:26
hmm dafür das die 290X Quit soweit runtergeht mit dem Takt hält sie sich ja noch ganz ordentlich

Was bedeutet bei euch eigentlich max OC?

1100MHz kommt mir recht wenig vor 1200GHz bei der Titan ohne Mod Bios dagegen eher viel

HarryHirsch
2013-10-31, 23:53:07
Das war auch mein Problem...
Man sollte die GPUs nicht anhand der MHz bewerten.
Die 290X hat bei kleinerer die-Size mehr Einheiten und Power.

Chrisch
2013-10-31, 23:56:49
Solange deine beiden Monitore mit der selben Hz laufen (60hz) z.b. taktet die r9 290x sehr wohl in den idle!
Nein, nun mehrfach getestet. Beide 60Hz (mehr können die auch nicht), sobald der 2te angeschlossen ist (muss nichtmal dafür an sein) bleibt der Takt oben.

Zumal ich auch noch andere Probleme mit der 290X habe wie die komischen großen und buggy Cursor.

HarryHirsch
2013-11-01, 00:17:40
Redest du vom Zero-Core? Der funktioniert hier schon seit Jahren wie er soll.
Außer man deaktiviert aus versehen das ULPS. :freak:

dildo4u
2013-11-01, 00:38:17
Er meint vermutlich normalen 2 Monitor betrieb.

http://www.computerbase.de/artikel/grafikkarten/2013/amd-radeon-r9-290x-im-test/10/

Dort braucht die 290X 70% mehr Strom als z.b eine 780.

HarryHirsch
2013-11-01, 00:58:08
Das ist natürlich Heavy. Kann NV denn inzwischen mehr als 3 Monitore ansteuern?

Chrisch
2013-11-01, 01:16:59
Er meint vermutlich normalen 2 Monitor betrieb.

http://www.computerbase.de/artikel/grafikkarten/2013/amd-radeon-r9-290x-im-test/10/

Dort braucht die 290X 70% mehr Strom als z.b eine 780.
Genau das meine ich! Und da der PC zu 95% nur im Desktopbetrieb ist macht das schon einiges aus.

gnahr
2013-11-01, 02:34:54
Das ist natürlich Heavy. Kann NV denn inzwischen mehr als 3 Monitore ansteuern?
3+1 ist schon ne weile dabei.
kann amd denn das? eyefinity wurde ja mal groß beworben, aber dann zwischendurch wieder das gemurkse mit "nur bei bestimmten bildschirmeingängen" und "aktiven adaptern"... große werbung, schlechte umsetzung. thats it.

StefanV
2013-11-01, 03:27:59
Früher: 2 Schirme über die 'Klassischen' Ausgänge, dazu bis zu 4 weitere über DP.
Ohne Adapter kann man z.B. an eine gewöhnliche 7970 bis zu 4 Schirme anschließen (bei 2 mini DP Ports), bei einigen sogar 5-6 (MSI 7970)...

Mit der R9-290X kann man 3 über die 'Klassischen' Ausgänge anschließen sowie einen Schirm (ohne Adapter) via DP.

TobiWahnKenobi
2013-11-01, 09:56:29
Früher: 2 Schirme über die 'Klassischen' Ausgänge, dazu bis zu 4 weitere über DP.
Ohne Adapter kann man z.B. an eine gewöhnliche 7970 bis zu 4 Schirme anschließen (bei 2 mini DP Ports), bei einigen sogar 5-6 (MSI 7970)...

Mit der R9-290X kann man 3 über die 'Klassischen' Ausgänge anschließen sowie einen Schirm (ohne Adapter) via DP.

klingt für mich nicht anders als das, was titan hier leistet (4 endgeräte). wobei ich mir noch optional den luxus gönne, eines der HDMI-signale hinter dem AVR aktiv zu klonen. hab einfach zuviele beamer und HDTVs.


(..)

mfg
tobi

fondness
2013-11-01, 10:00:45
klingt für mich nicht anders als das, was titan hier leistet (4 endgeräte). wobei ich mir noch optional den luxus gönne, eines der HDMI-signale hinter dem AVR aktiv zu klonen. hab einfach zuviele beamer und HDTVs.


(..)

mfg
tobi

Mit einem DP-Switch kann man an einer 290X auch sechs Monitore anschließen, das ist der Unterschied.

TobiWahnKenobi
2013-11-01, 10:06:26
Mit einem DP-Switch kann man an einer 290X auch sechs Monitore anschließen, das ist der Unterschied.

klingt gierig.. DP aktiv splitten.. ob das ein alleinstellungsmerkmal von DP ist oder ist das ein AMD-geheimnis, das nur die beherrschen.


aha.



(..)

mfg
tobi

fondness
2013-11-01, 10:10:01
klingt gierig.. DP aktiv splitten.. ob das ein alleinstellungsmerkmal von DP ist oder ist das ein AMD-geheimnis, das nur die beherrschen.


aha.



(..)

mfg
tobi

Da wird nichts "aktiv gesplittet". Die Karte hat 6 Display-Controller und kann deshalb auch mittels MST-Hub sechs Monitore mit unterschiedlichen Auflösungen und Timing ansteuern. Im übrigen untersützt Hwaii als erste GPU auch die 600-MHz-Pixel-Raten, die für kommenden, im Single-Stream bei 60 Hz operierenden Ultra-HD-Displays benötigt werden.

TobiWahnKenobi
2013-11-01, 10:12:53
Da wird nichts "aktiv gesplittet". Die Karte hat 6 Display-Controller und kann deshalb auch mittels MST-Hub sechs Monitore mit unterschiedlichen Auflösungen und Timing ansteuern. Im übrigen untersützt Hwaii als erste GPU auch die 600-MHz-Pixel-Raten, die für kommenden, im Single-Stream bei 60 Hz operierenden Ultra-HD-Displays benötigt werden.

ja - das ist echt krass, was die so alles versprechen. die armen schweine, die sich von sowas locken lassen.. *gg*

AMD ist zweite wahl - wie immer.

was könnte jemanden zum kauf einer 290/290X bewegen ausser "kein ca$h auf tash"?

edit:
du musst jetzt sagen -> man kann ganz viele 4k bildschirme anschliessen.. das mit den aktiven adaptern kannst du verschweigen - die info hat AMD ja auch ganz gut zurückgehalten respektive versteckt, als wir damals (ende 2011/anfang 2012) mit der 7970 darauf reingefallen sind.


(..)

mfg
tobi

fondness
2013-11-01, 10:17:35
ja - das ist echt krass, was die so alles versprechen. die armen schweine, die sich von sowas locken lassen.. *gg*

AMD ist zweite wahl - wie immer.


(..)

mfg
tobi

Gut das ich es nicht nötig habe mich auf ein solches Niveau zu begeben. EOD. :smile:

TobiWahnKenobi
2013-11-01, 10:34:31
Gut das ich es nicht nötig habe mich auf ein solches Niveau zu begeben. EOD. :smile:

tschuldige - das sollte gar keine diskussion werden. ich tue nur meine meinung kund. diskutieren sollen mal lieber die, die augenscheinlich an einem entscheidungsweg stehen, wo sie die "für" und "widers" abwägen, weil sie sich entscheiden müssen. womit wir wieder beim ca$h wären.

möglich, dass es gehörlose leute gibt, die sich gleichartige bildschirme auf den tisch stellen - wer unterschiedliche geräte hat - und da bin ich wieder selbst mein lieblingsbeispiel, eben weil ich diverse endgeräte mixe (beamer, fernseher und TFTs) kriegt mit AMD seit äonen blumige versprechen, die in der praktischen umsetzung einfach nur zum haareraufen sind. und da liegt der hund in diversen macken.. ton, timings, wegbrechende signale, tearende sek. displays, mischbetrieb mit 23, 120, 50/60Hz usw.

dass es AMD oder vormals ATI seit 20+ jahren schafft, mir die kotze in den hals zu treiben ist sicher nichts, was ich mir vorsätzlich wünsche. leider aber ne kontinuität, die immer und immer wieder gleich ist. naja.. vllt. wird es mit dem nächsten treiber besser.. oder ich kaufe nochmal für 300€ kabel.. adapter.. neue endgeräte.

btw
für die 7970 habe ich drei beamer und zwei AVRs angeschafft. nur so zum spaß.. hätte ja am endgerät liegen können.

wenn du nicht mit gleichartigen realen respektive praktischen "erfahrungen" aufwarten kannst, wedel dir einen auf deinen avatar oder erfreue dich daran, dass technische eckdaten auf dem datenblatt toll klingen oder halt - wie eingangs erwähnt - erwartungshaltung schüren. zum glück für den versprechenden kann das nicht jeder prüfen..


(..)

mfg
tobi

Raff
2013-11-01, 10:36:28
AMD ist zweite wahl - wie immer.

Man kann AMD viel vorwerfen, aber was Multi-Display-Betrieb und -Einrichtung geht, ist AMD meiner Meinung nach seit Jahren besser als Nvidia. Die aktuelle Eyefinity-Implementierung schluckt laut meiner Erfahrung einfach alles, was man ihr vorsetzt, es lässt sich einfach einrichten und funktioniert. Allerdings habe ich es auch nur mit LCDs versucht, keine Beamer oder ähnliches.

Während man bei Nvidia bis Kepler zwei GPUs für Triple-Monitoring brauchte, lief das bei AMD mit einer GPU.

Während man bei Nvidia kein Dual-Head-Gaming unterstützt, läuft auch diese (kuriose) Kombination bei AMD.

Während Kepler bei 4K-Displayport-MST anfangs heftige Probleme hatte, lief auch das bei AMD – mit kleineren Problemen, aber es lief. Nur der letztgenannte Punkt ist nach Kritik und guter Treiberarbeit bei Nvidia mittlerweile tadellos gefixt und daher jetzt besser als bei AMD.

MfG,
Raff

TobiWahnKenobi
2013-11-01, 10:42:17
Man kann AMD viel vorwerfen, aber was Multi-Display-Betrieb und -Einrichtung geht, ist AMD meiner Meinung nach seit Jahren besser als Nvidia. Die aktuelle Eyefinity-Implementierung schluckt laut meiner Erfahrung einfach alles, was man ihr vorsetzt, es lässt sich einfach einrichten und funktioniert. Allerdings habe ich es auch nur mit LCDs versucht, keine Beamer oder ähnliches.

Während man bei Nvidia bis Kepler zwei GPUs für Triple-Monitoring brauchte, lief das bei AMD mit einer GPU.

Während man bei Nvidia kein Dual-Head-Gaming unterstützt, läuft auch diese (kuriose) Kombination bei AMD.

Während Kepler bei 4K-Displayport-MST anfangs heftige Probleme hatte, lief auch das bei AMD – mit kleineren Problemen, aber es lief. Nur der letztgenannte Punkt ist nach Kritik und guter Treiberarbeit bei Nvidia mittlerweile tadellos gefixt und daher jetzt besser als bei AMD.

MfG,
Raff

ich weiss was du meinst, allerdings war hier grundsätzlich die gemeinsame schnittmenge 1080p (kompl. ohne schwerpunkt "gaming").

diese 4k geschichte lasse ich aussen vor.. da komme ich erst 2015 an.


(..)

mfg
tobi

Peter Gräber
2013-11-01, 10:59:19
Solange deine beiden Monitore mit der selben Hz laufen (60hz) z.b. taktet die r9 290x sehr wohl in den idle!

Jetzt bin ich etwas baff, denn AMD hat das nie in irgendeiner Form erwähnt. ABER: Du hast Recht! Ich habs gerade nachgeprüft. Mit zwei identischen Monitoren bleibt die GPU im Idle und die Spannungen ebenfalls.

Armaq
2013-11-01, 11:07:19
Der Treiber scheint noch viel Potential an vielen Ecken zu haben. ;)

dargo
2013-11-01, 11:29:40
Die AMD's haben immer noch die komische MSAA Schwäche.
MSAA-Schwäche? Lol...

Kann trotzdem NV gut in Schacht halten. ;)
http://www.techspot.com/review/734-battlefield-4-benchmarks/page3.html

aufkrawall
2013-11-01, 11:38:16
Kann trotzdem NV gut in Schacht halten. ;)
http://www.techspot.com/review/734-battlefield-4-benchmarks/page3.html
Gibts noch andere Benchmarks, wo NV da so abstinkt?

Sven77
2013-11-01, 11:40:30
Lol, ich hab in keiner Situation 50fps im SP mit denselben Settings.. die haben Blödsinn gebencht

Raff
2013-11-01, 11:40:46
Dort stinkt doch nur der kleine Kepler. Die GK104-Karten kleben heftig an ihrer Speichertransferrate, GK110 gleicht das mit großen Caches prima aus. Es ist eher verwunderlich, dass Tahiti seinen Transfervorteil gegenüber GK104 so selten ausspielen kann.

MfG,
Raff

dildo4u
2013-11-01, 13:07:43
MSAA-Schwäche? Lol...

Ich meine die PCGH Benches ich vertraue keiner Seite wo man den Bench nicht nachvollziehen kann.

dargo
2013-11-01, 13:47:41
Auch da sehe ich keine MSAA-Schwäche. Der Unterschied zwischen beiden IHVs mit non MSAA und MSAA ist minimal. Zudem würde ich bei BF4 noch so einige neuere Grafiktreiber abwarten. Es hat schon bei BF3 ziemlich lange gedauert bis der "Boost" kam. Das ist auch der Grund warum ich noch mit BF4 mindestens bis Dezember warte. Mantle, bessere Grafiktreiber, mehrere Spielpatches, günstigeres Game. Eigentlich nur win.

dildo4u
2013-11-01, 13:51:47
Ist eigentlich eindeutig mit 4MSAA sind die min fps bei Titan und 290X gleich ohne ist die 290 schneller.

Schaffe89
2013-11-01, 13:54:29
Ich meine die PCGH Benches ich vertraue keiner Seite wo man den Bench nicht nachvollziehen kann.

Wo liegt denn da eine MSAA Schwäche? Das sind unterschiede von wenigen Prozent in der Skalierung, da was abzuleiten ist nicht akkurat. Das kann genauso an einem Treiber liegen.

Die HD 7970 ghz liegt über einer 770, das ist recht gut für AMD.

dildo4u
2013-11-01, 14:11:49
Die HD 7970 ghz liegt über einer 770, das ist recht gut für AMD.
Jo ohne MSAA sinds 4fps ist dort genau das Selbe wie bei der neuen Karte mit MSAA sind's nur 1fps Unterschied.

Iruwen
2013-11-01, 14:54:37
http://www.tweaktown.com/articles/5824/amd-radeon-r9-290x-4gb-overclocked-reference-video-card/index22.html
Haben die sich vermessen oder wie kommt die 290X OC auf einen so deutlich niedrigeren Verbrauchswert als im Quiet Mode ohne dass laut Text die Spannung geändert wurde? Die Temperatur ist durch die höhere Lüfterdrehzahl nur 4°C niedriger, das kanns nicht sein.

Schaffe89
2013-11-01, 14:54:56
Warum siehst du eigentlich bei jedem Unterschied sofort eine Schwäche bei AMD? Soll das Getrolle sein?

Übrigens:

Der Stromverbrauch der 290x sinkt bei zwei baugleichen Monitoren auf die Hälfte des Verbrauchs von vorher ab.

aufkrawall
2013-11-01, 14:59:16
Der Stromverbrauch der 290x sinkt bei zwei baugleichen Monitoren auf die Hälfte des Verbrauchs von vorher ab.
Da freuen sich Leute mit verschiedenen Monitoren für verschiedene Anwendungszwecke aber.

Iruwen
2013-11-01, 15:02:10
Ich würde mir jetzt auch keine zwei 144Hz Displays kaufen sondern ein günstigeres Sekundärgerät bzw. eins mit IPS-Panel oder andersrum.

Schaffe89
2013-11-01, 15:02:44
Da freuen sich Leute mit verschiedenen Monitoren für verschiedene Anwendungszwecke aber.

Nvidia hatte damals auch Probleme damit, könnte ne Treibergeschichte sein, übrigens kann man auch mit Afterburner die Taktraten einstellen, unglaublich viel Aufwand.. -^^

Knuddelbearli
2013-11-01, 17:07:48
Da freuen sich Leute mit verschiedenen Monitoren für verschiedene Anwendungszwecke aber.

Komisch das du als es jahrelang bei NV so war nie gemeckert hast :wink:
Erst seit Kepler ist es bei NV nimmer so

fondness
2013-11-01, 18:50:16
Radeon 290 non-X lagernd:
http://geizhals.at/eu/xfx-radeon-r9-290-r9-290a-enfc-a1015782.html

Ronny145
2013-11-01, 18:57:32
Viel zu teuer. Wohin die Reise bei ordentlicher Verfügbarkeit geht, sieht man an 290x Listungen ab 465-480€. Die 290 schätze ich wird unter 400€ liegen. Leider ist die Verfügbarkeit unter aller Sau derzeit.

dargo
2013-11-01, 19:27:36
Ist eigentlich eindeutig mit 4MSAA sind die min fps bei Titan und 290X gleich ohne ist die 290 schneller.
Minfps sind sowas von wayne... besonders in Savegames.

Kosh
2013-11-01, 20:02:04
Meine Radeon 5870 hat 320 Euro gekostet. Mehr wollte ich eigentlich auch nicht für eine neue Karte zahlen.
Glaube aber nicht das die 290 ohne X da bei voller Verfügbarkeit auch nur in die Nähe kommt.

Bin eh mal auf die wirklichen Endergebnisse der 290 und 290x gespannt. Aktuell könnte man vermuten,das eine Karte überflüssig ist (welche,keine Ahnung).

Denn im Bereich von 450 Euro braucht man nicht 2 Karten mit 30 Euro Differenz.Da wird die eine oder die andere schlichtweg überfüssig.

horn 12
2013-11-01, 20:08:57
Italien hat die R9 290 bereits seit Dienstag im Angebot.
Magere 589 Euro werden verlangt, jedoch ein Shop war bereits bei 419 Euro, und da sind nur 2 Stück lagernd :-(
Anderer hat 16 Stück Sapphire lagernd.

M4xw0lf
2013-11-01, 20:09:32
MDenn im Bereich von 450 Euro braucht man nicht 2 Karten mit 30 Euro Differenz.Da wird die eine oder die andere schlichtweg überfüssig.
Die 290 ohne X bekommt sicher eine Preisempfehlung bis maximal 400€, irgendwas zwischen 350 und 400.

Kosh
2013-11-01, 20:15:28
Die 290 ohne X bekommt sicher eine Preisempfehlung bis maximal 400€, irgendwas zwischen 350 und 400.


Ist halt auch alles eine Frage der Verfügbarkeit. Wenn an jeder Ecke genug vorhanden sind, sind die Preise natürlich deutlich niedriger, als wenn jeder Laden nach 10 Minuten ausverkauft ist.

Wobei ich natürlich hier nichts schreibe,was nicht eh schon jeder weiß :D

TobiWahnKenobi
2013-11-01, 20:17:57
Die 290 ohne X bekommt sicher eine Preisempfehlung bis maximal 400€, irgendwas zwischen 350 und 400.

angebot und nachfrage werden das schon regeln. problem ist, dass viele bei beiden iHVs auf zu frühe releasedaten reinfallen.

ich würde immer erst von "am markt angekommen" sprechen, wenn es die hardware auch überall zu kaufen gibt. und damit meine ich nicht irgendwelche internet-shops, sondern läden wie hier in der computermeile und bei den discountern. alles andere ist presselaunch oder papertiger.

solange die AMD-teile nicht ne handvoll AAA-titel im gepäck haben oder drastisch weniger kosten als vergleichbares von nVidia liegen die doch eh wie blei in den regalen.

und jetzt kommt gleich wieder einer, der mir den unterschied zwischen 29 und 31 fps erklären will.

Da freuen sich Leute mit verschiedenen Monitoren für verschiedene Anwendungszwecke aber.

als würde es sowas geben ?! :rolleyes:

bei AMD hat man doch sechs gleichartige 4K fernseher zu ner videowand zusammengeschaltet oder zumindest drei 60Hz TFTs, weil der platz für projektoren nicht reicht..



(..)

mfg
tobi

M4xw0lf
2013-11-01, 20:20:57
Ist halt auch alles eine Frage der Verfügbarkeit. Wenn an jeder Ecke genug vorhanden sind, sind die Preise natürlich deutlich niedriger, als wenn jeder Laden nach 10 Minuten ausverkauft ist.

Wobei ich natürlich hier nichts schreibe,was nicht eh schon jeder weiß :D
Hehe ^^ Wie zutreffend es aber trotzdem ist sieht man ja grad bei der 290X... Preisempfehlung 475, kaufbar (also lagernd) aber eher für 575 :(

Kosh
2013-11-01, 20:26:13
solange die AMD-teile nicht ne handvoll AAA-titel im gepäck haben oder drastisch weniger kosten als vergleichbares von nVidia liegen die doch eh wie blei in den regalen.

und jetzt kommt gleich wieder einer, der mir den unterschied zwischen 29 und 31 fps erklären will.


Wieso? Bei gleicher Leistung und gleichem Preis, greife ich zur ATI Karte.
Wobei ich aktuell seit fast 4 Jahren mit meiner 5870 glücklich bin und eigentlich nur aufrüste,weil ich mal wieder geil auf neue HArdware bin und mit einer 290er wohl die nächsten 5-6 Jahre auskommen werde,bedingt durch die Konsolenlimitierung.
Glaube nämlich persönlich nicht wirklich,das man in der 1900er Auflösung die nächsten Jahre mit einer 290er zu langsam unterwegs ist,wenn man nicht unbedingt alles auf Ultra stellen muss und die Konsolengrafik um ein vielfaches besser haben muss auf dem PC.

Ach ja, erst letztens wieder gelesen,wie stark manche Leute einen Unterschied zwischen 100 und 140 Bilder pro Sekunde sehen^^.

Knuddelbearli
2013-11-01, 20:56:26
Meine Radeon 5870 hat 320 Euro gekostet. Mehr wollte ich eigentlich auch nicht für eine neue Karte zahlen.
Glaube aber nicht das die 290 ohne X da bei voller Verfügbarkeit auch nur in die Nähe kommt.

Bin eh mal auf die wirklichen Endergebnisse der 290 und 290x gespannt. Aktuell könnte man vermuten,das eine Karte überflüssig ist (welche,keine Ahnung).

Denn im Bereich von 450 Euro braucht man nicht 2 Karten mit 30 Euro Differenz.Da wird die eine oder die andere schlichtweg überfüssig.


370€ dürften realistisch sein

bei sehr guter Verfügbarkeit eventuell 350€ viel fehlt da nicht und du hast mehr als doppelte Leistung, von was bist du denn das letzte mal umgestiegen?

290X wird sich wohl bei 450€ Einpendeln, ohne weitere Preissenkungen

Gipsel
2013-11-01, 21:38:36
ich würde immer erst von "am markt angekommen" sprechen, wenn es die hardware auch überall zu kaufen gibt. und damit meine ich nicht irgendwelche internet-shops, sondern läden wie hier in der computermeile und bei den discountern. alles andere ist presselaunch oder papertiger.
tschuldige - das sollte gar keine diskussion werden. ich tue nur meine meinung kund.
Lieber Tobi,

dies ist hier ein Diskussionsforum, da geht es ums diskutieren. Irgendwelche Statements in der Kategorie kannst Du gerne irgendwo anders loswerden, aber nicht hier.

Also, lass das Trollen!

derguru
2013-11-01, 22:22:52
leichtes spiel für die 290x cf kombi:wink:

AMD Radeon R9 290X CrossFire Video Card Review (http://www.hardocp.com/article/2013/11/01/amd_radeon_r9_290x_crossfire_video_card_review/1)

Knuddelbearli
2013-11-01, 22:28:31
oO was ist da bei 4k Metro los? SLI Bug? Gerade im aktuellen NV Vorzeigespiel kurz anchdem NV extra zusammen mit einigen Seiten 4k benchmarks veröffentlicht hat?

Und man sieht auch für 4k reicht nichtmal CF / SLI ...

boxleitnerb
2013-11-01, 22:30:06
Jap, kein Wunder. Die Titanen krebsten vermutlich irgendwo am Basistakt herum wegen Hitzeentwicklung im SLI, die 290Xer in der Nähe von 1 GHz wegen Uber Mode. Nunja, wem's gefällt so zu testen. Wenigstens kann man diesmal zwei Augen zudrücken, weil AMD den Uber Mode empfiehlt für CF. Default vs Default ist es damit immer noch nicht, aber inzwischen wird das ja zur Gewohnheit.

dargo
2013-11-01, 22:32:56
Die Titanen krebsten vermutlich irgendwo am Basistakt herum wegen Hitzeentwicklung im SLI...
Tja... bestes Wort Case für diesen Boost-Sche...

Edit:
Nee... liegt eher an GPU-PhysX. Komischer Vergleich diese Seite.

aufkrawall
2013-11-01, 22:33:00
Bei Metro ist auf NV PhysX an.
Edit: Ok, unten ist es aus.
Edit 2: Ok, beim 4k-Test versagt das SLI-Scaling.

samm
2013-11-01, 22:41:15
Bei Metro ist auf NV PhysX an.Oben werden immer die besten noch spielbaren Einstellungen getestet, unten unter "Apples to apples" für jede Karte identische. Finde ich eine gute Methode.

aufkrawall
2013-11-01, 22:45:08
Siehe Edits. :)

derguru
2013-11-01, 22:46:50
Und man sieht auch für 4k reicht nichtmal CF / SLI ...

in jedem gebenchtem spiel mit 4k setting reicht ein cf sys.was soll da nicht reichen?

Blediator16
2013-11-01, 22:59:16
Jap, kein Wunder. Die Titanen krebsten vermutlich irgendwo am Basistakt herum wegen Hitzeentwicklung im SLI, die 290Xer in der Nähe von 1 GHz wegen Uber Mode. Nunja, wem's gefällt so zu testen. Wenigstens kann man diesmal zwei Augen zudrücken, weil AMD den Uber Mode empfiehlt für CF. Default vs Default ist es damit immer noch nicht, aber inzwischen wird das ja zur Gewohnheit.

Meinst du nicht, dass du es mittlerweile zu offensichtlich machst?:D

Knuddelbearli
2013-11-01, 23:23:57
in jedem gebenchtem spiel mit 4k setting reicht ein cf sys.was soll da nicht reichen?

30 min fps ( wo ne ganze sek so niedrig ist und nicht nur einzelne spikes nach unten ) reichen zumindest mir in Shooter nicht

Iruwen
2013-11-01, 23:44:40
Mit G-Sync schon :D

aufkrawall
2013-11-01, 23:46:58
Mit AFR ohne Input Lag Reduktion leider zum Kotzen.

Dural
2013-11-01, 23:47:14
Als Info, selbst mit WaKü hält meine Karte die 1250MHz nicht stabil, zudem taktet sie obwohl alles auf max. eingestellt ist den Takt ab und zu runter, keine Ahnung wie so :rolleyes:

http://www.3dmark.com/3dm11/7413884

Knuddelbearli
2013-11-01, 23:57:48
Mit G-Sync schon :D

nö da außer farcry 3 alle auch unter 30 fps gehen

derguru
2013-11-02, 00:02:16
musst schon lange keine shooter mehr gespielt haben wenn du solche anforderungen hast.mit deiner 480gtx kommst du in den gebenchten spielen nicht mal in full hd auf 30fps max.;)

Knuddelbearli
2013-11-02, 00:12:46
ich spiele auch sogut wie keine Shooter

Crysis 1 dürfte vor 2 Jahren der letzte gewesen sein ( TR zähle ich jetzt mal nur bedingt dazu )

und wenn ich schon 1k€ ( bzw 2k€ bei titan ) ausgebe für Grakas und nochmal 2-3K für den Monitor will ich auch max Einstellungen

Mr. Lolman
2013-11-02, 07:35:27
Mit AFR ohne Input Lag Reduktion leider zum Kotzen.

Inputlagreduktion?

Lard
2013-11-02, 08:54:20
Als Info, selbst mit WaKü hält meine Karte die 1250MHz nicht stabil, zudem taktet sie obwohl alles auf max. eingestellt ist den Takt ab und zu runter, keine Ahnung wie so :rolleyes:

Das Powertarget limitiert vieleicht bei ca 350W.
Versuch mal das ASUS BIOS, dieses erlaubt 468W.
The stock blower cooler stops you at 265w-300w, AMD silent & uber stop you at ~300w & ~350w respectively, ASUS bios at 468w, the buck controller stops you at 559.5w, the pcb stops you at ~580w, PT3.rom (PT1 also) stops you at ~725-800w. I suppose beyond 1.45v is diminishing returns on overclock without LN2 cold temperatures.

http://www.overclock.net/t/1437170/290x-voltage-control-vdroop-mods-custom-bios-thread/50#post_21107712

(del676)
2013-11-02, 09:48:57
leichtes spiel für die 290x cf kombi:wink:

AMD Radeon R9 290X CrossFire Video Card Review (http://www.hardocp.com/article/2013/11/01/amd_radeon_r9_290x_crossfire_video_card_review/1)

CF hat ja auch meistens eine bessere Skalierung. Sah man ja schon bei der HD7970. In Singlegpu Benches leicht hinter einer 780, in CF gleichauf mit 780 SLI.

Blediator16
2013-11-02, 10:42:09
CF hat ja auch meistens eine bessere Skalierung. Sah man ja schon bei der HD7970. In Singlegpu Benches leicht hinter einer 780, in CF gleichauf mit 780 SLI.

Keiner ist auf das Ergebnis hier eingegangen. CF wird das eindeutig bessere Ergebnis zugesprochen was Spielbarkeit, Smoothness und Leistung anbelangt. Bis auf Die Lautstärke und Hitze, was wir vom schlechten Kühler schon wissen, wird Nvidia und SLI hier ziemlich in die Schranken verwiesen und das zum Teil nicht zu knapp.

aufkrawall
2013-11-02, 10:52:44
Inputlagreduktion?
Schlaumeier. :rolleyes:
Spiel mal bei 30fps mit AFR. Kann man auch gleich Leim aufs Mauspad schmieren.

StefanV
2013-11-02, 10:56:42
Schlaumeier. :rolleyes:
Spiel mal bei 30fps mit AFR. Kann man auch gleich Leim aufs Mauspad schmieren.
Sind wir hier gerad bei Esoterik oder gehts um Hardware?!

Weil das letzte mal, als ich nachgeschaut hab, da hat man gesagt, dass das CF bei der Hawaii 'nen bisserl anders sein soll als bei anderen Radeons.

Im Klartext: Jetzt irgendwas von irgendwelchen Vorgängern zu schließen, ist dämlich.
DAS ist ungefähr so, als wenn man von 'nem X850/1900 CF System auf 'nen aktuelles schließen würde...

boxleitnerb
2013-11-02, 11:03:48
Keiner ist auf das Ergebnis hier eingegangen. CF wird das eindeutig bessere Ergebnis zugesprochen was Spielbarkeit, Smoothness und Leistung anbelangt. Bis auf Die Lautstärke und Hitze, was wir vom schlechten Kühler schon wissen, wird Nvidia und SLI hier ziemlich in die Schranken verwiesen und das zum Teil nicht zu knapp.

Dazu muss man auch sagen, dass bei AFR die Smoothness natürlich klar von den fps abhängt. Sprich bei unterschiedlichen fps kann man nicht generell ableiten, welche Lösung rein technisch gesehen besser mit den Mikrorucklern umgeht.
Auch bzgl. der Skalierung kann man hier schlecht Aussagen machen, eben wegen dem Boost. Generell geben sich AMD und Nvidia hier gar nichts, CF skaliert nicht besser oder schlechter. Siehe z.B. den 680 SLI vs 7970 CF-Test damals bei Computerbase. Das waren noch Boost 1.0 Karten, da war die Temperatur ein eher geringer Faktor und bei AMD natürlich noch gar keiner.

Raff
2013-11-02, 11:07:07
Im Klartext: Jetzt irgendwas von irgendwelchen Vorgängern zu schließen, ist dämlich.
DAS ist ungefähr so, als wenn man von 'nem X850/1900 CF System auf 'nen aktuelles schließen würde...

Das ist eine verbreitete Volkskrankheit, die sich mit dem uralten Spruch "Gebranntes Kind scheut das Feuer" begründen lässt. "Meine Ati Xpert war 1998 der totale Crêpes, Ati kommt mir bestimmt nicht ins Haus!". Das ist einfacher als sich umzugewöhnen und neue Eindrücke zu sammeln. :freak:

Nichtsdestotrotz: Hawaii-Crossfire anzudichten, dass es alle anderen AFR-Systeme hinsichtlich des Spielgefühls abzieht, ist optimistischer Unfug.

MfG,
Raff

StefanV
2013-11-02, 11:09:42
leichtes spiel für die 290x cf kombi:wink:

AMD Radeon R9 290X CrossFire Video Card Review (http://www.hardocp.com/article/2013/11/01/amd_radeon_r9_290x_crossfire_video_card_review/1)
Worst Case Skalierung: ~75%, best Case: ~87%
Not bad, not bad at all...

Was aber besonders lustig ist, ist die letzte Seite.

Kurzfassung: AMD lief einfach, ohne Probleme mit den 4K Displays.
Bei NV gabs einige gravierende Probleme. Als 'unerfahrener User' würd man sowas sofort einpacken und zurück schicken, weil kaputt...

Und bezüglich CF vs SLI:

Once you've gamed at a large resolution on CrossFire with R9 290X, you likely won't go back.

Dazu noch:


We are simply impressed with the dominance that Radeon R9 290X CrossFire is showing over the GTX TITAN SLI and GTX 780 SLI.

Was gibts da sonst noch zu zu sagen?!

horn 12
2013-11-02, 11:10:20
@BoxleitnerBox

Weisst was zum Neuen Treiber der R9 290
Wurde wohl zur Besseren Performance fix der Ueber Modus eingestampft und somit wird die Karte wohl um Einiges lauter und vor Allem Heißer werden :-(

Mit dem Standard bis zur Verschiebung Mittwoch abends waren es im Leise Modus gerade mal 38% Lüfter und etwa 65 bis 70 Grad beim Zocken.
Karte taktete aber teilweise bis gar ca. 720 Mhz runter :-(
Nun wird es wohl wieder wie bei der R9 290X werden, 40% Lüfter und knappe 95 Grad Celsius.

Ob sich AMD dabei wohl einen Gefallen gemacht hat, denke Schuss geht nach Hinten Los.
R9 290X wird somit nicht mehr als 450 Euro wert sein, oder gar darunter.
Custom Modelle werden etwas rausreißen können, aber auch da steckt die R9 290 im Nacken.

Raff
2013-11-02, 11:12:07
Schau mal in den Spekuthread zu Volcanic Islands. :D Die Kurzform: Keine 38 Prozent und keine 55 Prozent, diese Zahlen entbehren jeder Faktengrundlage.

MfG,
Raff

boxleitnerb
2013-11-02, 11:15:23
Zum Treiber weiß ich nix. Ich gehe aber mit Leo konform, dass das vermutlich kein Treiber, sondern ein Bios ist bzw. halt höhere Taktraten betrifft. Es macht keinen Sinn, dass der Treiber explizit nur als Verbesserung für die 290 genannt wird. Warum nicht noch mit der 290X gewartet, um auch davon zu profitieren in den Tests?

Zumal:
Wann war es das letzte Mal, dass ein Treiber in einem breiten Spieleparcours mehr wie 5% gebracht hat? Sowas gibt es ganz ganz selten.

aufkrawall
2013-11-02, 11:16:12
Sind wir hier gerad bei Esoterik oder gehts um Hardware?!

So, ich mach bei meiner Ignore-List mal ne Ausnahme.
AFR hat normalerweise immer einen höheren Input Lag. Ich habe noch nicht ein einziges Indiz gelesen, dass bei AMD mit Hawaii sich dort etwas geändert hätte oder anderweitige Features dahingehend angeboten werden.
Nix "Esoterik". Einfach mal den Sabbel halten, wenn man gar nicht weiß, worum es geht.

Raff
2013-11-02, 11:17:38
Zumal:
Wann war es das letzte Mal, dass ein Treiber in einem breiten Spieleparcours mehr wie 5% gebracht hat? Sowas gibt es ganz ganz selten.

Das passiert, wenn die treiberinhärente Lüftersteuerung neu interpretiert wird.

MfG,
Raff

boxleitnerb
2013-11-02, 11:18:43
Das passiert, wenn die treiberinhärente Lüftersteuerung neu interpretiert wird, infolgedessen stärker belüftet und damit der Takt länger aufrechterhalten wird.

MfG,
Raff

Ist das ein konkreter Hinweis? :biggrin:
Ich meinte es jetzt auf die klassischen Treiberverbesserungen bezogen, also bei gleichem Takt.

fondness
2013-11-02, 11:22:46
Zumindest wäre es nicht schlecht, wenn sich noch jemand den neuen CrossFire-Mode von Hawaii mal genauer ansieht. Die bisherigen Testberichte sind erstaunlich positiv. Soetwas schreibt man ja nicht ohne Grund:

The new CrossFire technology has improved upon the CrossFire experience in a vastly positive way. Playing games on the Radeon R9 290X CrossFire configuration was a smooth experience. In fact, it was smoother than SLI in some games. It was also smoother on the 4K display at 3840x2160 gaming, and it was noticeably smoother in Eyefinity at 5760x1200.

AMD is using its Frame Pacing technology, but that is a software technology. That, combined with the evolved CrossFire technology is providing a noticeable benefit to the gameplay experience compared to the previous generation cards. Once you've gamed at a large resolution on CrossFire with R9 290X, you likely won't go back.

It is safe to say, from a real-world gaming perspective, stuttering is no longer an issue one has to worry about. Low framerates don't feel "stuttery" anymore, you no longer have to achieve the highest framerates to get a smooth experience. We were pleasantly surprised how smooth the gameplay was on the 4K panel with CrossFire. We can only hope this technology evolves to future products, and AMD stays on its feet and never lets a bad CrossFire experience happen again.

Raff
2013-11-02, 11:26:24
Ist das ein konkreter Hinweis? :biggrin:
Ich meinte es jetzt auf die klassischen Treiberverbesserungen bezogen, also bei gleichem Takt.

Was das angeht sehe ich da wie du. Plus fünf Prozent auf alles gibt's eigentlich nur, wenn alle Treiber zuvor die Architektur nicht vernünftig ausgelastet haben oder man irgendwo Rechenzeit spart (etwa beim AF).

MfG,
Raff

horn 12
2013-11-02, 11:28:07
@Raff

Wird es mit der R9 290 somit nochmals LAUTER und HEIßER als bereits beim Großen Bruder R9 290X?
Dies wäre ein Armutszeugnis seitens AMD!
Dann lieber etwas weniger Leistung dafür schön "Kühl und Leise" und humaner Verbrauch.
Knapp hinter GTX 780, oder oftmals zumindest Gleichstand wäre auch nicht schlecht für die R9 290-er Karte gewesen.

Dies Karte wäre für AMD der Renner geworden im Referenz Design.

fondness
2013-11-02, 11:30:33
Dazu muss man auch sagen, dass bei AFR die Smoothness natürlich klar von den fps abhängt. Sprich bei unterschiedlichen fps kann man nicht generell ableiten, welche Lösung rein technisch gesehen besser mit den Mikrorucklern umgeht.

Nachdem Haropc die besten noch spielbaren Einstellungen bei annähernd gleichen fps testet sollte es da keinen großen Unterschied geben.

Duplex
2013-11-02, 11:33:25
Nachdem Nvidia die Preise der GTX780 gesenkt hat und die GTX780 Ti bald vorgestellt wird, haben nur noch wenige interesse an den 290/x Karten. Die Nvidia Karten sind leiser, verbrauchen weniger Strom und sind bzgl. Software einfach besser als die AMDs.

boxleitnerb
2013-11-02, 11:35:59
Nachdem Haropc die besten noch spielbaren Einstellungen bei annähernd gleichen fps testet sollte es da keinen großen Unterschied geben.

Das war eigentlich auf die doch deutlich divergierenden 4K-Ergebnisse bezogen. Schon THG hat vor einiger Zeit ja festgestellt, dass sich in manchen Spielen CF und SLI nichts mehr geben.
Und so annähernd gleich sind die fps nicht. In Tomb Raider sind es 20% Unterschied, in Metro LL auch etwa (die Surround Benchmarks). Es ist auch nicht ganz klar, worauf sich genau diese Aussage mit der Smoothness bezog. Welches Spiel, welches Setting, Apples to Apples oder die spielbaren Settings? Bei nur 4 Spielen ist das etwas dürftig. Früher hatte [H] direkt unter das jeweilige Ergebnis etwas zur subjektiven Spielbarkeit gesagt, das konnte man deutlich besser zuordnen.

robbitop
2013-11-02, 11:40:28
Wann gibt's eigentlich nen R290X CF Test von PCGH?

fondness
2013-11-02, 11:43:02
Nachdem Nvidia die Preise der GTX780 gesenkt hat und die GTX780 Ti bald vorgestellt wird, haben nur noch wenige interesse an den 290/x Karten. Die Nvidia Karten sind leiser, verbrauchen weniger Strom und sind bzgl. Software einfach besser als die AMDs.

Na wenn du das sagst muss es ja stimmen. Die Lautstärke wird sich mit custom-Kühlern weitgehend angleichen, und wer wirklich wegen 20-30W unter Vollast ein Faß aufmacht der ist IMO ohnehin nicht ernst zu nehmen. Viel mehr Gewicht haben da schon Dinge wie aktuell gute Verfügbarkeit, der bessere Preis und die gratis Spiele bei NV. Offenbar kann AMD aufgrund des "neu" Bonus und gutem Marketing die Karten aber aktuell auch ohne Spiele und sonstigen Zeug ausreichend absetzen.

horn 12
2013-11-02, 11:44:50
Schau mal in den Spekuthread zu Volcanic Islands. :D Die Kurzform: Keine 38 Prozent und keine 55 Prozent, diese Zahlen entbehren jeder Faktengrundlage.

MfG,
Raff


Also fixe 45 oder gar 50% um dauerhaft die 947 Mhz zu halten und wohl auf knappe GTX 780 TI Performance zu kommen...

aufkrawall
2013-11-02, 11:49:21
Ich würd gern mal nen AFR-Test (auch SLI) mit Input Lag-Messung am CRT sehen.

LSSJBroly
2013-11-02, 13:03:46
@Raff - da ihr die 290 (non) ja schon im Heft habt (Abo), darf man schon was darüber sagen?

Auf jedenfall ist jetzt klar, wieso AMD den launch ein paar tage nach hinten verschoben hat :D
Ich will nur Bernis reaktion sehen :biggrin:

fondness
2013-11-02, 13:14:48
@Raff - da ihr die 290 (non) ja schon im Heft habt (Abo), darf man schon was darüber sagen?

Auf jedenfall ist jetzt klar, wieso AMD den launch ein paar tage nach hinten verschoben hat :D
Ich will nur Bernis reaktion sehen :biggrin:

Hm, das dürften dann wohl Benchs mit den alten Treiber/Bios sein. Interessant. Immer raus damit^^

LSSJBroly
2013-11-02, 13:45:23
Naja, na gut.
Die 290 hat erstmal nur einen Modus, keinen Über-modus (also max. 40% fanspeed - genauso wie die 290X - Quiet).

Die Karte kann ihren max. Boost-Takt sogar noch schlechter als die 290X halten (der Durchschnittliche Takt liegt bei rund 810MHz (in einigen Fällen sogar bei unter 700MHz - min lag bei 666MHz). Erst mit 60% Fanspeed (also noch über dem Über-modus der 290X) kann die Karte ihren max. Takt halten - 55% reichen nicht aus.
Stock (max. 40% Fanspeed) ist die Karte, die Raff getestet hat, kaum schneller als die 7970 GE (im schnitt wohl nur rund 5%). Mit konstanten 947MHz und 11,6 Sone :freak: plaziert sich die Karte dann ziehmlich genau zwischen 780 (902MHz) und Titan (876MHz), ergo +/- so schnell wie die 290X (Quiet).

Zur Leistungsaufnahme: Die Karte verbraucht stock kaum weniger als die 290X (Quiet-modus) - und in Anno 2070 auch mal gerne 14 Watt mehr - bei selber Umgebungstemperatur (variabler Takt).

Wenn Raff es will, werde ich das sofort löschen.

V2.0
2013-11-02, 13:48:34
The Son of Thermi - T290 - wäre auch ein schöner Name gewesen.

fondness
2013-11-02, 13:55:00
Naja, na gut.
Die 290 hat erstmal nur einen Modus, keinen Über-modus (also max. 40% fanspeed - genauso wie die 290X - Quiet).

Die Karte kann ihren max. Boost-Takt sogar noch schlechter als die 290X halten (der Durchschnittliche Takt liegt bei rund 810MHz (in einigen Fällen sogar bei unter 700MHz - min lag bei 666MHz). Erst mit 60% Fanspeed (also noch über dem Über-modus der 290X) kann die Karte ihren max. Takt halten - 55% reichen nicht aus.
Stock (max. 40% Fanspeed) ist die Karte, die Raff getestet hat, kaum schneller als die 7970 GE (im schnitt wohl nur rund 5%). Mit konstanten 947MHz und 11,6 Sone :freak: plaziert sich die Karte dann ziehmlich genau zwischen 780 (902MHz) und Titan (876MHz), ergo +/- so schnell wie die 290X (Quiet).

Zur Leistungsaufnahme: Die Karte verbraucht stock kaum weniger als die 290X (Quiet-modus) - und in Anno 2070 auch mal gerne 14 Watt mehr - bei selber Umgebungstemperatur (variabler Takt).

Wenn Raff es will, werde ich das sofort löschen.

Das erklärt dann auch den verschobenen Launch. :freak:
Die Yields dürfte wohl noch ziemlich bescheiden sein bei Hawaii, schon die 1.25V default bei der 290X sind ja ziemlich hoch.

LSSJBroly
2013-11-02, 13:57:41
Jup. Gut möglich, dass AMD der 290 ebenfalls nun stock ein BIOS mit max. 55% Fanspeed verpasst. Dann steigen halt nochmal Spannungen/Takt und Verbrauch.

In Sachen Effizienz bleiben GTX 780/Titan ungeschlagen.

V2.0
2013-11-02, 13:59:23
60%

horn 12
2013-11-02, 14:04:29
Somit wäre Karte ein FAIL³

Wie kommt es aber dann dass in OC UK ein User begeistert ist von der R9 290
Macht dort mit OC gar 1110 Mhz mit, Lüfter auf 55% belassen.
Oder aber jemand will die R9 290 komplett schlechtreden, oder besser dastehen lassen als jene ist.
Nun kenne ich mich nicht mehr aus, was Sache ist ... :-(

Kosh
2013-11-02, 14:11:59
370€ dürften realistisch sein

bei sehr guter Verfügbarkeit eventuell 350€ viel fehlt da nicht und du hast mehr als doppelte Leistung, von was bist du denn das letzte mal umgestiegen?

290X wird sich wohl bei 450€ Einpendeln, ohne weitere Preissenkungen

Bin von einer 8800GTS auf die 5870 umgestiegen.

Von einer genialen Karte auf die andere gewechselt :D

PS: Da ich eine Wasserkühlung benutze,wo aktuell die 5870 gekühlt wird, ist die LAutstärke glücklicherweise für mich völlig vernachlässigbar.
Generell aber natürlich wohl der Negativpunkt für alle Leute,die keine Wakü haben.

V2.0
2013-11-02, 14:14:11
Eine Erklärung wären stark schwankende Qualitäten der Chips oder auch defekte Kühler auf einzelnen Reviewkarten. Wobei ich 1150Mhz mit Lüfterdrehzahlen unterhalb des Uber-Modes der 290X für sehr unwahrscheinlich halte. (Außer es ist schon ein Custom-Modell)

horn 12
2013-11-02, 14:15:01
HIER mal einige Benchmarks/ Lüfterkurve und Temperatur aus dem UK-Forum
außer jener hatte bereits den Neuen Treiber drauf, was aber fast nicht sein kann!
Gut, die Auslastung geht von 100 Prozent öfters auf 0, dennoch sollte die Temperatur mit 46% Lüfter nicht so schlecht sein, 53 bis 57 Grad Celisus wäre schon angemessen.

http://forums.overclockers.co.uk/showthread.php?t=18553493&page=5

Bitte kann einer die Bilder HIER reinstellen, OHNE Link.
Dank!

Blediator16
2013-11-02, 14:20:30
Wäre die Karte so wie von lss beschrieben, dann wäre da irgendwas nicht i.o. wenn AMD weiss, dass die 290 viel langsamer ist und gleichviel oder mehr verbraucht, welcher idiot würde sowas auf den Markt bringen lassen?

V2.0
2013-11-02, 14:21:13
Guck Die die GPU Auslastung an. Nur kurze Lastphasen.

Wäre die Karte so wie von lss beschrieben, dann wäre da irgendwas nicht i.o. wenn AMD weiss, dass die 290 viel langsamer ist und gleichviel oder mehr verbraucht, welcher idiot würde sowas auf den Markt bringen lassen?

Wenn sie ihren Boost ausfahren kann, dann liegt sie ~5% unter der 290X Uber - aber das wichtige Wort ist hier halt wenn.

Marty98
2013-11-02, 14:25:26
Was das angeht sehe ich da wie du. Plus fünf Prozent auf alles gibt's eigentlich nur, wenn alle Treiber zuvor die Architektur nicht vernünftig ausgelastet haben oder man irgendwo Rechenzeit spart (etwa beim AF).

MfG,
Raff

Hmm, nein. Das geht auch wenn man den Lüfter aufdreht.

LSSJBroly
2013-11-02, 14:31:16
Oder aber jemand will die R9 290 komplett schlechtreden, oder besser dastehen lassen als jene ist.


Denk doch mal wenigstens einmal nach, bevor du irgendetwas postest:facepalm:
Wer hat die Karte wohl deutlich ausführlicher getestet:rolleyes:

horn 12
2013-11-02, 14:56:03
Dies weiß ich selbst, Raff soll endlich mal dazu was sagen.
Ansonsten kauf ich mir die R9 280 von ASUS DC II oder die Sapphire Toxic!
XFX wäre auch eine Alternative bei der R9 280X

LSSJBroly
2013-11-02, 14:58:30
Dies weiß ich selbst, Raff soll endlich mal dazu was sagen.


Wie oft denn noch: Raff steht unter NDA :rolleyes: - er wird erst etwas sagen, wenn dieses fällt.

V2.0
2013-11-02, 15:11:18
Dies weiß ich selbst, Raff soll endlich mal dazu was sagen.
Ansonsten kauf ich mir die R9 280 von ASUS DC II oder die Sapphire Toxic!
XFX wäre auch eine Alternative bei der R9 280X

Dir haben gerade Leute Dinge aus der aktuellen PCGH genannt, die Abonnenten heute im Briefkasten hatten.

M4xw0lf
2013-11-02, 15:19:19
Ha, von wegen. :P
Mein Heft kommt vermutlich mal wieder frühestens zum Erscheinungstermin.

horn 12
2013-11-02, 15:34:55
@LSSJBroly

Bitte wie hoch lagen lauf PCGH Heft die Temperaturen bei der R9 290?
Ebenso wie bei der 290X bei 93 Grad Celsius, und dies bei der R9 290 identisch hoch, daher kann sie Ihren Takt nicht halten?
Dies wäre echt sehr schlimm, obwohl AMD künstlich die R9 280 etwas ausbremste um DEN Abstand halten zu können.

Da wird nun vieles schlüssiger, warum man eine R9 280 nicht höher ansetzte!

dildo4u
2013-11-02, 15:49:35
Laut Heft drosselt die 290 selbst im offenen Aufbau auf 662mhz(bei 95°) Fehlkonstruktion kein Plan ob es für alle Karten gilt.Sie hat zwar verschiedene Biose aber kein Übermodus wird also auf 40% Lüfter beschränkt.