PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon R9 290X: (P)Review-Thread


Seiten : 1 2 3 4 5 6 [7] 8 9 10 11 12 13 14 15 16 17

Cyv
2013-11-05, 00:00:33
Irgendjemand hier hat ja sicher schon ein 290X Crossfire am laufen? Kann man da schon was zu sagen?
Jap hab ein 2er cf aus 2 290xer. Spiele aber eigentlich nur bf4 und gw2... Hab zur zeit noch bissl Probleme das System stabil zu bekommen. Eventuell ist mein nt mit 850w zu schwach oder iwas wird zu warm, evtl ist es auch nur bf4. Aber hin und wieser freezed mein System und im CF-Betrieb hab ich hin und wieder mal nen Grafikfehler, der nach nem defekten VRam aussieht :freak: einzeln laufen die karten stabil... Ich werd mir wohl ne 3. besorgen, um die defekte Karte zu ermitteln...:freak:

uweskw
2013-11-05, 00:21:44
Radeon 290 für 349€, lieferbar
http://www.pccomponentes.com/sapphire_r9_290_4gb_gddr5.html
das wird ja richtig interessant

Greetz
U.S.

TheCounter
2013-11-05, 00:39:46
Zeigt nen Error an wenn man draufklickt.

uweskw
2013-11-05, 00:57:47
Bei mir funzt der link.

Schon bekannt?
Cooling System: 2 slot blower fan
Fan Speed Range: 20% to 40 %
Target Operating Temperature: 95C
Maximum Package Power: 208W

Greetz
U.S.

Knuddelbearli
2013-11-05, 01:02:06
auf die Beschreibung würde ich nicht viel geben da steht auch

Accessories

Crossfire Interconnect Cable x1

StefanV
2013-11-05, 02:42:04
Bezüglich Mantle ist die aktuelleste Info das weder die Xbox One noch die PS4 dies unterstützen bzw. eine Unterstützung geplant ist.
Es ist aber immer noch nicht klar, wie der Code für PS4 und/oder XBoner ausschaut. Wenn das weitgehend kompatibel zu Mantle ist, wird es sehr gut angenommen.

Und momentan deuten die Aussagen von dem Dice Typen bzw AMD sehr stark darauf hin, dass Mantle sehr nah an den Schnittstellen von PS4 und XBoner ist...

Aber genau werden wir es wohl nie wissen. Wird sich auch zeigen (müssen), was andere Hersteller so bringen bzw ob andere auch auf den Mantle Zug aufspringen...

StefanV
2013-11-05, 02:55:07
Die Sachen die Nvidia AMD vorbehält sind aber nicht Kriegs entscheidet.
Sie werden aber von einigen/vielen Leuten als Vorteil/Argument für nVidia angeführt. Und das ist der Punkt.


PhysX ist schrott, weil der optische Gewinn marginal ist, es aber Performance ohne Ende kostet.
Ändert nichts an dem Zustand, dass einige/viele nVidia nur kaufen, weil GPU PhysX unterstützt wird und sie darauf nicht verzichten möchten...

Ganz ab davon muss nV sich die Frage gefallen lassen, warum sie PhysX nicht auf OpenCL portieren...

TXAA ist zwar toll, muss aber extra vom Spiel unterstütz werden.
Was ex


Eine low-level API die fetten Performance Gewinn verspricht, ist eine ganz andere Liga. Es ist noch gar nicht abzusehen, was Mantle anrichten kann..
Richtig, nur hier kann man durchaus den 'What comes around goes around' Hammer rausnehmen.

Auf gut Deutsch: nVidia hätte es verdient, für die Arroganz und den ganzen Proprietären Scheiß, der ohne Grund nur auf ihrer Hardware läuft - wie PhsyX oder irgendwelche FSAA Hacks, die nicht auf 'Konkurenzprodukten' laufen...


Glide ist unteregangen, weil DX immer besser wurde.... 30 - 40 % Mehrleistung unter Mantle hat Nvidia nichts entgegenzusetzen...
Nö, da haben sie auch pech gehabt.

Wann war eigentlich die Diskussion mit PhsysX on AMD?!
Mit pech hat das ja dazu geführt, das AMD mit der Mantle Entwicklung begonnen hat, um 'den anderen' mal zeigen, wo der Hammer hängt.

Dazu kommt, dass AMD durchaus in einer Position ist, sowas durchzustzen, wenn Mantle sehr nah an den Konsolen APIs ist und kaum bis gar keine Anpassungen erfordert.

horn 12
2013-11-05, 02:57:50
Für den Preis echt heiß, in jeglicher Hinsicht :-)
da sollten gute Custom Karten wohl auf 379 bis 389 Euro, sprich knapp unter 400 Euro bleiben!

Schaun wie sich heute vormittag dann die Preise angleichen ...

PS: Die Angepriesenen Settings sind vor dem Treiber Update, nun sollte wohl 20 bis 60% stehen...
Bin gespannt auf den Test !!

horn 12
2013-11-05, 03:11:51
http://videocardz.com/47618/sapphire-radeon-r9-290-priced-e349

Knuddelbearli
2013-11-05, 03:41:46
Vermutlich wird AMD einfach Compiler bringen die möglichst Optimal Xbox und PS4 Ciode in Mantle Code umwandeln wird.
Damit dürfte dann sogut wie Jedes Konsolenspiel mit nahezu 0 Aufwand auch für Mantle bringbar sein und damit dürfte es das ein oder andere Konsolenspiel geben das nur für Mantle kommt.
Oder zumindest zuerst für Mantle um zu gucken wie groß das Interesse am Markt wirklich ist und nur wenn es erfolgreich ist dann eine richtige PC Version. So ähnlich wie es zB mit Dark Souls passiert ist das war ja ein nur ein billigst Port da sie nicht wussten ob es sich lohnt. Vorteil wäre da auch Steam Big Picture mod da müsste man nichtmal eine ordentliche M+T Steuerung integrieren
Vor allem JRPG Fans dürften sich da freuen!

Problem nur. Bisher hat sich AMD im Softwarebereich nicht unbedingt mir Ruhm bekleckert

gnahr
2013-11-05, 04:28:25
Wenn man wollte könnte man über so eine Schnittstelle jegliche x beliebige mit den entsprechenden vor und Nachteilen ebenso Ansprechen!
führt die spezifizität und vor allem design-rules ad absurdum (je breiter das spektrum wird) oder du hast infinite overhead. sonst wär man ja nicht extra von vliw weg.

man kann sich alles schönreden. dieses programm muss erst noch abliefern und mal die hosen runter lassen. find ich komisch, mich sprechen wenig andere produkte an mit dem wahlspruch "kauf mich in nem halben jahr."

Ubermode
2013-11-05, 04:37:38
Wenn ich mehr anschaue, was gerade für ein Riesentanz veranstaltet wird wegen der GTX 780 Ti mit vielleicht 5% hardwareseitig erzielter Mehrleistung zur Titan bei entsprechend höherer Leistungsaufnahme, lob ich mir doch die Softwarelösung.

Hm, direkt so wird das aber nicht ausfallen ;) Und der Preis ist auch noch zu beachten.

USS-VOYAGER
2013-11-05, 06:00:56
Es geht los

http://www.computerbase.de/artikel/grafikkarten/2013/amd-radeon-r9-290-im-test/

http://www.pcgameshardware.de/Geforce-GTX-780-Grafikkarte-257241/Tests/Radeon-R9-290-im-Test-1095627/

L.ED
2013-11-05, 06:10:00
So etwas wie Mantle auf einer offenen Plattform wie dem PC umzusetzen ist in der tat nicht Trivial aber die Möglichkeiten sind verlockend, erst recht in einer Zeit wo man an technische Mauern stößt und entwicklungs- Zyklen immer länger werden.

Davon abgesehen nur dargelegt wurde was Mantle sein soll, ob das in Praxis wirklich aufgehen kann wird sich in der Tat erst noch zeigen müssen. Das dort vorsätzlich und absichtlich gleichsam noch Behinderungen gegenüber anderen Herstellern bereits hinein geflossen oder noch fließen werden, davon ist hier hingegen erneut nicht auszugehen! Da AMD schon seit etlichen Jahren eine grundsätzlich andere Strategie verfolgt und diese vereinbart sich nicht mit mit solch Illusionen wie etwa das sie überhaupt in der Position wären irgendwas unter Ausschluss oder Behinderung aller anderen auf dem Desktop zu etablieren.

Ich denke der eigentliche Grund warum sich AMD betreffs anderer Hersteller bisher noch so seicht verklausuliert ausdrückt ist, weil es zum einen ohnehin noch nicht ganz fertiggestellt. Und zum anderem gewisse andere bereits dazu Animieren soll hier auch mal zugänglicher zu werden und von diesem arroganten Getue abzukommen (gemeinsam statt gegeneinander)! :smile:

Knuddelbearli
2013-11-05, 06:32:35
http://www.computerbase.de/forum/attachment.php?attachmentid=375832&d=1383628791

Endlich sieht man wo wie der Verbrauch wäre beis elber Temperatur wie die NV

10C° sind ca 15W
94 vs 79 also 23W

nicht schlecht her Specht. wenn man jetzt nur den Kühler der GTX auf die Radeon verbaut hätte ^^
Dann wäre die 290X sparsamer als Titan XD

aber das erübrigt sich dann ja mit den Referenz Karten.
da ist ja jeweils das selbe verbaut.

horn 12
2013-11-05, 06:36:42
Im 40% Modus wie Ursprünglich geplant, (BasisTakt um die 660 Mhz !!!!)
wohl zwecks Lautstärke und Verbrauch
liegt diese R9 290 Karte auf dem Niveau der HD7970 und R9 280X

AMD geht´s noch, wollte zwecks Trueaudio und 4GB Ram knapp 200 Euro mehr abkassieren bei selber Leistung als die HD7950 welche die Vorgängerkarte war.

Knuddelbearli
2013-11-05, 06:39:51
1.) bist im falschen Thread
2.) 200€? Das sind knapp 100€

horn 12
2013-11-05, 19:19:16
Ne, sind knappe 200 Euro, wenn alles so wäre wie damals von AMD geplant.
GTX 770 bis vor knapp einer Woche noch bei etwa 370 und AMD hätte die R9 290 wohl für 400+ angeboten
Somit knapp 200 Euro teurer als die R9 280 Referenz / Custom Varianten...

Eggcake
2013-11-05, 19:36:46
Hä? Die 770/780 wurden ja eben im Preis gesenkt, weil die 290X mit 450€ UVP herauskam. Die wäre garantiert nicht nur 50€ teurer als die 290 gewesen. Das ging nicht anders rum.

Iruwen
2013-11-06, 12:38:34
Ne, sind knappe 200 Euro, wenn alles so wäre wie damals von AMD geplant.

Sind ... wenn wäre, interessante Kombination der Modi :D

Schnitzl
2013-11-06, 18:01:43
Hat schon jemand mal getestet was passiert wenn man die 290X "runtertaktet" auf 900 oder 850Mhz?
Laut Berichten wird dabei auch die Spannung abgesenkt.
Damit könnte doch folgendes passieren: (?)
bei 1000Mhz taktet die Karte bei Belastung auf 780Mhz runter um unter 95° zu bleiben
bei 850Mhz bleibt die Karte bei 850Mhz da sie aufgrund weniger Takt+Spannung unter 95° bleibt

P.S.: Zahlen fiktiv und übertrieben

Blediator16
2013-11-06, 18:19:11
overclocked_enthusiasm said:
äLet me rephrase my stock cooler question. Why not use a more robust "reference design" incorporating some of the brilliant solutions proven out by
your card partners and other 3rd parties in regards to noise and greater heat dissipation...especially at the high end?


Our reference solutions are designed to accommodate every system that fully complies with the ATX and PCIe mechanical and electrical specifications. Further, we have OEM and system integrator customers that prefer a blower-style assembly. In order to accommodate all parties interested in purchasing a reference GPU, our hand is guided in the direction of the designs you see.

:facepalm::facepalm::facepalm:

Wie blöd sind die bei AMD eigentlich?

StefanV
2013-11-06, 18:57:12
:facepalm::facepalm::facepalm:
Wie blöd sind die bei AMD eigentlich?
Hast 'nen Link?!

Wobei er doch sehr deutlich zugibt, dass sie einen DHE Kühler anbieten M Ü S S E N, weil das eben von den OEMs/Systemintegratoren so gefordert ist.

Further, we have OEM and system integrator customers that prefer a blower-style assembly.
Das ist recht eindeutig.

Aber was zur Hölle meint er mit dem Satz:
our hand is guided in the direction of the designs you see.
Also irgendwie macht das nicht so wirklich Sinn, find ich.

Wenn man das jetzt als 'uns sind die Hände gebunden' bzw 'wir müssen das so machen' übersetzt, würde das sogar Sinn machen...

Blediator16
2013-11-06, 19:04:37
Sie können eine supergeile GPU auf 435mm² quetschen für Millionen von $ entwickelt und können dann nicht einige Hunderttausend für einen anständigen Ref. Kühler sorgen? Das ist so dumm. Man sieht doch an den Reaktionen was für einen Fehler mal wieder gemacht hat es hätte ein unglaublich gutes Release werden können, wenn sie einfach den Kühler nicht so verschissen hätten. An AMDs Image wird sich so nie was ändern und je länger es dauert umso schlimmer wird es. Wir sprechen hier von einem verschissenen Kühler und keinm Neudesign eines Chips

Pirx
2013-11-06, 19:18:35
Na dann konstruiere doch mal einen DHE-Kühler, der >200 W aus 435 mm² leise kühlt;)
Ist ja nur ein verschissener Kühler.:rolleyes:

V2.0
2013-11-06, 19:19:57
Der Kühler ist völlig ok. Wenn NV die gleiche Leistung erreichen will und man das Powertarget ändert sind sie min. genauso laut.

Loeschzwerg
2013-11-06, 19:24:04
Und immer noch 10°C Kühler :biggrin:

Viel geht mit DHE definitiv nicht mehr, aber das Quäntchen von "total beschissen" zu "gerade so erträglich" ist zu 100% noch drin.

StefanV
2013-11-06, 20:00:03
Und immer noch 10°C Kühler :biggrin:
RLY?!

Wer sagt denn, dass der Chip wirklich 10°C kühler ist und nicht nur anders gemessen sind, so dass es irgendwie doch aufs gleiche raus kommt. Ist ja nicht so, dass es verschiedene Punkte zum Messen geben würde.
Schau mal hier:
47111 47112 47113

Also ich seh da ungefähr 8-12°C Differenz zwischen kältestem und heißesten Punkt der GPU...

Viel geht mit DHE definitiv nicht mehr, aber das Quäntchen von "total beschissen" zu "gerade so erträglich" ist zu 100% noch drin.
Dann bau doch mal den Titan Kühler auf 'ne 290(X) bzw umgekehrt...

Loeschzwerg
2013-11-06, 20:22:27
Wer sagt denn, dass der Chip wirklich 10°C kühler ist und nicht nur anders gemessen sind, so dass es irgendwie doch aufs gleiche raus kommt. Ist ja nicht so, dass es verschiedene Punkte zum Messen geben würde.

Ist mir bekannt... aber worauf willst du hinaus? Das NV bei den ausgegebenen Werten schummelt und nur den kältesten Messwert zeigt? Die Korrektheit können wir bei AMD genausowenig beweisen.

Betrachten wir allerdings Messungen von der Rückseite bleibt es bei den ~9% Differenz.


Dann bau doch mal den Titan Kühler auf 'ne 290(X) bzw umgekehrt...

Guck dir einfach beide Kühllösungen an und du wirst genügend Unterschiede sehen ;)

StefanV
2013-11-06, 20:27:09
Ist mir bekannt... aber worauf willst du hinaus? Das NV bei den ausgegebenen Werten schummelt und nur den kältesten Messwert zeigt? Die Korrektheit können wir bei AMD genausowenig beweisen.
Richtig, also ist es müßig hier zu behaupten, dass einer sonst wie toller wäre...

Guck dir einfach beide Kühllösungen an und du wirst genügend Unterschiede sehen ;)
Ohne den gleichen Kühler auf der gleichen 'Wärmeplatte' genutzt und bewertet zu haben, lässt sich keine Aussage zu dessen Qualität machen...

Laut Robbitop ist zum Beispiel der Föhn-FX Kühler um WELTEN schlechter als ein winziger Kupferkühler mit 40mm Quirl.


Dennoch: Ohne einen 290x Kühler auf einer GK110 Karte gehabt zu haben bzw einen GK110 Kühler auf einer Tahiti, lässt sich mal rein gar nichts sagen.

LSSJBroly
2013-11-06, 20:30:10
Es wird wohl zeit für ein paar experimente :freak:

gnahr
2013-11-06, 20:47:10
Es wird wohl zeit für ein paar experimente :freak:
vollkommen für den arsch.
hier gehts nur um die ehrenrettung durch steff, ne sinnvolle information kommt nicht mehr rum.
selbst wenn (rein hypothetisch) beide irgendwann abkacken, das rechtfertigt immer noch nicht in zukunft mehr turbinen auf den markt zu bringen.

er legt es (wie gesagt zur ehrenrettung der hausmarke) auf ein lose-lose an, dass die ganze industrie verkacken wird und es nicht nur der besagte hersteller gerade hat. bewundernswert die konsequenz mit der da lanzen gebrochen werden. :rolleyes:

decimad
2013-11-06, 20:58:17
Die Temperatur kann hier kein Gegenstand für Argumente sein. R290X muss mindestens! dieselbe Wärmeleistung durch eine wesentlich kleinere Fläche befördern. Dafür braucht man nunmal eine größere Temperaturdifferenz. Die kann man dadurch erreichen, indem man den Kühlkörper besser kühlt (Lautstärke), oder indem man die GPU heißer werden lässt.

Loeschzwerg
2013-11-06, 21:13:05
Richtig, also ist es müßig hier zu behaupten, dass einer sonst wie toller wäre...

Wie gesagt, an irgendwelchen Werten muss man sich orientieren und die PCB Messung ergibt eine ähnliche Differenz.


Ohne den gleichen Kühler auf der gleichen 'Wärmeplatte' genutzt und bewertet zu haben, lässt sich keine Aussage zu dessen Qualität machen...

Du hast den Titan Kühler ins Spiel gebracht, ich habe nur behauptet das DHE Design gibt noch mehr her ;)

@decimad: Hohe Wärmeabgabe geschuldet durch hohen Takt und Spannung. Den kleineren DIE sehe ich nicht unbedingt als Problem, die Strukturgröße bleibt immerhin gleich. Aber falls ich da was nicht überrissen habe lasse ich mich gerne belehren :)

decimad
2013-11-06, 21:34:22
@Löschzwerg: Natürlich hängt die Wärmeleistung davon ab, was man der GPU abverlangt. Aber man möchte doch der GPU mindestens das abverlangen, was man auch der Titan abverlangt, oder? Wenn man die Titan 20% kleiner machen würde, müsste man auch deren Lüfter aufdrehen oder eine höhere Zieltemperatur festlegen.

LSSJBroly
2013-11-06, 21:39:01
vollkommen für den arsch.

Ich weiß, dass der Kühler der 780 es bei einem Temp-Target von 95°C es auch schafft, 1.306MHz @1,3V bei satten 370 Watt akzeptabel abzuführen (was ja knapp 100 Watt mehr Leistungsaufnahme im vergleich zur 290X im Übermodus sind) - um die 55 bis 60% (kaum lauter als ne referenz-GTX 780; stock sind 52%):wink:

decimad
2013-11-06, 21:46:52
Die 780 hat eben auch viel mehr Fläche, um die Wärme an den Spreader abgzugeben, deshalb kann man diese Beobachtung nicht so richtig auf die Qualität der Kühler ummünzen.

Loeschzwerg
2013-11-06, 21:51:20
Genau da bin ich mir nicht so sicher, wir haben hier kein Sandy Bridge vs Ivy Bridge wo sich die Struckturgröße verändert hat.

decimad
2013-11-06, 22:11:54
http://de.wikipedia.org/wiki/W%C3%A4rmeleitung // Fouriersches Gesetz

Wir haben folgende Situation:
Q-Punkt entspricht der Leistungsaufnahme der GPU
TW2 entspricht der Kühlkörpertemperatur
TW1 der Die-Temperatur
A der Die-Größe

Sagen wir, TW1 ist 95°C und fix. Q-Punkt ist auch fix.
Wenn wir A verkleinern, dann müssen wir also auch TW2 also die Kühlkörpertemperatur verkleinern, damit Q-Punkt fix bleibt. Wenn Q-Punkt nicht fix bleibt, würde sich das Die erhitzen und TW1 wäre nicht mehr konstant.

Edit: Das ist natürlich eine vereinfachte Rechnung, das 100% richtig durchzurechnen ist eine harte Nuss (für mich)!

Schaffe89
2013-11-06, 22:35:26
vollkommen für den arsch.
hier gehts nur um die ehrenrettung durch steff, ne sinnvolle information kommt nicht mehr rum.

Wenn man den Kühler bewerten will, ist das mehr oder weniger die einzige Möglichkeit. Außer Getrolle gibst du wiedermal nichts gescheites von dir.

er legt es (wie gesagt zur ehrenrettung der hausmarke) auf ein lose-lose an, dass die ganze industrie verkacken wird und es nicht nur der besagte hersteller gerade hat. bewundernswert die konsequenz mit der da lanzen gebrochen werden

Und du argumentierst gegen seine "Hausmarke" dass sich die Balken biegen.
Ich denke auch nicht, dass der Kühler schlechter ist, als der von Titan, schau dir doch mal die Verarbeitung und die Größe an.

Titan zieht 30 Watt weniger als die 290x 3,3 vs 4,4 Sone und AMD muss die höhere Leistungsaufnahme bei einem kleineren Chip wegkühlen.

Alleine die 30 bis 40 Watt fressen machen schon die 93 vs 80 Grad aus und dazu kommt noch die kleinere Fläche.

Es ist einfach nicht mehr mit einem DHE Kühler herauszuholen, auch nicht bei Nvidia. Betreibe die Karte mit max PT ist der Nvidiakühler auch überfordert und dreht auf.

boxleitnerb
2013-11-06, 22:40:13
Die 780 hat eben auch viel mehr Fläche, um die Wärme an den Spreader abgzugeben, deshalb kann man diese Beobachtung nicht so richtig auf die Qualität der Kühler ummünzen.

Die Fläche der GPU ist größer, aber es ist nicht alles aktiv. Produzieren die abgeschalteten SMX-Cluster Wärme? Oder die DP-Einheiten? So einfach ist es nicht...man könnte höchstens annehmen, dass die Wärme von den aktiven Bereichen der GPU über die gute Wärmeleitfähigkeit von Silizium in die inaktiven Bereiche geleitet wird und von dort auf den Heatspreader. Aber ich bezweifle, dass das dasselbe ist wie wenn alle Bereiche der GPU ihre eigene Wärme produzieren würden.

Btw wie kommt es, dass plötzlich alle Redaktionen 3rd-Party-Kühler auf die Radeons schnallen? Auf die Idee ist bei den früheren Hitzköpfen niemand gekommen, obwohl es da durchaus genauso nötig/sinnvoll gewesen wäre.

decimad
2013-11-06, 22:46:33
Aber am Ende muss die ganze Hitze durch einen kleinen Film von Hitzeleitpaste mit gegebener Querschnittsfläche. Natürlich spielen da auch kleine Inhomogenitäten rein, ich versuche ja hier kein absolutes Gesetz hinzustellen, ich versuche nur die Richtung vorzugeben. Da macht man es sich einfacher, wenn man auch mal vereinfachende Annahmen trifft, die nicht grundlegend verfälschen. Du sagst ja auch selber, dass sich die Hitze auch im Die schon homogenisiert, bis sie zur Übergangsfläche kommt. Man kann zwei Kühllösungen nicht vergleichen, wenn man zwar die selben Die-Temperaturen anlegt, aber unterschiedliche Übergangsflächen hat, das ist alles was ich sagen möchte. Und darauf hinweisen dass die Die-Größe bei allen Betrachtungen hier extrem wichtig ist.

Schaffe89
2013-11-07, 00:59:25
Btw wie kommt es, dass plötzlich alle Redaktionen 3rd-Party-Kühler auf die Radeons schnallen? Auf die Idee ist bei den früheren Hitzköpfen niemand gekommen, obwohl es da durchaus genauso nötig/sinnvoll gewesen wäre.

Weil es Sinn macht bei dem Kühler?

Auf die Idee ist bei den früheren Hitzköpfen niemand gekommen, obwohl es da durchaus genauso nötig/sinnvoll gewesen wäre.

Genau eben deswegen weil es früher nicht so sinnvoll war. Stichwort Turbo, den Nvidia uns eingebrockt hat und AMD den Kack nachgemacht hat.

Loeschzwerg
2013-11-07, 08:26:11
Aber am Ende muss die ganze Hitze durch einen kleinen Film von Hitzeleitpaste mit gegebener Querschnittsfläche. Natürlich spielen da auch kleine Inhomogenitäten rein, ich versuche ja hier kein absolutes Gesetz hinzustellen, ich versuche nur die Richtung vorzugeben. Da macht man es sich einfacher, wenn man auch mal vereinfachende Annahmen trifft, die nicht grundlegend verfälschen. Du sagst ja auch selber, dass sich die Hitze auch im Die schon homogenisiert, bis sie zur Übergangsfläche kommt. Man kann zwei Kühllösungen nicht vergleichen, wenn man zwar die selben Die-Temperaturen anlegt, aber unterschiedliche Übergangsflächen hat, das ist alles was ich sagen möchte. Und darauf hinweisen dass die Die-Größe bei allen Betrachtungen hier extrem wichtig ist.

Einen Effekt hat die Hitzeverteilung durch den größeren DIE bei GTX780/Titan sicher haben, aber ob dieser so groß ist? Punktuell gesehen bleibt es bei 28nm Strukturen, der Wärmeübergang zum Kühler bleibt, WLP mal ausgeklammert, doch gleich.

Und falls es doch so einen großen Einfluss hat, warum den Chip dann nicht breiter machen wie GK110? Klar kommen dann weniger Chips pro Wafer raus, aber man hätte doch dann eine effizientere GPU hinsichtlich Temp und dann Leistungsaufnahme. (Zumindest nach deiner Theorie)

Danke für den Link btw. :)

Studiert hier keiner dieses Thema? Würde mich schon interessieren wie es nun wirklich ist.

StefanV
2013-11-07, 08:26:31
Es wird wohl zeit für ein paar experimente :freak:
Genau, denn nur so kann man einwandfrei belegen, dass ein Kühler besser ist als ein anderer.

Momentan sprechen hier alle von völlig verschiedenen Gegebenheiten und meinen dann behaupten zu können, dass einer davon besser wäre - was aber nicht geht.

Man muss also entweder die Kühler von Titan und 290X gegeneinander austauschen (was nicht so einfach möglich ist), oder sie auf eine entsprechende Teststation schnallen und dort die Wärmeleitfähigkeit des Designs überprüfen.

Nur so kann man wirklich verlässliche Aussagen treffen. Alles andere ist Kaffeesatzleserei.

Loeschzwerg
2013-11-07, 08:33:08
Es kann mir trotzdem keiner erzählen man hätte den Airflow nicht in irgendeiner Art und Weise noch optimieren können. Es gibt immer Luft nach oben, ist nur eine Frage wie viele Mittel man hier in die Entwicklung stecken will.

Aber belassen wir es dabei.

Iruwen
2013-11-07, 12:14:46
Stichwort Turbo, den Nvidia uns eingebrockt hat und AMD den Kack nachgemacht hat.

Hätte AMD den Kack nur nachgemacht hätten wir nicht solche Probleme. AMD hat die Kacklatte nochmal ein ganzes Stück höher gelegt.

xL|Sonic
2013-11-07, 12:20:26
Gibt es eigentlich schon Berichte zu einer 290X wie die sich mit einem Wasserkühler verhält in Sachen Taktstabilität und Temperaturentwicklung?

M4xw0lf
2013-11-07, 12:35:09
Btw wie kommt es, dass plötzlich alle Redaktionen 3rd-Party-Kühler auf die Radeons schnallen? Auf die Idee ist bei den früheren Hitzköpfen niemand gekommen, obwohl es da durchaus genauso nötig/sinnvoll gewesen wäre.
Fermi wurde auch zb bei PCGH mit dicken Nachrüstkühler getestet (Prolimatech MK-13 oder sowas).
Hätte AMD den Kack nur nachgemacht hätten wir nicht solche Probleme. AMD hat die Kacklatte nochmal ein ganzes Stück höher gelegt.
Btw: Neuer Catalyst-Treiber soll Variabilität zwischen unterschiedlichen Hawaii-Grafikkarten verringern (http://www.planet3dnow.de/cms/5280-neuer-treiber-soll-variabilitaet-zwischen-unterschielichen-hawaii-grafikkarten-verringern/)
Das kann ja fast nur auf NOCH höhere Drehzahlen rauslaufen...?

Iruwen
2013-11-07, 12:43:02
Das entsprechende Statement von Dave Baumann ist ja verlinkt:
http://forum.beyond3d.com/showthread.php?p=1802697#post1802697

Ich muss da grad an
It's so bloody smart and it kills me that more people don't fully understand it.
denken - obviously, smarter than AMD engineers :D

foenfrisur
2013-11-07, 12:57:49
wie interessant^^

http://www.tomshardware.de/radeon-r9-290-golden-sample,testberichte-241424-2.html

aber andererseits normale praxis ;)

mfg

StefanV
2013-11-07, 13:16:00
wie interessant^^
http://www.tomshardware.de/radeon-r9-290-golden-sample,testberichte-241424-2.html
aber andererseits normale praxis ;)
fg
Eben, das macht JEDER Hersteller, in jedem Bereich!

Da werden einfach die hundert/tausend besten Samples während der Produktion aussortiert und zu den Reviewern geschickt...
Ist, wie gesagt, bei jeder Komponente so.

HarryHirsch
2013-11-07, 13:22:52
Meine gönnen sich @default max 1.18V, sind die auch selektiert?
Das ist MMn ne ganz normale Streuung.

N0Thing
2013-11-07, 13:30:37
Eben, das macht JEDER Hersteller, in jedem Bereich!

Da werden einfach die hundert/tausend besten Samples während der Produktion aussortiert und zu den Reviewern geschickt...
Ist, wie gesagt, bei jeder Komponente so.


Nur hat das früher nur Einfluß auf das Übertaktungs-Potential gehabt und evtl. war der Verbrauch unter Last 10% höher/niedriger.
Mit dem Boost und gerade in Kombination mit dem Kühler kann da bei Endkunden nun wirklich weniger Leistung ankommen als Benchmarks suggerieren.

Vielleicht ist diese Entwicklung ein Anreiz für die Redaktionen, in Zukunft prinzipiell auch Retailkarten zu testen.

V2.0
2013-11-07, 13:40:32
Da steht bis zu XXXXmhz. Wer nicht lesen kann ist halt klar im Nachteil. Ne titan bringt ihre Leistung auch nicht in normalen Gehäusen.

HTB|Bladerunner
2013-11-07, 13:42:52
Gibt es im Netz schon Infos bzgl. der ASIC-Werte der Hawai-Chips, die sich so im Umlauf befinden? Meine XFX 290x hat eine ASIC-Qualität von 71,2%. Die gleiche Karte von einem Freund hat ~72%.

Loeschzwerg
2013-11-07, 13:44:05
Die Titan bringt unter normalen Bedingungen mindestens ihren Basetakt, damit kann man als Kunde fest rechnen ;)

N0Thing
2013-11-07, 13:46:13
Da steht bis zu XXXXmhz. Wer nicht lesen kann ist halt klar im Nachteil. Ne titan bringt ihre Leistung auch nicht in normalen Gehäusen.

Eben, lies doch mal was ich geschrieben habe. Nämlich von Leistung die beim Kunden ankommt im Vergleich zum Golden Sample Benchmark zum Release.
Zu den Herstellerangaben habe ich nichts geschrieben.

Da du das so gebetsmühlenartig wiederholst, kannst du auch einen Link oder sonstigen Beleg bringen, der deine Behauptung über Titan untermauert?

Ph0b0ss
2013-11-07, 14:00:26
Es wäre auf jeden Fall noch ein besserer DHE-Kühler möglich gewesen! Die HD 7990 ist ja z.B. noch 3cm länger. Also wäre ein mindestens 3cm längerer Kühlkörper problemlos machbar. Dazu noch etwas Luftstromoptimierung und endlich mal eine richtig gute Wärmeleitpaste und das Teil wäre deutlich leiser!

StefanV
2013-11-07, 14:09:24
Es wäre auf jeden Fall noch ein besserer DHE-Kühler möglich gewesen!
Wie?!


Die HD 7990 ist ja z.B. noch 3cm länger. Also wäre ein mindestens 3cm längerer Kühlkörper problemlos machbar.
Länger = höherer Luftwiderstand = braucht mehr Drehzahl, um brauchbar zu kühlen.


Dazu noch etwas Luftstromoptimierung und endlich mal eine richtig gute Wärmeleitpaste und das Teil wäre deutlich leiser!
Wie würdest du den Luftstrom optimieren? Und warum glaubst du, dass die verwendete WLP schlecht wäre??

V2.0
2013-11-07, 14:10:45
In einer Stunde wird sich die Sichtweise sowieso ändern. DHE und hohe TDP geht nun einmal nicht leise oder man drosselt.

dildo4u
2013-11-07, 14:10:53
Natürlich geht es deutlich besser warte noch paar Minuten auf die 780TI Reviews.Raff hat schon angedeutet das die Karte nich lauter als Titan/780 ist.

Ph0b0ss
2013-11-07, 14:35:24
Wie?!
Durch die 3cm mehr länge könnte der 15cm lange Kühlkörper auf 18cm verlängert werden -> 20% mehr Fläche zum Kühlen.

Länger = höherer Luftwiderstand = braucht mehr Drehzahl, um brauchbar zu kühlen.

Dafür mehr Kühlfläche -> weniger Drehzahl nötig. Müsste man ausrechnen, wo genau das Optimum von Finnenanzahl und Länge ist, bei der begrenzten Breite und Höhe des Kühlkörpers.


Wie würdest du den Luftstrom optimieren? Und warum glaubst du, dass die verwendete WLP schlecht wäre??

Die Finnen des Kühlkörpers sind am Einlass gerade. Die Luft prallt aber schräg darauf. Mit gebogenen Finnen kann man da sicher noch den Luftwiderstand verringern. Wärmeleitpaste wurde bisher immer eine höchstens mittelmäßige verwendet. Gut kann sein das es jetzt bei der 290x anders ist, würde mich aber wundern.

Schnitzl
2013-11-07, 15:02:56
Ph0b0ss, schau mal hier:
http://www.computerbase.de/artikel/grafikkarten/2013/amd-radeon-r9-290-im-test/2/
etwas runterscrollen zu "Kühlsysteme im Vergleich"

wo der NV-Kühler noch nur Alu hat, wird bei AMD bereits zusätzlich Kupfer verwendet
Ich bezweifle dass da noch so viel Optimierungspotential besteht.
Mit 3 Slots eventuell, aber bei 2 Slots und DHE ist eben irgendwann Schluss.

MfG

V2.0
2013-11-07, 15:06:32
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/28513-nvidia-geforce-gtx-780-ti-im-test.html?start=7 Leise???

Schnitzl
2013-11-07, 15:06:37
Natürlich geht es deutlich besser warte noch paar Minuten auf die 780TI Reviews.Raff hat schon angedeutet das die Karte nich lauter als Titan/780 ist.
ist lauter... :(
http://www.pcgameshardware.de/Geforce-GTX-780-Grafikkarte-257241/Tests/Geforce-GTX-780-Ti-Test-1096105/2/

StefanV
2013-11-07, 16:27:01
Natürlich geht es deutlich besser warte noch paar Minuten auf die 780TI Reviews.Raff hat schon angedeutet das die Karte nich lauter als Titan/780 ist.
Tjo, anscheinend nicht.

Damit dürften wohl alle Meinungen zu dem 'miesen' 290er Kühler und dem 'tollen' Titan Kühler ausgemerzt sein. Und, wie vermutet, sind beide Kühler auch in etwa vergleichbar, auch wenn ihr das nicht wirklich sehen wolltet....

captain_drink
2013-11-07, 16:32:40
Tjo, anscheinend nicht.

Damit dürften wohl alle Meinungen zu dem 'miesen' 290er Kühler und dem 'tollen' Titan Kühler ausgemerzt sein. Und, wie vermutet, sind beide Kühler auch in etwa vergleichbar, auch wenn ihr das nicht wirklich sehen wolltet....

Meinungen werden "ausgemerzt"? Und inwiefern sind 5 und 10 Sone miteinander vergleichbar? Fragen über Fragen...

StefanV
2013-11-07, 16:34:36
Meinungen werden "ausgemerzt"? Und inwiefern sind 5 und 10 Sone miteinander vergleichbar? Fragen über Fragen...
Vergleich mal Standardmode mit Standardmode.
Vergleichbare Verlustleistung und ebenso vergleichbare Lautstärke. Entsprechend kann man hier durchaus sagen, dass beide Kühler nicht so viel von einander trennen, wie hier behauptet wird.

Der 290er Kühler hat nur einen deutlich stärkeren Lüfter, so dass die Karte mehr Reserven hat. Natürlich zu Lasten der Lautheit...

Blediator16
2013-11-07, 16:38:14
Krass wie sich die Tests unterscheiden. Reviews kann man schon komplett in die Tonne hauen.

captain_drink
2013-11-07, 16:40:51
Vergleich mal Standardmode mit Standardmode.
Vergleichbare Verlustleistung und ebenso vergleichbare Lautstärke. Entsprechend kann man hier durchaus sagen, dass beide Kühler nicht so viel von einander trennen, wie hier behauptet wird.

Der 290er Kühler hat nur einen deutlich stärkeren Lüfter, so dass die Karte mehr Reserven hat. Natürlich zu Lasten der Lautheit...

Und die 12 °C Temperaturunterschied bei identischer TDP sind egal?

Palpatin
2013-11-07, 16:41:19
Meinungen werden "ausgemerzt"? Und inwiefern sind 5 und 10 Sone miteinander vergleichbar? Fragen über Fragen...
Imo warte ich noch auf hardtecs4u aber bei cb ist die Sache recht klar,
Im max uber mode ist die Ti 1db leiser als die 290x und im Normal/Quite Mode ist die 290x 1db leiser als die Ti, für mich ist das Gleichstand.
Die NV läuft etwas kühler braucht aber auch etwas weniger Saft. Die Kühler sind etwa gleich gut / schlecht.
http://www.computerbase.de/artikel/grafikkarten/2013/nvidia-geforce-gtx-780-ti-gegen-gtx-titan-im-test/9/

decimad
2013-11-07, 16:46:48
Junge junge, wie oft muss man noch erklären, dass das Radeon-Die heißer wird (werden muss), weil es kleiner ist... Was zählt ist die Leistung, nicht die Die-Temperatur

captain_drink
2013-11-07, 16:53:31
Junge junge, wie oft muss man noch erklären, dass das Radeon-Die heißer wird (werden muss), weil es kleiner ist... Was zählt ist die Leistung, nicht die Die-Temperatur

Das wäre richtig, wenn man wüsste, dass die höhere Temperatur allein auf die geringere Größe zurückzuführen ist. Sofern das nicht eindeutig bewiesen ist (was m.W auch unmöglich ist), ist der Lüfter A leistungsfähiger als Lüfter B, wenn er eine Karte a bei identischer TDP auf niedrigere Temperaturen als Karte b bringt.

uweskw
2013-11-07, 16:56:11
Ob die 290X mit einem Accelero schneller ist als die 780Ti? Leiser in jedem fall.

Greetz
U.S.

decimad
2013-11-07, 16:58:50
Hast Du die letzten Seiten mitgelesen? Als ich das Wärmeleitungsgesetz gelinkt hab usw.?
Und überhaupt, kannst Du denn beweisen, dass Lüfter A besser ist als Lüfter B? Auf welcher Grundlage? Warum gilt also Deine Annahme, obwohl meine mit Argumenten hinterlegt ist?

dildo4u
2013-11-07, 16:59:28
Ob die 290X mit einem Accelero schneller ist als die 780Ti? Leiser in jedem fall.

Greetz
U.S.
Warum sollte sie laut anandtech drosselt die 290X im Übermodus nich wirklich oft.

http://anandtech.com/show/7457/the-radeon-r9-290x-review/19

Gipsel
2013-11-07, 17:00:08
Das wäre richtig, wenn man wüsste, dass die höhere Temperatur allein auf die geringere Größe zurückzuführen ist. Sofern das nicht eindeutig bewiesen ist (was m.W auch unmöglich ist), ist der Lüfter A leistungsfähiger als Lüfter B, wenn er eine Karte a bei identischer TDP auf niedrigere Temperaturen als Karte b bringt.
Ich werfe dann mal eventuell unterschiedlich platzierte bzw. kalibrierte Temperaturdioden in den Raum. Damit bekommt man auch schon mal 10°C Unterschied hin, wenn die Dioden z.B. nicht an Hotspots sitzen sondern schon gewissermaßen über Bereiche des Die mitteln. :wink:
Solche Temperaturvergleiche sind ohne spezialisiertes Equipment oder interne Einblicke streng genommen nur zwischen zwei Exemplaren mit gleichem Chip gültig, aber nicht zwischen verschiedenen Chips oder gar Herstellern.

captain_drink
2013-11-07, 17:05:08
Hast Du die letzten Seiten mitgelesen? Als ich das Wärmeleitungsgesetz gelinkt hab usw.?
Und überhaupt, kannst Du denn beweisen, dass Lüfter A besser ist als Lüfter B? Auf welcher Grundlage? Warum gilt also Deine Annahme, obwohl meine mit Argumenten hinterlegt ist?

Der geschilderte Zusammenhang ist so auf alle Fälle richtig. Ob der Kühler der 780 Ti/Titan besser ist als der der 290/X, kann ich nicht sagen. Ausgehend von ähnlichen Sone-Werten und einer identischen TDP zu sagen, dass beide Kühler in etwa in der Leistung gleichwertig seien, ist aber auch zu einfach. Eine so pauschale Aussage lässt sich anhand zweier Kennzahlen nicht treffen.

decimad
2013-11-07, 17:17:18
Aber wenn man anerkennt, dass beide Kühler bei gleicher Lautstärke die gleiche Wärmemenge abführen, wo liegt die Motivation, da jetzt noch davon auszugehen oder einen Grund zu suchen, dass sie trotzdem "unterschiedlich gut" sind?
Die Diskussion flammte doch nur auf, als tausend verschiedene (und viele total sinnbefreite) Argumente in den Raum geworfen wurden um zu zeigen, dass AMDs Kühler totaler Mist ist und nVidias total toll.
Bei 500W flüsterleise haben wollen, aber sich aufregen, dass Arbeitgeber einen 20-jährigen mit 10 Jahren Berufserfahrung haben wollen, um sodann mit gestiegenen Milchpreisen zu argumentieren - so klang das teilweise für mich.
Und ich bin kein AMD-Fanboy, ich habe nur technisches Interesse und bei den Kommentaren, die hier abgegeben wurden, fühlte ich mich mal motiviert, mir darüber Gedanken zu machen. Ich hab btw. eine Gtx260 verbaut und zocke 1 Stunde in der Woche ;)

captain_drink
2013-11-07, 17:27:24
Aber wenn man anerkennt, dass beide Kühler bei gleicher Lautstärke die gleiche Wärmemenge abführen, wo liegt die Motivation, da jetzt noch davon auszugehen oder einen Grund zu suchen, dass sie trotzdem "unterschiedlich gut" sind?


Ich habe diesbezüglich gar keine Motivation. Ich hatte mich nur an der Aussage gestört, dass Meinungen, nach denen der Kühler der 780Ti/Titan besser als der der 290/X sei, nun "ausgemerzt" seien, was in dieser Schärfe nun auch nicht zutrifft. Die Leistungsfähigkeit zweier Kühler lässt sich nicht lediglich anhand der TDP und Lautstärke ablesen, weshalb sowohl die Behauptung der Gleich- als auch der Ungleichwertigkeit nicht seriös getroffen werden kann. Was man sagen kann: Bei gleicher Spieleleistung erzeugt die 780Ti 5 und die 290X 10 Sone, so dass das Kühlkonzept der Ersteren besser ist als das der Letzteren.

decimad
2013-11-07, 17:29:46
Also bringt die 780TI jetzt 100% mehr Performance/Watt an den Start? Wo finde ich was dazu?

Nazar
2013-11-07, 17:39:18
Und die 12 °C Temperaturunterschied bei identischer TDP sind egal?

Hallo?
Chip Größe... klopf klopf?

Wenn Vergleichen, dann von ganz vorne anfangen und nicht immer nur Rosinen Picken! :rolleyes:

Loeschzwerg
2013-11-07, 17:42:49
@deci: Ich habe nie behauptet der GTX/Titan Kühler wäre Meilenweilt besser, der war bei mir auch nie Grundlage einer Argumentation. Ich sage nur es ist noch ein wenig mehr möglich beim DHE Design der 290/290X. Jedes Quäntchen zählt bei so einer Gratwanderung.

Bezüglich Chipgröße: AMD hätte den DIE ja ebenfalls größer gestalten können? Ich glaube mit der Größe hat dies recht wenig zu tun, eher mit der Packdichte und damit punktuell höhere Verlustleistung ;)

StefanV
2013-11-07, 17:44:32
Und die 12 °C Temperaturunterschied bei identischer TDP sind egal?
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=47113&d=1383765638
Ist zwar nur 'ne 5870, aber da hast du deine ~12°C Temperaturunterschied.

Ist schon das dritte mal, dass ich auf dieses Bild hinweise...

Aber, wie schon erwähnt, hängt das einfach von der Position der Schätzdiode ab. Wenn die gerad an einer eher kühleren Stelle sitzt, hat man halt eine relativ niedrige Temperatur. Sitzt die an einer eher heißen Stelle, schauts halt heißer aus. So what?! Kannst DU mit Sicherheit sagen, dass die AMD Diode nicht an einem Hot Spot sitzt und die TItan aber an einem Hot Spot?!

Die Temp Targets schauen eher danach aus, dass der Sensor bei den Hawaii an einer sehr heißen Stelle sitzt, während es bei der GK110 eher nicht der Fall ist. Dazu kommt noch das größere Die -> besserer Wärmeübergang.

StefanV
2013-11-07, 17:45:47
Ich sage nur es ist noch ein wenig mehr möglich beim DHE Design der 290/290X.
Nich lang schnacken, Kopp in Nacken.
Auf gut Deutsch: Beweise bitte diese Aussage oder höre auf damit.


Bezüglich Chipgröße: AMD hätte den DIE ja ebenfalls größer gestalten können? Ich glaube mit der Größe hat dies recht wenig zu tun, eher mit der Packdichte ;)
Ja, nee, is klar. Warum sollte man das tun?!

captain_drink
2013-11-07, 17:49:43
@Nazar@StefanV: Bitte meine letzten Postings lesen. Mir ging es nicht um genaue Werte/Vergleiche, sondern nur um den Hinweis, dass in der Gleichung noch mehr Variablen enthalten sind. Die Kühlleistung kann man nicht nur anhand von TDP und Lautstärke beurteilen, deshalb sind beide Kühler auch nicht ausschließlich anhand dieser Kennzahlen vergleichbar.

StefanV
2013-11-07, 17:51:40
@Nazar@StefanV: Bitte meine letzten Postings lesen. Mir ging es nicht um genaue Werte/Vergleiche, sondern nur um den Hinweis, dass in der Gleichung noch mehr Variablen enthalten sind. Die Kühlleistung kann man nicht nur anhand von TDP und Lautstärke beurteilen, deshalb sind beide Kühler auch nicht ausschließlich anhand dieser Kennzahlen vergleichbar.
Äh, nee, is klar.

Also willst du hier mit Händen und Füßen argumentieren, dass der Titan Kühler besser wäre?!

Nee, is klar...

Loeschzwerg
2013-11-07, 17:54:59
Nich lang schnacken, Kopp in Nacken.
Auf gut Deutsch: Beweise bitte diese Aussage oder höre auf damit.

Kann ich nicht und du kannst gegenteiliges auch nicht ;) Eine leicht andere Blattstellung kann schon ausreichen um den entscheidenden kleinen Vorsprung zu erreichen.


Ja, nee, is klar. Warum sollte man das tun?!

NV kann es sich leisten einen größeren DIE zu produzieren und bekommt diese auch entsprechend teuer verkauft. Vielleicht weil man über die Presse besser dasteht?

captain_drink
2013-11-07, 17:55:06
Äh, nee, is klar.

Also willst du hier mit Händen und Füßen argumentieren, dass der Titan Kühler besser wäre?!

Nee, is klar...

Fantasierst du? Wo habe ich von Titan geschrieben? Ich habe gerade geschrieben, dass man eben nicht so einfach vergleichen kann.

Eggcake
2013-11-07, 17:59:09
Man muss doch gar nicht die Kühler vergleichen. Wer den besseren Kühler hat ist doch eigentlich egal. Fakt ist aber, dass der Kühler von NV den Karten gerecht wird, derjenige von AMD eben nicht. Mag sein dass beide "gleich gut" sind, wegen dem hätte AMD eben einen besseren liefern müssen - er passt einfach nicht auf die 290er Karten. Quiet Modus bei der 290X ist schon i.O. IMHO, solange sie sich nicht zu stark heruntertaktet, was sie aber öfters tut.

StefanV
2013-11-07, 18:02:47
Fakt ist aber, dass der Kühler von NV den Karten gerecht wird, derjenige von AMD eben nicht.
:ucrazy4::uponder::uroll::uroll::ugly2::uconf2::usleep::ueye::uwoot::uwoot: :uhammer:

Sorry, aber mehr fällt mir zu deinem Posting echt nicht ein...
Denn beide sind ja bei gleicher Abwärme ungefähr gleich laut, wie der eine dem einen Gerecht werden kann, dem anderen aber nicht, musst du mir noch mal erklären.

Loeschzwerg
2013-11-07, 18:04:48
Wenn man nur die Leistungsaufnahme betrachtet stimmt deine Denkweise sogar, aber dabei vergisst du die Performance. So hat Eggcake es vermutlich gemeint mit "Gerecht werden".

Eggcake
2013-11-07, 18:25:04
:ucrazy4::uponder::uroll::uroll::ugly2::uconf2::usleep::ueye::uwoot::uwoot: :uhammer:

Sorry, aber mehr fällt mir zu deinem Posting echt nicht ein...
Denn beide sind ja bei gleicher Abwärme ungefähr gleich laut, wie der eine dem einen Gerecht werden kann, dem anderen aber nicht, musst du mir noch mal erklären.
Das kommt immer darauf an welches Review man anschaut und ob man Quiet oder Uber mode heranzieht.
Als boxleitnerb gemotzt hat, dass PCGH den uber mode der 290X benutzt wurde das auch verteidigt, also ziehe ich jetzt auch die Lautstärke des Uber modes heran. Bei CB, wie ich das schon anderswo erwähnt hatte, ist die Ti mit max. PT gleich laut, bei PCGH halt deutlich leiser.

Iruwen
2013-11-07, 18:52:06
Es werden halt wieder munter Uber und Quiet Mode durcheinandergeworfen, je nachdem ob man gerade über Leistungsaufnahme/Lautstärke oder Performance reden möchte.

samm
2013-11-07, 20:17:52
Es werden halt wieder munter Uber und Quiet Mode durcheinandergeworfen, je nachdem ob man gerade über Leistungsaufnahme/Lautstärke oder Performance reden möchte.Der einzige Vorteil der dummen Powertune-Technik, er macht das Pseudoargumentieren leichter ;D

Aber schade, dass AMD nicht mit Partnerllösungen mit Custom-Kühlern gelauncht hat, da wären diese 80 Seiten voll Kühler-Gespamme gar nicht erst aufgekommen (gut, man wäre dann z.B. auf dem AF rumgeritten, hauptsache die kurze Zeit an der Spitze überzeugt keinen nVidia-Anhänger vom Marken-Wechsel).

Un-boostende 7970 mit Customkühler, damit man auch sich selbst gegenüber gar nicht erst in Argumentationsnot gerät - hoffe in der nächsten Generation gibt es wieder was Vergleichbares...

Gipsel
2013-11-07, 21:38:10
Nich lang schnacken, Kopp in Nacken.
Auf gut Deutsch: Beweise bitte diese Aussage oder höre auf damit.Das verwechselst Du jetzt aber mit der Aufforderung "Butter bei die Fische!" :freak:
"Nich lang schnacken, Kopp in Nacken" ist der Versuch, einen langwierigen Toast oder zu deutsch Trinkspruch zu vermeiden. ;)

================

Ganz allgemein: Ich denke die Diskussion um die Güte der Kühler im Vergleich von nV und AMD wird man hier nicht endgültig lösen können und ist auch nicht wirklich das Thema hier. Da solltet ihr Euch nicht die Köppe wegen einschlagen. Na das Letzte mit dem nachgestellten "wegen" war jetzt aber ein norddeutscher Satzbau.

Knuddelbearli
2013-11-08, 14:02:08
Ich glaube nur CB schafft es das eine eigentlich neutrale bis positive Nachricht so schlecht klingt

http://www.computerbase.de/news/2013-11/neue-lueftersteuerung-aendert-leistung-der-r9-290-x/

Ist AMD doch eigentlich hoch anzurechnen das sie auf so eine Problem so schnell und unbürokratisch reagiert haben. Hoffentlich gibt das nicht gleich ein Dutzend neuer Treiberfehler ^^

Natlich hätte sowas früher auffallen können aber bei NV ist das soweit ich das bisher gesehen habe doch auch so. Lüfter haben nunmal eine Toleranz. wenn ich da an meine 6 Slip Stream denke ... von 1050 bis 1378 alles dabei wo es 1200 sein sollte

mironicus
2013-11-08, 14:37:15
Kann man bei der 290x jetzt eigentlich nicht selbst entscheiden mit wieviel Volt und welchem Takt die Karte läuft und den Boost komplett deaktivieren?

Knuddelbearli
2013-11-08, 14:43:12
nicht das ich wüsste

außer man stellt halt den fan fix auf 100% ^^

Iruwen
2013-11-08, 14:51:34
Bei der R9 290 hatte AMD bereits vor der Vorstellung mehr Lüfterdrehzahl zugelassen, um die Leistung der Karte zu erhöhen. Die Vorstellung wurde daraufhin um eine knappe Woche verschoben. Alle bis dahin getätigten Benchmarks wurden obsolet.

Da wäre ich auch sauer. Ansonsten klingt doch nur

Wir werden die kommenden Tage nutzen, um alle Messungen auf den neuen – und hoffentlich finalen – Treiber anzupassen.

etwas zynisch. Da es laut letztem Absatz aber noch nicht reibungslos funktioniert wohl auch zurecht.

Knuddelbearli
2013-11-08, 15:06:47
naja deshalb eben auch beta

das feature wurde ja immerhin in unter einer woche eingefügt!

falls wirklich
http://www.tomshardware.de/radeon-r9-290-golden-sample,testberichte-241424-3.html
den Stein ins rollen brachte sind es sogar nichtmal 3 Tage

PR Technisch für die Masse sinnvoller wäre es aber auf jedenfall gewesen erstmal gar nicht zu reagieren ...

CompuJoe
2013-11-08, 15:08:05
Kann man bei der 290x jetzt eigentlich nicht selbst entscheiden mit wieviel Volt und welchem Takt die Karte läuft und den Boost komplett deaktivieren?

Klar geht das, du kannst im Catalyst Overdrive mit einem Mausklick festlegen wie hoch oder niedrig sie takten soll, oder du stellst die max. Lüfterdrehzahl ein wie du möchtest.

Wenn ich WoT zocke stelle ich aufs niedrigste was geht und es ist immernoch flüssig zu spielen, die karte taktet dann nur noch 423 Mhz und wird nicht heißer als 75°c bei 22% Lüfter

Knuddelbearli
2013-11-08, 15:13:44
Klar geht das, du kannst im Catalyst Overdrive mit einem Mausklick festlegen wie hoch oder niedrig sie takten soll, oder du stellst die max. Lüfterdrehzahl ein wie du möchtest.

Wenn ich WoT zocke stelle ich aufs niedrigste was geht und es ist immernoch flüssig zu spielen, die karte taktet dann nur noch 423 Mhz und wird nicht heißer als 75°c bei 22% Lüfter

Versuch doch Radeonpro mit FPS Limitier dann musst du das nicht immer manuell machen

CompuJoe
2013-11-08, 15:20:51
Versuch doch Radeonpro mit FPS Limitier dann musst du das nicht immer manuell machen

Bei WoT bringt der Limiter nix, das spiel rennt immer mit ~40fps egal wie die Karte taktet xD

Knuddelbearli
2013-11-08, 15:25:59
ne ich meinte das umgekehrt

in irgend einem Review hieß es das die Karte mit dem Limiter dann soweit runtertaktet bis es passt.

Also so wie bei NV nur aufgrund des fehlenden basetaktes noch deutlich weiter nach unten

CompuJoe
2013-11-08, 15:30:06
Achso, ja das ist natürlich auch möglich, hilft dann auch beim Stromsparen.

Knuddelbearli
2013-11-08, 15:41:09
jau

das ist meienr meinung die einzige gute Funktion von Boost

bei meiner 480 muss ich immer manuell Profile ändern und das vergisst man dann halt öfters mal und sie braucht 100-200W mehr als nötig ...

Iruwen
2013-11-08, 15:44:28
200W mehr als nötig wage ich stark zu bezweifeln.

N0Thing
2013-11-08, 15:45:29
naja deshalb eben auch beta

das feature wurde ja immerhin in unter einer woche eingefügt!

falls wirklich
http://www.tomshardware.de/radeon-r9-290-golden-sample,testberichte-241424-3.html
den Stein ins rollen brachte sind es sogar nichtmal 3 Tage

PR Technisch für die Masse sinnvoller wäre es aber auf jedenfall gewesen erstmal gar nicht zu reagieren ...

In Sachen PR hätten sie vor dem Release ein paar Grafikkarten mehr testen und am besten Referenz- und Custom-Modelle gleichzeitig ermöglichen sollen.
So ist es eine weitere unprofessionelle Randnotiz an einem nicht gerade ruhmvollen Launch.

StefanV
2013-11-08, 15:49:09
In Sachen PR hätten sie vor dem Release ein paar Grafikkarten mehr testen und am besten Referenz- und Custom-Modelle gleichzeitig ermöglichen sollen.
So ist es eine weitere unprofessionelle Randnotiz an einem nicht gerade ruhmvollen Launch.
Naja, bei der ersten Charge gehts meist nur darum, die intialnachfrage zu befriedigen. Um das halbwegs zeitnah zu bewerkstelligen kommt die erste Charge immer von AMD. Danach kommen aber maximal die Boards von AMD, bis die ganzen Hersteller eigene Bretter entwickelt haben...

Ist natürlich am ANfang 'nen bisserl unschön, allerdings kommen die Herstellerkarten in diesem Falle auch schon extremst früh...
In den nächsten 4-6 Wochen sollten die hier erscheinen...

Knuddelbearli
2013-11-08, 15:51:33
200W mehr als nötig wage ich stark zu bezweifeln.

och meine GTX 480 voll aufgedreht dürfte schon an die 400W kratzen und das trotz wakü

Iruwen
2013-11-08, 16:14:28
Unter Volllast und alles maximiert, dann braucht sie die Leistung ja auch.
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index15.php

Knuddelbearli
2013-11-08, 16:19:37
ja

leider skalieren GPUs mit geringerer auslastung ja nicht linear runter

ohne powerstates hat man auch bei 0 Auslastung an die 150-200W
mit geringer Auslastung ( 10% ) dann halt an die 250W

mit dem extra Profil mit minimalen Taktraten ( 405 statt 930MHz weniger geht leider nicht) und Spannung soweit runter wie geht ( 0,95V statt 1,15V auch hier geht weniger leider nicht) dürften es bei dann 20% Auslastung eher an die 100W sein.

hatte das auch mal gemessen aber kA mehr wo die genauer Werte gespeichert sind so ungefähr stimmt das aber sicher

Zum Energiesparen ist der Boost zusammen mit einem fps limtier schon super.
Wiegt aber den ganzen anderen irrsinn nicht auf.

Außerdem geht bei NV der Takt viel zu wenig weit runter, und bei AMD wird dafür kaum die Spannung gesenkt ( von 950MHZ auf 660MHz nur -0,09V ... -0,2 sollte da locker möglich sein inkl. reserven )

gedi
2013-11-08, 17:21:14
Ich habe nun auch die 290x , genauer MSI R9 290x BF4-Edition, verbaut und möchte mal folgendes kundtun: Mich kotzen die Tester/Reviews, insbesondere hier zu erwähnen der Test auf CB, gnadenlos an. Anders ausgedrückt: Alles andere als HT4U kommt mir im deutschsprachigem Raum nicht mehr ins Haus.

Wo wtf ist das Teil so laut wie eine GTX480? Selbst nach stundelangem Gaming (Grid 2, Batman AO, F1 2013, Skyrim) komme ich zu dem Entschluss: Diese Grafikkarte ist subjektiv gesehen leiser als eine Sapphire R9 280x Dual-Fan und vor allem WESENTLICH leiser als eine 7970 mit Standart-Kühler. Dass der Ubermode aktiviert wurde versteht sich von selbst. Da der Rechner bei uns im Wohnzimmer steht, kann diese Einsicht vor allem meine Frau teilen :biggrin:

Ich will damit nicht ausdrücken, dass die Graka im Default-Zustand silent ist - nein, ganz bestimmt nicht - allerdings die 290x auf eine Stufe mit einer GTX480 stellen zu wollen ..... Da fehlen mir die Worte - oder besser das hätte NV wohl gerne (so) gesehen.

derguru
2013-11-08, 17:27:50
@gedi

bitte auch mal benchen.user benchs gibt es null hier,alles nur quacksalber.

wieviel für bf4,schreib mir ne pn wenn sie noch nicht weg ist.;)

N0Thing
2013-11-08, 18:05:36
Ich habe nun auch die 290x , genauer MSI R9 290x BF4-Edition, verbaut und möchte mal folgendes kundtun: Mich kotzen die Tester/Reviews, insbesondere hier zu erwähnen der Test auf CB, gnadenlos an. Anders ausgedrückt: Alles andere als HT4U kommt mir im deutschsprachigem Raum nicht mehr ins Haus.

Wo wtf ist das Teil so laut wie eine GTX480? Selbst nach stundelangem Gaming (Grid 2, Batman AO, F1 2013, Skyrim) komme ich zu dem Entschluss: Diese Grafikkarte ist subjektiv gesehen leiser als eine Sapphire R9 280x Dual-Fan und vor allem WESENTLICH leiser als eine 7970 mit Standart-Kühler. Dass der Ubermode aktiviert wurde versteht sich von selbst. Da der Rechner bei uns im Wohnzimmer steht, kann diese Einsicht vor allem meine Frau teilen :biggrin:

Ich will damit nicht ausdrücken, dass die Graka im Default-Zustand silent ist - nein, ganz bestimmt nicht - allerdings die 290x auf eine Stufe mit einer GTX480 stellen zu wollen ..... Da fehlen mir die Worte - oder besser das hätte NV wohl gerne (so) gesehen.

Ich enttäusche dich ja nicht gerne, aber auch HT4U haben in ihren Tests bei der R9-290x im Ubermode einen höheren sone-Wert gemessen als bei der GTX 480.
Vielleicht war bei dir noch immer der Quiet-Mode aktiv. Da bedarf es doch ein Neuladen der Standardwerte im Treiber, damit der Ubermode wirklich aktiv wird, oder?

Gipsel
2013-11-08, 18:07:51
Hier übrigens mal eine handfeste Lösung zur Verbesserung der Kühlleistung des Referenzkühlers:

http://i.imgur.com/aSzp66V.jpg

Angeblich hilft es deutlich (http://techreport.com/discussion/25611/nvidia-geforce-gtx-780-ti-graphics-card-reviewed?post=776154#776154).

Ich bin ja eigentlich auch der Meinung, daß man beim Bestehen auf eine DHE-Lösung zumindest einen Slot vollkommen frei halten sollte. Wenn man dabei trotzdem zwei DVI-Ports behalten will, würde das z.B. gehen, in dem man einen einzigen High-Density-Stecker anstelle der beiden DVI-Ports verbaut und die beiden DVI-Ports dann am Ende eines kurzen Breakout-Kabels (also einer Kabelpeitsche) bereitstellt. Habe das mal vor ein paar Jahren bei einer Office-Kiste von Dell gesehen (ich glaube, da war nur eine absolute Lowend-Grafikkarte halber Höhe verbaut, weswegen da keine zwei Anschlüsse auf die halbe Slotblende paßten). Kostet vielleicht 1 Euro für die 15cm Kabelpeitsche, würde aber den Luftdurchsatz wohl merklich erleichtern (also gleiche Kühlleistung bei niedrigerer Drehzahl ermöglichen), ähnlich wie die Dremel-Lösung da im Bild.

Botcruscher
2013-11-08, 18:23:23
Der Luftdurchsatz dürfte sich damit glatt verdoppeln.

StefanV
2013-11-08, 18:33:03
Wenn man dabei trotzdem zwei DVI-Ports behalten will, würde das z.B. gehen, in dem man einen einzigen High-Density-Stecker anstelle der beiden DVI-Ports verbaut und die beiden DVI-Ports dann am Ende eines kurzen Breakout-Kabels (also einer Kabelpeitsche) bereitstellt.
Gott bewahre uns vor den LFH-60 Buchsen, wie sie 'ne G550 Low Profile hatte.
Bzw DMS-59 Stecker...
Die Teile sind einfach nur mies...

Alternativ könnte man ev. 2 DVI Buchsen unten hin packen, zusammen mit dem HDMI und die kleinen mini DP Buchsen oben hin tun. Gibt allerdings wohl dafür auch keine entsprechenden Buchsen, im Gegensatz zu DVI...

Allerdings sind wir auch hier wieder an dem Punkt angelangt, an dem der ATX Standard einfach doof is.


Habe das mal vor ein paar Jahren bei einer Office-Kiste von Dell gesehen (ich glaube, da war nur eine absolute Lowend-Grafikkarte halber Höhe verbaut, weswegen da keine zwei Anschlüsse auf die halbe Slotblende paßten). Kostet vielleicht 1 Euro für die 15cm Kabelpeitsche, würde aber den Luftdurchsatz wohl merklich erleichtern (also gleiche Kühlleistung bei niedrigerer Drehzahl ermöglichen), ähnlich wie die Dremel-Lösung da im Bild.
Ich habs nicht nur gesehen sondern auch mal benutzt. Das Ganze ist einfach ein unglaublicher Friemelkram, die Buchse selbst ist eher zickig und eher umständlich zu handhaben ist. Da ists dann eher sinnvoller ganz auf DVI zu verzichten und dafür dann, wie bei der 7970, zwei Mini DP Ports zu verbauen. Allerdings scheint sich DP nicht so wirklich gut durchzusetzen und zickt auch so a bisserl rum (ist ein wenig zu viel P&P -> Monitor aus, wird abgemeldet)...

gedi
2013-11-08, 19:04:26
Ich enttäusche dich ja nicht gerne, aber auch HT4U haben in ihren Tests bei der R9-290x im Ubermode einen höheren sone-Wert gemessen als bei der GTX 480.
Vielleicht war bei dir noch immer der Quiet-Mode aktiv. Da bedarf es doch ein Neuladen der Standardwerte im Treiber, damit der Ubermode wirklich aktiv wird, oder?

Da muss ich dich aber enttäuschen - die 1 Ghz liegen laut AB immer an. Leider bremst hier die CPU doch massiv - ein 8350@4.6Ghz ist definitiv zu langsam für das Teil - CPU-Limit Ahoi :(

@Guru: Benches folgen dieses Wochenende, oder anders ausgedrückt: Für dich immer wieder gerne!

M4xw0lf
2013-11-08, 19:06:38
Hier übrigens mal eine handfeste Lösung zur Verbesserung der Kühlleistung des Referenzkühlers:

http://i.imgur.com/aSzp66V.jpg

Angeblich hilft es deutlich (http://techreport.com/discussion/25611/nvidia-geforce-gtx-780-ti-graphics-card-reviewed?post=776154#776154).
Rabiat, aber eigentlich sehr naheliegend ^^

Loeschzwerg
2013-11-08, 19:23:35
EVGA zeigt wie es geht:
http://images.ht4u.net/reviews/2012/nvidia_geforce_gtx_660_evga_gtx660_sc_msi_n660gtx_tf_oc_test/io_shield.jpg

Gipsel
2013-11-08, 19:34:53
Gott bewahre uns vor den LFH-60 Buchsen, wie sie 'ne G550 Low Profile hatte.
Bzw DMS-59 Stecker...
Die Teile sind einfach nur mies...
[..]
Ich habs nicht nur gesehen sondern auch mal benutzt. Das Ganze ist einfach ein unglaublicher Friemelkram, die Buchse selbst ist eher zickig und eher umständlich zu handhaben ist.Was ist daran denn genau mies oder schwierig zu handhaben? Angestöpselt habe ich die besagte Dell-Kiste schon. Kann mich nicht erinnern, daß das irgendwie kompliziert oder fehleranfällig gewesen wäre. Diese Stecker werden am Slot genau so mit den zwei Schraubverbindungen gesichert, wie man das von DVI- oder auch VGA-Kabeln kennt, genau wie auch die DVI-Stecker am anderen Ende der Kabelpeitsche. Und die Signalqualität kann ja wohl kaum ein Grund sein.
http://www.sourcingmap.de/smapimg/de/catalog/lfh59-dms59stecker-auf-dviibuchse-splitter-adapterkabel-60128c.jpg

gedi
2013-11-08, 22:24:51
Mit dem neuen Beta-Treiber dreht der Lüfter schon ein bisschen mehr auf. Max. 2632 U/min nach einer Std. Online BF4. Von einer GTX480-Geräuschkulisse bin ich aber trotzdem noch meilenweit entfernt. Trotzdem könnte sie natürlich gerne leiser sein.

Zur Leistung: Kurz und knapp - fantastisch. Bei max. Sichtweite unter BF4 kein nennenswerter Leistungseinbruch (die 280x tat sich hier schon sehr schwer) und C3 läuft einfach superfluffig - echt geil. Fraps-Benchmarks kommen die Tage

Im Übermode hält die 290x selbst in C3 bis auf sehr kurze Ausnahmen immer den kolportierten Takt. Auch hier kein Vergleich zur 280x, welche durch den ständigen Taktwechsel das Spiel praktisch unspielbar gemacht hat.

Jetzt mal ein bisschen Tridef anschmeißen, um zu schauen was sich im 3D-Betrieb so tut.

Ein Bug in den neuen Catalysts scheint es aber zu geben - wenn was im Overdrive-Menu verändert wird, verschlechtert sich die Performance drastisch. Abhilfe erreicht man durch einen Reboot. Die Settings werden übernommen und die Performance passt dann auch wieder.

samm
2013-11-08, 22:40:42
CPU-Limit Ahoi :(Dann dreh die Grafikoptionen weiter auf :D

Blediator16
2013-11-09, 13:47:45
http://forums.anandtech.com/showthread.php?t=2352532&page=3

Da ihr gerade über das Zeug hier redet. Offenbar wurde das ganze von NV mal wieder eingeläutet (origin nimmt amd aus dem sortiment) und das selbe ist bei den 4k Benches kurz vor Launch der 290x passiert und was mit den 4k Benches und SLI Problemen ist wissen wir ja mittlerweile. Offensichtlich hat AMD bei Nvidia doch etwas hervorgerufen, was schon seit Release der Kepler nicht da war. Dass aber Schmierkampangen dafür nötig sind ist schon ein starkes Stück.

Ab Seite 2 kann man sehen, dass TomsHardware "Fund" nicht so zufällig war wie gedacht und dass das alles einfach nur eine Lügenkampagne gegen AMD ist.

aufkrawall
2013-11-09, 14:09:25
und was mit den 4k Benches und SLI Problemen ist wissen wir ja mittlerweile.
Komisch, hier skaliert Crysis 3 mit über 90%...
Und mit Sicherheit die meisten anderen Spiele auch. Keine Ahnung, warum bei Reviewseiten SLI/AFR oft nicht ideal skaliert.

Knuddelbearli
2013-11-09, 14:21:42
vermutlich hast du einfach Glück

ich hatte bei AMD bisher auch noch nie Probleme und bei NV andauernd, da funktioniert bei mir nichtmal +50% DS ...
obwohl es laut Foren umgekehrt sein müsste

aufkrawall
2013-11-09, 14:33:18
Als ob man diesen DS-Müll für irgendeine Bewertung der Treiber-Qualität heranziehen könnte...
Mit jedem Gamer-TN gehen bei NV btw. 4k damit, so hab ich auch Crysis 3 getestet.

Es mag nicht auszuschließen sein, dass mal was mit SLI klemmt.
Man sollte aber nicht davon ausgehen, dass es in Stein gemeißelt ist und NV es nie fixen wird. So ein Blödsinn, ist doch bei CF auch nicht so...

Gibt btw. noch gar keinen spieletauglichen 4k-Monitor.
24ms Input Lag bei BF4 online... :freak:

Knuddelbearli
2013-11-09, 14:53:43
jaja nur weill bei dir alles geht muss es bei allen anderen auch ^^ guck mal über den Tellerrand

letztens gab es eine Diskussion mit Raff und innerhalb ner halben std haben sich 5 Leute mit NV Hardware gemeldet wo 50% DS eben nicht geht


und wieso nie fixen? man kann aber nunmal nur das benchen was gerade benchbar ist.
Wüsste nicht das du dich mal bei AMD aufgeregt hättest weil auf ein Spiel mit Treiber X gerade mies lief, ansonsten haste bei pCars bei CB momentan deine Chance!

aufkrawall
2013-11-09, 15:28:34
jaja nur weill bei dir alles geht muss es bei allen anderen auch ^^ guck mal über den Tellerrand

letztens gab es eine Diskussion mit Raff und innerhalb ner halben std haben sich 5 Leute mit NV Hardware gemeldet wo 50% DS eben nicht geht

Was heißt "nicht geht"?
Haben die Betroffenen alle möglichen Monitor-Timings durchprobiert? Wohl kaum.
Man kann froh sein, wenn der Müll geht, und damit hat es sich...


und wieso nie fixen? man kann aber nunmal nur das benchen was gerade benchbar ist.

Man kann NV zumindest nicht unterstellen, in der Hinsicht mögliche Probleme nicht ernstzunehmen:
https://forums.geforce.com/default/topic/628144/issue-with-sli-and-battlefield-4-/?offset=33#4003679

Gipsel
2013-11-09, 15:34:52
Ab Seite 2 kann man sehen, dass TomsHardware "Fund" nicht so zufällig war wie gedacht und dass das alles einfach nur eine Lügenkampagne gegen AMD ist.Die große Variabilität zwischen den Karten war real, insofern paßt das Wort Lügenkamapagne nicht so ganz. ;)
Sie es doch von der positiven Seite: Innerhalb von zwei Tagen gab es ein Update von AMD, welches das Problem stark vermindert (da jetzt die Lüfterdrehzahlen festgeschrieben werden, nicht die PWM-Prozente), so daß jetzt die 290/290X-Karten in der freien Wildbahn viel enger beeinander liegen.

Blackhand
2013-11-09, 15:52:30
Da hier ja irgendwie hauptsächlich über Quiet/Uber Mode und den schlechten Referenzlüfter geredet wird und ich kein Bock hab, mich durch den Thread lesen zu müssen:

Gibt es irgendwas neues zur Qualität des AA/des AF und geht DS höher als 2720x1530? Wurde das eigentlich mal irgendwie beim Bonaire getestet bis jetzt?

Das sind die Dinge, die mich wirklich interessieren. Die Karte würde ich eh niemals mit dem Referenzdesign fahren. Dummes gequatsche für nichts.

TobiWahnKenobi
2013-11-09, 16:00:06
Da hier ja irgendwie hauptsächlich über Quiet/Uber Mode und den schlechten Referenzlüfter geredet wird und ich kein Bock hab, mich durch den Thread lesen zu müssen:

Gibt es irgendwas neues zur Qualität des AA/des AF und geht DS höher als 2720x1530? Wurde das eigentlich mal irgendwie beim Bonaire getestet bis jetzt?

Das sind die Dinge, die mich wirklich interessieren. Die Karte würde ich eh niemals mit dem Referenzdesign fahren. Dummes gequatsche für nichts.

das war gestern schon mein gedanke, aber da man auch beim DS nicht ausschliessen kann, dass der geht-nicht-schreier irgendwas falsch gemacht hat, hab ich heute einfach mal eine bestellt und gucks mir selbst an.

daneben hoffe ich, dass dice den mantle-pätsch vorzieht.


(..)

mfg
tobi

foenfrisur
2013-11-09, 16:00:29
wenn amd da was verbessert HÄTTE, würden sie doch dumm sein es nicht zu publizieren oder?

aber wer weiß...was amd manchmal macht, ist oft nicht nachvollziehbar.

mfg

Gipsel
2013-11-09, 16:18:17
Zum AF gibt es Aussagen (also von Testern), das ist identisch zu den anderen GCN-Karten.

Ph0b0ss
2013-11-09, 18:43:20
Wieviel Watt Verlustleistung geben die Spannungswandler für die GPU so in etwa ab, wenn die gesamte Karte ~300W zieht?

Gipsel
2013-11-09, 18:57:18
Wieviel Watt Verlustleistung geben die Spannungswandler für die GPU so in etwa ab, wenn die gesamte Karte ~300W zieht?Die haben typischerweise eine Effizienz von deutlich über 90%. Würde mal so aus der Hüfte auf vielleicht 15W im Maximum tippen.

fondness
2013-11-09, 19:07:17
Die haben typischerweise eine Effizienz von deutlich über 90%. Würde mal so aus der Hüfte auf vielleicht 15W im Maximum tippen.

Die Effizienz der SpaWas ist allerdings auch relativ stark Temp-Abhängig.

TobiWahnKenobi
2013-11-09, 19:07:37
geschätzt? knapp 1/3

edit
vllt. ein viertel


(..)

mfg
tobi

Ph0b0ss
2013-11-09, 19:45:12
Die haben typischerweise eine Effizienz von deutlich über 90%. Würde mal so aus der Hüfte auf vielleicht 15W im Maximum tippen.

Ok, dann müsste wohl ein einfacher Kanal-Wasserkühler mit 3mm-Innendurchmesser-Verschlauchung bei 30°C Wassertemperatur ausreichen. Die Spannungswandler haben ja, wie es scheint, so eine Metallkappe. Muss man da zwingend ein nichleitendes Wärmeleitpad verwenden oder geht auch normale (nichtleitende) Paste?

gedi
2013-11-10, 01:15:05
Hier mal ein paar Benchmarks. Neuester Treiber, 16HQaf im Treiber aktiviert. Ubermode on. Alle Benchmarks in 1080p und Quality maxed out.

Batman AO, 8xMSAA

http://up.picr.de/16425706hl.jpg



BF4,Multi (x64): Siege of Shanghai, 4xMSAA, Skalierung 150%

http://up.picr.de/16425717dw.png


C3, 2xMSAA

http://up.picr.de/16425736lb.jpg


Grid 2, 8xMSAA

http://up.picr.de/16425751vg.jpg


LP2 Test1, 8xMSAA

http://up.picr.de/16425754zh.jpg


Metro 2033, 4xMSAA+DOF

http://up.picr.de/16425774wt.png


Sleeping Dogs

http://up.picr.de/16425783fl.jpg


TR 2x2SSAA

http://up.picr.de/16425790nb.jpg


TR FXAA

http://up.picr.de/16425797hw.jpg


Fire Strike extreme

http://up.picr.de/16425809of.jpg





..... to be continued

5i1v3rStorm
2013-11-10, 06:53:24
Guten Morgen 3D-Centrinos,

gestern kam meine PowerColor R9-290X (habe bei den ersten Lieferungen keine bekommen ;) ) Ich melde mich auf einen Post auf Seite 61, denn ich habe ein kleines Powertune Problem - aber der Reihe nach:

1.) Ich habe Testläufe vor dem WaKü Umbau gemacht und die Karte mit Luft auch mal übertaktet durch den Tombraider Benchmark gejagt. 15% waren möglich, bei 20% ist die Karte gar nicht erst in den 3D Modus gewechselt und das Spiel ist sofort verreckt (obwohl sie auch mit Luft noch nicht warm gelaufen und keine 50 °C warm war). Ich dachte mir das wäre halt so.

2.) Jetzt ist sie unter Wasser. Ich war WAHNSINNIG vorsichtig beim Umbau (habe das auch schon mehrfach gemacht) und habe wahnsinnig gute Temperaturen. BIS AUF EINE: Die VRM Temperature 1 (vorletztes Feld in GPU-Z) ist nicht wie alle anderen Werte zwischen 30 und 40 °C sondern 60 °C - nach einer Stunde Zocken auch mal 70 °C. Frage Nr. 1: Geht das in Ordnung oder sitzt der Kühler da irgendwo nicht richtig?

3.) Powertune: Egal wie gering meine Einstellungen sind. Auch bei Power +10% und Clock +5% schmiert die 3D Anwendung nach einer Weile ab. Der Bildschirm wird rot, der Ton rattert noch eine Weile und das System startet neu. Hätte ich Zugriff darauf würde ich die Spannung mal noch ein bisschen anheben :frown:
Habt ihr dazu eine Idee?

Danke!

Taigatrommel
2013-11-10, 11:50:35
2.) Jetzt ist sie unter Wasser. Ich war WAHNSINNIG vorsichtig beim Umbau (habe das auch schon mehrfach gemacht) und habe wahnsinnig gute Temperaturen. BIS AUF EINE: Die VRM Temperature 1 (vorletztes Feld in GPU-Z) ist nicht wie alle anderen Werte zwischen 30 und 40 °C sondern 60 °C - nach einer Stunde Zocken auch mal 70 °C. Frage Nr. 1: Geht das in Ordnung oder sitzt der Kühler da irgendwo nicht richtig?

Danke!
Ich gehe mal nur auf Frage 2 ein, da ich mit dem Rest keine Erfahrungen habe. Die Temperaturen deiner Spannungswandler sind absolut im grünen Bereich. Meine VRM2 Temperaturen werden mit dem Standardkühler bei entsprechender Last gerne über 80 Grad warm. Bei einigen Custom-Designs damals bei der Radeon 7970 gab es Kühler, wo diese Temperatur auf (weit) über 90 Grad kletterte, die liefen auch. Da brauchst du dir gar keine Sorgen machen.

derguru
2013-11-10, 12:12:29
Hier mal ein paar Benchmarks. Neuester Treiber, 16HQaf im Treiber aktiviert. Ubermode on. Alle Benchmarks in 1080p und Quality maxed out.

Batman AO, 8xMSAA

http://up.picr.de/16425706hl.jpg



BF4,Multi (x64): Siege of Shanghai, 4xMSAA, Skalierung 150%

http://up.picr.de/16425717dw.png


C3, 2xMSAA

http://up.picr.de/16425736lb.jpg


Grid 2, 8xMSAA

http://up.picr.de/16425751vg.jpg


LP2 Test1, 8xMSAA

http://up.picr.de/16425754zh.jpg


Metro 2033, 4xMSAA+DOF

http://up.picr.de/16425774wt.png


Sleeping Dogs

http://up.picr.de/16425783fl.jpg


TR 2x2SSAA

http://up.picr.de/16425790nb.jpg


TR FXAA

http://up.picr.de/16425797hw.jpg


Fire Strike extreme

http://up.picr.de/16425809of.jpg





..... to be continued

danke,danke (y):biggrin:

das war alles ohne oc oder?
stone giant wäre auch ganz nice.

horn 12
2013-11-10, 16:51:17
NV hat teilweise die Custom Versionen der TI aus dem Sack gelassen, nun ist aber endlich mal AMD gefragt. Jene sollen sich mal durchringen die Karten offiziell vorzustellen, bzw. der Konkurrenz etwas entgegenzusetzen!

5i1v3rStorm
2013-11-10, 17:08:29
Ich gehe mal nur auf Frage 2 ein, da ich mit dem Rest keine Erfahrungen habe. Die Temperaturen deiner Spannungswandler sind absolut im grünen Bereich. Meine VRM2 Temperaturen werden mit dem Standardkühler bei entsprechender Last gerne über 80 Grad warm. Bei einigen Custom-Designs damals bei der Radeon 7970 gab es Kühler, wo diese Temperatur auf (weit) über 90 Grad kletterte, die liefen auch. Da brauchst du dir gar keine Sorgen machen.

Danke! Ich dachte der Unterschied zwischen 1. und 2.SpaWa könnte problematisch sein. Allerdings ist bestimmt der eine Wert von den SpWas vorne, oben links auf der Karte und der andere von der "Bank" hinten. ?!

Der vordere wird ja vom Kryographics nicht so aktiv gekühlt, wenn meine Annahme stimmt entstehen dadurch die 20 ℃ Unterschied.

Ich habe jetzt das Asus BIOS auf die Powercolor geflasht. Das limitiert die Spannung weniger. Jetzt braucht sie 20W mehr unter Last und läuft mit 1,1 GHz und rund 1,24V stabil! :)

Knuddelbearli
2013-11-10, 17:12:50
was bringt das flashen gegenüber spannung mit tools verstellen für einen vorteil? außer das man kein tool braucht

Vega2002
2013-11-10, 17:38:39
was bringt das flashen gegenüber spannung mit tools verstellen für einen vorteil? außer das man kein tool braucht

Das flashen bewirkt nur, das man die Spannung verstellen kann mehr nicht. Per Tool geht das nicht, außer bei den Asus Karten! Im Gigabyte OC Guru Tool, kann man auch die Spannung verändern, sofern das Asus Bios geflasht wurde.

5i1v3rStorm
2013-11-10, 17:44:06
Genau, wollte ich auch gerade schreiben.
Man sollte erwähnen, dass man bei der Spannung ähnlich dem Stromverbrauch und der Taktrate nur den Maximalwert anhebt, bis zu dem die Karte sich selbst versorgen darf.

gedi
2013-11-10, 22:07:52
Noch ein paar Benchmarks (wie bisher auch: 16xHQaf via Treiber, Ubermode on, 150% PT, kein OC, alle Gamesettings auf maximal einstellbare Qualität):

Bioshock Infinite - max. AA

http://up.picr.de/16437915rf.jpg


Dirt 3 - 8xMSAA

http://up.picr.de/16437935xv.jpg


Dirt Showdown - 8xMSAA

http://up.picr.de/16437947ea.jpg


F1 2013 - 8xMSAA

http://up.picr.de/16437958sg.jpg


pCars - 2xDSAA no FXAA, no SMAA, UltraQ

http://up.picr.de/16437969kg.jpg


SS3 - 8xMSAA+4xSSAA

http://up.picr.de/16437987nv.jpg

Gipsel
2013-11-10, 22:23:49
Hat irgendeiner der frischgebackenen R290(X)-Besitzer eigentlich Probleme mit Blackscreens oder sowas? Angeblich gibt es in einigen Foren ein paar Leute, deren 290er nicht so richtig wollen. Angeblich sollen die Karten mit Elpida-RAM Probleme machen. Irgendwer?

HarryHirsch
2013-11-10, 22:25:12
Nö, 2x Elpida und keine Probleme.

gedi
2013-11-10, 22:25:15
Ich kann jetzt nur für mich sprechen - aber hier keinerlei Probleme :)

HarryHirsch
2013-11-10, 22:29:23
Hat irgendeiner der frischgebackenen R290(X)-Besitzer eigentlich Probleme mit Blackscreens oder sowas? Angeblich gibt es in einigen Foren ein paar Leute, deren 290er nicht so richtig wollen. Angeblich sollen die Karten mit Elpida-RAM Probleme machen. Irgendwer?

Link?

Gipsel
2013-11-10, 22:32:15
Link?
Habe ich gerade nach gefragt (http://forum.beyond3d.com/showthread.php?p=1804439#post1804439). Der Typ hat da ein ziemliches Faß aufgemacht und ich bin zu faul, selbst zu suchen. ;)

HarryHirsch
2013-11-10, 22:42:20
Frag ihn mal wie viel NV zahlt... :freak:
So langsam ödet es mich an...

HTB|Bladerunner
2013-11-11, 07:16:55
Diese "Black-Screens" habe ich auch schon ein paar mal miterlebt, sowohl in BF4 als auch bei 3DMark. Das passiert mit meiner Karte ab einem Speicher-Takt von 1375MHz. Schade das hier nicht mehr geht. Ich hatte eigentlich vor gehabt, den Performance-Verlust durch das Throttlen im Silent-Mode mit Hilfe eines höheren Speichertakts auszugleichen...
Seit dem neuen Beta9-Treiber throttelt meine Karte aber deutlich öfter, wenn auch nicht ganz so heftig. Die 1GHz werden so gut wie nicht mehr gehalten, selbst wenn die GPU-Temp weit unter der Ziel-Temp von 94°C liegt. Nach ein paar Sekunden fällt die Taktfrequenz in den Bereich 925-980MHz. Das sieht irgendwie so aus, als hätte AMD die Lüfterdrehzahl um 2-3% erhöht und gleichzeitig den Regler für die Leistungsaufnahme auf ~-10% gesetzt.

Btw. den "Slotblenden-Mod" habe ich auch mal getestet. Viel hat das in meinem Fall nicht gebracht. Vielleicht throttled die Karte ein paar Minuten später, aber das war es auch schon. Eventuell sollte man dazu auch den UBER-Mode wählen um nennenswerte Unterschiede festzustellen.
Da nun der Radiallüfter durch den neuen Treiber sowieso bis auf ~2200rpm dreht, ist der UBER-Mode gar nicht mehr so weit entfernt...:freak:

horn 12
2013-11-11, 07:24:05
AMD bringt Mittwoch NEUES New Settle Bundle zusammen mit den Grafikkarten der R8/ R9 Serie.

USS-VOYAGER
2013-11-11, 07:31:26
Ui schön schön schön dann kann ich endlich die Karte bestellen den Wasserkühler hab ich schon bestellt mit der Karte habe ich extra auf das Spielebundle gewartet :)
Gibs ein Link/Quelle?

Hübie
2013-11-11, 07:34:42
Heißt es nicht "never settle"? ^^ Wieso gibt es wahnsinnige, welche die Karte ohne custom cooler betreiben? Das ist verschenktes Potenzial. Hab von einem mit Wakü gelesen dass 1400 MHz drin sind :eek:

Dawn on Titan
2013-11-11, 08:00:29
Da hätte ich schon Zweifel an der Haltbarkeit der Karte. 1400Mhz dürfte Saft brauchen.

ilibilly
2013-11-11, 08:13:46
Kann man bei den 290x eigentlich die vcore einstellen?
wenn man diese etwas senkt könnte es doch sein das er aufgrund nidrigerer temp dann doch die 1 ghz ständig fährt oder?

StefanV
2013-11-11, 08:46:09
Kann man bei den 290x eigentlich die vcore einstellen?
Ja, kann man. Wie bei jedem AMD High End Referenzdesign...

gedi
2013-11-11, 09:18:37
Ja, kann man. Wie bei jedem AMD High End Referenzdesign...

Mit welchem Tool? Bei mir ist bei 1100MHZ Schicht im Schacht.


@Bladerunner

Mit dem Ubermode hält se die Taktraten stabil. Bei mir pendelt sich die Drehzahl so zwischen max. 2550-2632U/min ein. Darüberhinaus hatte ich bis jetzt ein einziges Spiel, wo ich die Drossel bemerkt habe und dies war bei Hard Reset.

Gipsel
2013-11-11, 10:35:28
Die DS/OGSSAA-Thematik wurde übrigens mal in diesen Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9997285#post9997285) verschoben.

Dural
2013-11-11, 11:09:50
Hat irgendeiner der frischgebackenen R290(X)-Besitzer eigentlich Probleme mit Blackscreens oder sowas? Angeblich gibt es in einigen Foren ein paar Leute, deren 290er nicht so richtig wollen. Angeblich sollen die Karten mit Elpida-RAM Probleme machen. Irgendwer?


Ja haben meine beiden Karten auch, dürfte aber ein Software Problem sein (davon gibt es noch ganz viele, gerade gestern mal wieder einen neuen Fehler gefunden...)

Die Treiber Qualität ist bei NV einfach besser, es ist schlicht so auch wenn es User gibt die es nicht war haben wollen.

TobiWahnKenobi
2013-11-11, 11:22:34
Ja haben meine beiden Karten auch, dürfte aber ein Software Problem sein (davon gibt es noch ganz viele, gerade gestern mal wieder einen neuen Fehler gefunden...)

Die Treiber Qualität ist bei NV einfach besser, es ist schlicht so auch wenn es User gibt die es nicht war haben wollen.


welches betriebssystem?


(..)

mfg
tobi

5i1v3rStorm
2013-11-11, 12:52:12
Ja, ich habe auch Blacks1creens (die ehr REDscreens sind :mad:). Seit dem oben beschriebenen ASUS Bios sind die Abstürze aber nicht mehr während, sondern meist nach einer Gamingsession beim Zurückkehren in den Desktopmodus. Aber manchmal auch einfach beim Starten von STEAM :eek:

Ich für meinen Teil glaube (hoffe) auch, dass es Treiberprobleme sind. Habe gestern mal mit dem Sweeper von Guru3D alles runtergeratscht und die 9.2er Beta von Catalyst 13.11 neu installiert. Scheint etwas stabiler zu sein, aber da ist auf jeden Fall noch Potenzial :P

Jetzt hat sie allerdings gerade einen Testlauf Valley mit 1,15 Ghz hinter sich und sich nur wenig Vcore geholt (aber das Wasser war auch noch nicht vorgewärmt :))
http://gpuz.techpowerup.com/13/11/11/f0r.png

N0Thing
2013-11-11, 13:37:30
Da muss ich dich aber enttäuschen - die 1 Ghz liegen laut AB immer an. Leider bremst hier die CPU doch massiv - ein 8350@4.6Ghz ist definitiv zu langsam für das Teil - CPU-Limit Ahoi :(


Ich weiß nicht, was mich da enttäuschen könnte. Ich hab nirgendwo irgendwelche Hoffnungen geäußert. :|

Wenn du wirklich oft massiv im CPU-Limit hängst, könnte das ein Grund für deine relativ leise Karte sein.

Dural
2013-11-11, 15:06:50
welches betriebssystem?


win 8.1 64

gedi
2013-11-11, 15:48:31
@ Dural

Welche Fehler detailliert denn noch? Vielleicht kann dir hier geholfen werden?!

Abseits dessen würde mich interessieren, ob die Fehler mit dem Ram vorwiegend in Zusammenhang mit dem Asus-Bios stehen. Vielleicht legt Asus andere Latenzen an, oder aber es sind andere BGAs verbaut?!

Dural
2013-11-11, 16:24:27
hmm das könnte sein, habe nämlich auch zwei Asus Karten.

5i1v3rStorm
2013-11-11, 17:10:20
Ich tippe eher auf Treiber. Meine Powercolor ist seit dem ASUS Bios viel stabiler. Wie schon beschrieben hatte ich seitdem nur einen Absturz, beim Zurückkehren in den Desktopmodus. Das ASUS Tool habe ich jetzt mal beiseite gelassen und mit CCC auf 1,5 Ghz (15%) und 50% Powerlimit gesetzt. Damit hat sie mehrere 3D-Mark Durchläufe gemeistert.

gedi
2013-11-11, 22:03:05
Heute kam der 13.11WHQL explizit für die 290er raus. Vielleicht am Besten den probieren.

5i1v3rStorm
2013-11-11, 22:44:28
Ich finde auf amd.com nur die Beta vom 7.11.:rolleyes:

gedi
2013-11-11, 22:55:10
Gusch du (http://www.computerbase.de/downloads/treiber/grafik/amd-catalyst-komplettpaket/)

john carmack
2013-11-12, 16:01:31
Was ist jetzt eigentlich mit AMD´s neuem NeverSettle Packet mit SplinterCellBlackList, Watchdogs und Co...???

Kommt da noch was?

fondness
2013-11-12, 16:04:42
Das alte Never Settle Paket läuft bis Ende des Jahres. Ich nehme also an das es erst ab nächsten Jahr ein entsprechendes Paket für die neuen Karten geben wird - dann womöglich auch mit neuen Spielen. Ist allerdings auch durchaus möglich, dass die Roadmap ein Fake war.

john carmack
2013-11-12, 16:13:16
schade... dabei war ich auf SplinterCellBlackList & Watchdogs besonders gespannt...
BF4 war ja auch in dem (Fake?!)Paket dabei.

USS-VOYAGER
2013-11-12, 16:20:02
Also stimmt das hier doch nicht?

AMD bringt Mittwoch NEUES New Settle Bundle zusammen mit den Grafikkarten der R8/ R9 Serie.

Konnte auch nirgends dazu was finden.

Raff
2013-11-12, 16:30:30
Splinter Cell Blacklist gehört zu Nvidias Programm. Und Mittwoch ist erst morgen. ;)

MfG,
Raff

fondness
2013-11-12, 16:31:27
Splinter Cell Blacklist gehört zu Nvidias Programm. ;)

MfG,
Raff

Naja das heißt erst mal nicht viel. Ubisoft wird sich wohl nicht ärgern wenn ihnen auch AMD ein paar Lizenzen abkauft. Aber vermutlich nimmt man Spiele aus dem Gaming Evolved Programm ja.

TobiWahnKenobi
2013-11-12, 16:59:29
ach, wie schön wäre ein einkaufsgutschein für 3 beliebige steam-, origin- oder uplaygames, statt der festlegung auf bestimmte titel.. *träum*


(..)

mfg
tobi

Raff
2013-11-12, 17:02:11
Sowas kannst du knicken. Realistisch und ebenfalls interessant wäre jedoch ein Rabatt auf einen bestimmten Publisher-Katalog, wie man ihn auch bei Steam in Specials findet.

MfG,
Raff

Eggcake
2013-11-12, 17:07:38
Joa, ein Code wäre toll.
Ich habe eine GTX 770 bestellt, dazu kommen ja 3 Spiele. Jetzt steht in der Auftragsübersicht, dass die Karte lagernd/bereit ist, die Coupons, welche einzeln aufgelistet sind, aber nicht. Also wenn das meine Lieferung verzögert, werde ich zornig :ugly: Sollen mir gefälligst die Codes mailen ._.

horn 12
2013-11-12, 18:18:00
http://videocardz.com/

Weitere Custom Versionen der R9 270
AMD soll man Inne machen und jene für die R9 290 / 290X preisgeben bzw. die Karten offiziell vorstellen lassen, vielleicht kommt ja heute, morgen früh was Passendes daher!

Wiggo
2013-11-12, 18:42:04
Ich liebäugel ja gerade mit der OC-Version von PowerColor Devil R9 270X (http://www.powercolor.com/global/products_features.asp?id=490)

gedi
2013-11-12, 21:14:28
Noch ein möglicher Ansatz des Black-Screen Crashs:

We do not recommend you to overclock with the Catalyst Control panel. We tried and failed miserably as once the OC is applied, it will be reinstated during Windows boot-up. In our case the overclock resulted into a black screen crash, and with each boot-up, the OC applied itself again before we could reach the control panel to enable default. In the end we ended up reinstalling an OS backup image as even a System Restore would not get us out of this little black hole.

Raff
2013-11-12, 21:16:31
Etwas Ähnliches mir sogar (mehrfach) nach einem Kartenwechsel: Wenn die OC-Werte einer HD 7970 dann auch bei der gerade eingebauten HD 7950 angewendet wurden, kann das nicht gut gehen ... Derartige Bugs sind aber nicht die Regel.

Ich liebäugel ja gerade mit der OC-Version von PowerColor Devil R9 270X (http://www.powercolor.com/global/products_features.asp?id=490)

Raff's recommendation: MSI R9 270X Hawk, weil 1.150 MHz und sehr leise (Stand: heute)

MfG,
Raff

Peter Gräber
2013-11-12, 22:28:52
Also prinzipiell soll das NSF-Programm zum 1.11. abgelaufen sein. Die Liste auf der AMD-Seite an Spielen ist aktuell auch sehr dünn geworden. Dazu morgen früh aber mehr.

Dafür gibt es tatsächlich nun offiziell was neues:
http://ht4u.net/news/28612_amd_bestaetigt_uns_offiziell_AEnderungen_beim_betrieb_mit_mehren_bildschir men_und_der_leistung/

AMD hat also doch was gemacht, aber nicht offiziell kommuniziert - warum auch immer. Danke an der Stelle dem Leser hier, der den entsprechenden Hinweis gab, damit wir dem Thema nachgehen konnten.

john carmack
2013-11-12, 23:05:26
Sowas kannst du knicken. Realistisch und ebenfalls interessant wäre jedoch ein Rabatt auf einen bestimmten Publisher-Katalog, wie man ihn auch bei Steam in Specials findet.

MfG,
Raff


Sorry für OT - Aber wann ist mal wieder ein Steam Sale?
Der letzte war letzes Weihnachten glaube ich... :(

Felixxz2
2013-11-12, 23:31:45
Ne Summer Sale. Und dann dieses Jahr zu Weihnachten kommt wieder einer ;)

dildo4u
2013-11-12, 23:32:27
Sorry für OT - Aber wann ist mal wieder ein Steam Sale?
Der letzte war letzes Weihnachten glaube ich... :(
Es gibt immer Sommer und Winter Sales.

http://www.pcgames.de/Steam-Software-69900/News/Steam-Summer-Sale-2013-Borderlands-2-BioShock-Infinite-Tomb-Raider-Update-1078352/

gedi
2013-11-12, 23:39:48
BF4 completly maxed out 200% Ultra 4xMSAA

http://up.picr.de/16456258gf.jpg


http://up.picr.de/16456289qm.png



Das Level auf dem Hubschrauberdeck. Sehr zäh, aber läuft :) Spielen würde ich es auf Dauer aber unter dem Setting nicht wollen...

derguru
2013-11-13, 00:33:01
bleibt es bei den settings noch unter 4gb ram?

Pick
2013-11-13, 02:11:15
Catalyst 13.11 V9.2: retail 290's clock speed fixed :)

http://cdn.pcper.com/files/imagecache/article_max_width/review/2013-11-08/clockspeedv9.png

http://www.pcper.com/reviews/Graphics-Cards/AMD-Driver-Updates-Changes-Performance-Fan-Speeds-R9-290X-and-R9-290/Catalyst

Dawn on Titan
2013-11-13, 07:34:54
Irgendwie aber auch ungeil, wenn ein neuer Treiber die eigene Karte lauter machen kann.

gedi
2013-11-13, 09:25:54
bleibt es bei den settings noch unter 4gb ram?

Nö - es braucht ca. 4.4gig. Es läuft eigentlich immer mit 30fps. Ich probiere das Setting mal heute Abend incl. Vsync aus. Vielleicht fühlt es sich dann etwas geschmeidiger an, denn so ist es doch arg zäh. BTW. müsste heute mein AC3 ankommen :naughty: Mal schauen, was dann wirklich in dem Teil so steckt.

Dural
2013-11-13, 09:31:27
Sehr unschön wie AMD die testkarten offensichtlich sehr gut selektiert hat, ist aber ja auch nicht das erste mal.

Raff
2013-11-13, 09:31:52
Nö - es braucht ca. 4.4gig. Es läuft eigentlich immer mit 30fps. Ich probiere das Setting mal heute Abend incl. Vsync aus. Vielleicht fühlt es sich dann etwas geschmeidiger an, denn so ist es doch arg zäh. BTW. müsste heute mein AC3 ankommen :naughty: Mal schauen, was dann wirklich in dem Teil so steckt.

4K mit Ultra-Details lässt übrigens auch eine GTX 780 Ti kotzen, in einigen Levels gibt's aufgrund fehlenden Grafikspeichers arge Nachladehänger, gerade beim Eintritt in Menüs.

MfG.
Raff

Dural
2013-11-13, 09:38:04
@Raff

Geht ihr auch mal Test-Karten kaufen, oder werden die euch alle zur Verfügung gestellt?

Ich finde gerade bei AMD (Bei NV ist es mir bis jetzt noch nicht aufgefallen) sollte man da in Zukunft ein Auge drauf werfen, da ist es Mittlerweilen ja schon normal das die Presse-Karten sehr gut Selektiert werden. Mir viel das schon bei den 7970 auf, ich hatte ca. 6 Karten und gerade zwei liefen in etwa so wie man es von den Test erwartet hätte, darunter waren aber auch richtige Krüppel die ich gleich in die Bucht gestellt habe ;)

Zudem betreibt AMD ja auch kein Binning, wenn meine Info noch Aktuell ist.
Da wird einfach so viel Spannung auf den Chip gehauen bis ein Grossteil die Spezifikationen schaffen. Ich vermute das man gerade deswegen so extrem grosse Unterschiede bei den Retail Karten feststellen kann.

fondness
2013-11-13, 09:42:05
Irgendwie aber auch ungeil, wenn ein neuer Treiber die eigene Karte lauter machen kann.

Du kannst es ohnehin völlig stufenlos einstellen wie du willst. Und nur weil eine Karte nicht so gut lief wie das Seriensample beweist das erstmal genau gar nichts. Das die Karten streuen ist kein Geheimnis.

TobiWahnKenobi
2013-11-13, 09:42:12
die drei 7970er die ich hatte gingen alle gleich. spieltauglich bis overdrive-anschlag; mit arschbrenner nicht 24/7 stabilisierbar.

boah.. ich warte immer noch auf meine 290.


(..)

mfg
tobi

Gipsel
2013-11-13, 09:59:22
Irgendwie aber auch ungeil, wenn ein neuer Treiber die eigene Karte lauter machen kann.Ist doch nur für die DAUs, niemand hindert Dich daran, daß im ControlCenter auf einen Dir genehmen Wert zu stellen. ;)

Dawn on Titan
2013-11-13, 10:04:50
Ist doch nur für die DAUs, niemand hindert Dich daran, daß im ControlCenter auf einen Dir genehmen Wert zu stellen. ;)

Das ist klar. Ich freue mich aber auch nicht wirklich auf den DAU, der sich beschwert, dass sein Lüfter kaputt wäre, nur weil der Treiber mehr RPM gibt. Über die Möglichkeit den Lüfter für einzelne Anwendungen unterschiedliche Drehzahlkurven zu geben will ich gar nicht reden. Und wie und ob solche Änderungen die Customdesings betreffen, darauf bin ich auch gespannt.

mkh79
2013-11-13, 10:28:44
Ist doch nur für die DAUs, niemand hindert Dich daran, daß im ControlCenter auf einen Dir genehmen Wert zu stellen. ;)
Damit die Leistung wieder sinkt, weil u.U. die gewünschte Taktrate nicht gehalten werden kann?
Hmmhmm, klingt mir nach >450 Euro Hardware.... ganz schönes Gepfrimel, was AMD da gerade hinlegt.

TobiWahnKenobi
2013-11-13, 10:34:12
ist doch bei titan (800€) nicht anders. okay.. das geräuschniveau ist im auslieferungszustand sehr angenehm und sicher ist ein boost von 1006MHz (bei meiner karte standard) auch nicht zu verachten, aber wenn ich es leiser haben will und das powertarget reduziere, geht auch hier die leistung zurück.

wie die AMD zu händeln ist, sehe ich erst wenn ich sie irgendwann bekomme, aber wie gesagt, soviel anders wird das nicht sein.

im grunde ist das mit dem herauskitzeln von noch mehr leistung oder die reduktion des taktes und der geräuschemission eh pillepalle, das bei üblichen einstellungen nirgends ins gewicht fällt. gut anfühlen muss es sich - die ausgewiesenen frames sind erstmal relativ.


(..)

mfg
tobi

mustrum
2013-11-13, 10:36:25
@Raff

Geht ihr auch mal Test-Karten kaufen, oder werden die euch alle zur Verfügung gestellt?

Ich finde gerade bei AMD (Bei NV ist es mir bis jetzt noch nicht aufgefallen) sollte man da in Zukunft ein Auge drauf werfen, da ist es Mittlerweilen ja schon normal das die Presse-Karten sehr gut Selektiert werden. Mir viel das schon bei den 7970 auf, ich hatte ca. 6 Karten und gerade zwei liefen in etwa so wie man es von den Test erwartet hätte, darunter waren aber auch richtige Krüppel die ich gleich in die Bucht gestellt habe ;)

Zudem betreibt AMD ja auch kein Binning, wenn meine Info noch Aktuell ist.
Da wird einfach so viel Spannung auf den Chip gehauen bis ein Grossteil die Spezifikationen schaffen. Ich vermute das man gerade deswegen so extrem grosse Unterschiede bei den Retail Karten feststellen kann.
Ich bin wohl Tester! Meine r290 läuft wie Sau. ;D

Gipsel
2013-11-13, 10:39:52
Zudem betreibt AMD ja auch kein Binning, wenn meine Info noch Aktuell ist.Die ist nicht nur nicht aktuell, sondern schlicht falsch (und war es schon immer). Natürliche binned AMD die Chips. Anders geht es gar nicht.

TobiWahnKenobi
2013-11-13, 10:52:02
ich glaube, das komplette binning übernimmt tsmc für die iHVs.


(..)

mfg
tobi

Dural
2013-11-13, 11:41:58
Die ist nicht nur nicht aktuell, sondern schlicht falsch (und war es schon immer). Natürliche binned AMD die Chips. Anders geht es gar nicht.

Das ist schon klar ;) ich meine nicht so wie NV die für quasi jeden Chip einen andere Spannung anlegen.

gedi
2013-11-13, 12:18:43
Humm? Bei der 7970 ging es zuerst von 1.06V bis zu 1.175V. Spätere Custom-Karten hatten gar 1.2V und mehr. Dies war allerdings traurige Resteverwertung - ich denke hier vor allem an Gigabyte.

@Raff

Ich sehe die 780Ti mit 3GB nicht als geeignet bez. 4k-Gaming (und BF4 sieht grandios aus unter 4k auf einem 55 Zöller). Und wenn ich mir die Erwartungshaltung im Mantle-Thread so anschaue, sehe ich in ihr zukünftig nichts weiter als eine sehr schnelle Performancekarte, welche etwas zu teuer veranschlagt wird - aber dies ist nur meine Meinung und auch komplett OT, von daher sorry.

AMD sollte bez. Downsampling mal in die Puschen kommen, denn für was habe ich denn so eine Karte!?

TobiWahnKenobi
2013-11-13, 12:30:46
BF3 und BF4 sehen auch mit 3DVision grandios aus.. per SE bis FHD und mit DS up 2 2688x1512 pixeln. ein mehrwert, den man AMD-grafik nicht nutzen kann und wenn, dann nur mit krüppeligem hdmi-1.4-stereosupport und 720p auflösung @60Hz.


(..)

mfg
tobi

Knuddelbearli
2013-11-13, 12:57:50
Irgendwie aber auch ungeil, wenn ein neuer Treiber die eigene Karte lauter machen kann.

was den daran neu? war doch schon immer so wenn ein Treiber mehr Performance bringt wirds lauter.

Da ist man jetzt eigentlich sogar besser, da es nicht mehr lauter wird :freak:

Iruwen
2013-11-13, 13:03:47
was den daran neu? war doch schon immer so wenn ein Treiber mehr Performance bringt wirds lauter.

Aber nicht so, dass es die geplante Performance erst dadurch gibt, dass es lauter wird :biggrin:

Knuddelbearli
2013-11-13, 13:39:29
was für eine geplante Performance?

und wie gesagt wo ist da der unterschied zu zB Bf3 Patch wo es mal eben +25% fps gab und wo die Karte dann natürlich auch entsprechend lauter wurde.

Iruwen
2013-11-13, 14:11:56
Der angegebene Takt.

MORPHiNE
2013-11-13, 18:13:57
Habe meine 290X gerade eingebaut. Der Lüfter ist ja jetzt nicht so besonders laut. Das Lauteste ist noch das Strömungsrauschen am Auslass. Muss man vermutlich aufschneiden, besonders schlau ist das Design dort wohl wirklich nicht. Vom Radiallüfter höre ich nichts.
Ihr hattet wohl noch nie eine HD4870X2 im Rechner :freak:

Und das ganze Internet ist deswegen am Weinen :rolleyes:

Hübie
2013-11-13, 18:21:30
Ein schlechtes Produkt wird aber nicht durch ein noch beschisseneres legitimiert. Ich beziehe mich dabei auf den Kühler, nicht unbedingt auf die GPU bzw. das PCB.
Wie man gut kühlt zeigen etliche AIBs regelmäßig. Warum AMD so langsam lernt ist mir nicht klar. nVidia hats halbwegs verstanden.

TobiWahnKenobi
2013-11-13, 19:03:13
Ein schlechtes Produkt wird aber nicht durch ein noch beschisseneres legitimiert. Ich beziehe mich dabei auf den Kühler, nicht unbedingt auf die GPU bzw. das PCB.
Wie man gut kühlt zeigen etliche AIBs regelmäßig. Warum AMD so langsam lernt ist mir nicht klar. nVidia hats halbwegs verstanden.

woran machst du "beschisseneres" fest? an den 1000mb ram, die es weniger hat oder an der besseren kühlung, der konstanteren leistung, dem höheren preis oder gar an achso unnützen features wie 3dvision, cuda, physx und gsync?

würde mich jetzt echt mal interessieren.


(..)

mfg
tobi

Pirx
2013-11-13, 19:13:52
woran machst du "beschisseneres" fest? an den 1000mb ram, die es weniger hat oder an der besseren kühlung, der konstanteren leistung, dem höheren preis oder gar an achso unnützen features wie 3dvision, cuda, physx und gsync?

würde mich jetzt echt mal interessieren.


(..)

mfg
tobi
Du siehst auch überall, selbst wenn es um AMD geht, gefährliche Angriffe auf nV, oder?:lol:

TobiWahnKenobi
2013-11-13, 19:20:07
angriffe ja.. gefährlich? nicht wirklich.. fehlt ja jede substanz. zumal es immer die selben sind, die sich ähnlich äussern. wenn es denn wenigstens kunden wären.. aber das ist mir zu teuer.. das zu laut.. das zu proprietär.. von 3d krieg ich kopfweh.. 60hz sind genauso gut wie 120+.. mimimimi

"kunde" ist übrigens der grund, warum ich mekkern darf.. ich bin AMD und nVidia und intel -kunde und zugleich konsumgeiler privatuser mit ambitionen in jede technische richtung, die irgendwie mit grakas möglich ist.. mir bringen weder virales marketing noch sinkende respektive steigende verkaufszahlen bei einem iHV irgendwas.


(..)

mfg
tobi

gedi
2013-11-13, 19:27:26
woran machst du "beschisseneres" fest? an den 1000mb ram, die es weniger hat oder an der besseren kühlung, der konstanteren leistung, dem höheren preis oder gar an achso unnützen features wie 3dvision, cuda, physx und gsync?

würde mich jetzt echt mal interessieren.


(..)

mfg
tobi


3D funktioniert hier auch abseits der von dir kolportierten 720p mit 60hz. Cuda braucht aufgrund überlegener GPGPU-Performance nicht wirklich jeder, zu PhysX wurde bereits zur genüge diskutiert und gsync funktioniert afaik vorerst nicht mit jeder Konfiguration. Was für mich übrig bleibt ist eine sehr schnelle Karte, welche keine aktuelle API unterstützt, aufgrund der lediglich 3gb an Speicher wohl mehr und mehr Kompromissbereitschaft erfordert und tatsächlich sehr teuer ist. Wenn es schon NV sein muss, dann nur eine Titan. Wen interessiert schon der Preis, wenn ich jährlich 10$ an Stromkosten einsparen kann?

BTT: Der AC3 ist drauf und schon ist das Teil silenttauglich :)

TobiWahnKenobi
2013-11-13, 19:31:54
ich glaube eher, du ärgerst dich, keine Ti gekauft zu haben. plöd, dass man ne verbastelte karte nichtmal zurückschicken kann.
ging doch um ne 290x + 60€ kühler, oder?

den ersten satz kannst du mir ja mal erklären - darauf bin ich gespannt wie ein flitzebogen. immerhin kommt meine 290 auch in 1-2 tagen und jedes hier rumstehende gerät ist 3D fähig.. von TFT bis TV bis beamer. über titan kann jedes meiner gerät stereoskopische ausgabe.. und der bleibt vllt. sogar neben der AMD stecken. toll, wenn man direkt im selben rechner vergleichen kann -> versprochen.


da jetzt einen gewinnen zu küren ist allerdings nicht mein ziel. das sollen lieber die machen, die sich aus irgendwelchen gründen auf technik eines iHVs festlegen müssen. ich freue mich eher, wenn bei jedem das versprochene funktioniert und das auf dauer nervigere oder weniger oft genutzte wandert in den zweitrechner, wird an den kleinen bro vererbt oder verkauft.



(..)

mfg
tobi

Rancor
2013-11-13, 20:13:56
Habe meine 290X gerade eingebaut. Der Lüfter ist ja jetzt nicht so besonders laut. Das Lauteste ist noch das Strömungsrauschen am Auslass. Muss man vermutlich aufschneiden, besonders schlau ist das Design dort wohl wirklich nicht. Vom Radiallüfter höre ich nichts.
Ihr hattet wohl noch nie eine HD4870X2 im Rechner :freak:

Und das ganze Internet ist deswegen am Weinen :rolleyes:

Das kann man sich auch schön reden. Wer eine R290X im Uber Modus nicht als laut bezeichnet ist hörgeschädigt oder nahezu taub. Ansonsten ist es eine fette Karte, wayne Stromverbrauch

-=Exlopan=-
2013-11-13, 20:16:46
Moin, habe mir eine 290x zugelegt und bin sehr zufrieden! Preis-/Leistungsverhältnis ist gut! Zum Thema Lautstärke kann ich nichts negatives schreiben. Habe ein Fractal R4 Case mit ausreichend Lüftern und kann nichts bemängeln. Wenn ich zocke habe ich ein Headset auf und höre quasi nix vom System, wenn die Karte bei BF4 auf Ultra etwas gefordert wird. Die Custom-Modelle werden sicherlich mit besseren Lüftern ausgestattet...aber wie gesagt selbt mit dem "Refrenzpuster" habe ich keine Probleme. Dass die Karte 94 Grad heiß wird ist im ersten Moment verblüffend, aber im Betrieb kein Problem. Habe ein 530 Watt NT was problemlos harmoniert. Greetz Exlopan

Ätznatron
2013-11-13, 20:17:02
Irgendwie muss ich gedi Recht geben:

Wenn es schon NV sein muss, dann nur eine Titan.

Die Ti ist der schnellste Speicherkrüppel aller Zeiten.

Die 3 GB brechen ihr das Genick.

Rente
2013-11-13, 20:22:30
So ein Quark, bis 4k wirklich relevant ist reichen auch 3GB. Nach der Argumentation müsste ja auch die 280X (und die 79xx) schon immer Krüppel gewesen sein.

-=Exlopan=-
2013-11-13, 20:24:34
:)

Ätznatron
2013-11-13, 20:31:34
So ein Quark, bis 4k wirklich relevant ist reichen auch 3GB. Nach der Argumentation müsste ja auch die 280X (und die 79xx) schon immer Krüppel gewesen sein.

4k ist nicht ausschlaggebend. 3 GB sind auch anderweitig und auflösungsunabhängig schnell zum Überlaufen gebracht.

Dem Otto Normalverbraucher reichen 3 GB vielleicht noch.

Dem Enthusiasten bestimmt nicht mehr.

Und was die anderen Katen anbelangt, sind diese mittlerweile einer anderen Leistungsklasse zuzuordnen als noch zu ihrem Erscheinungstermin.

Die absolute Leistungsspitze erreichen heute beide Karten natürlich nicht mehr.

Rancor
2013-11-13, 20:38:03
Boahh Leute 3GB Speicher sind mehr als ausreichend für allen scheiss. Für 4K sind alle aktuellen Karten viel zu langsam.

Ätznatron
2013-11-13, 20:43:25
Boahh Leute 3GB Speicher sind mehr als ausreichend für allen scheiss. Für 4K sind alle aktuellen Karten viel zu langsam.

Falsch schon allein aufgrund der unzulässigen Pauschalisierung.

Zudem: Es gibt genügend Gegenbeweise.

Rancor
2013-11-13, 20:45:22
Falsch schon allein aufgrund der unzulässigen Pauschalisierung.

Zudem: Es gibt genügend Gegenbeweise.

Zeig mir mal relevante? Wo eine Karte mit 4GB Karte wesentlich schneller ist als eine mit 3GB. Ich bin gespannt.

Schonmal vorab: Die Speicherauslastung die diverse Programme anzeigen, sagen so gut wie nichts über den Speicherbedarf aus !

Raff
2013-11-13, 20:47:54
Zeig mir mal relevante? Wo eine Karte mit 4GB Karte wesentlich schneller ist als eine mit 3GB. Ich bin gespannt.

Schonmal vorab: Die Speicherauslastung die diverse Programme anzeigen, sagen so gut wie nichts über den Speicherbedarf aus !

Lass mich bisschen frickeln und ich find dir 2-3 Fälle. :ugly: Mit Dual-GPU sowieso.

MfG,
Raff

Ätznatron
2013-11-13, 20:48:39
Zeig mir mal relevante? Wo eine Karte mit 4GB Karte wesentlich schneller ist als eine mit 3GB. Ich bin gespannt

Warum wesentlich schneller? Darum geht's doch gar nicht.

Im Falle eines Falles: Es gibt keine hässlichen Einbrüche wegen möglicher Nachladeruckler.

Alleine das reicht doch schon.

PS: Schonmal vorab: Die Speicherauslastung die diverse Programme anzeigen, sagen so gut wie nichts über den Speicherbedarf aus !

In diesen Mythos flüchten sich die Gutheisser mageren Speicherausbaus gerne.

Hübie
2013-11-13, 20:50:22
woran machst du "beschisseneres" fest? an den 1000mb ram, die es weniger hat oder an der besseren kühlung, der konstanteren leistung, dem höheren preis oder gar an achso unnützen features wie 3dvision, cuda, physx und gsync?

würde mich jetzt echt mal interessieren.


(..)

mfg
tobi

Okay du hast mich wohl missverstanden. Ich bezog mich auf den post vor mir wo gesagt wird dass der Kühler "besser" sei als der einer 4870X². Die war derbe beschissen und das legitimiert ja nicht das Dasein der Brüllmaschine auf der 290(x). Selbst im Quiet ist die unangenehm.
Nun verstanden? ;)

aufkrawall
2013-11-13, 20:56:27
Lass mich bisschen frickeln und ich find dir 2-3 Fälle. :ugly: Mit Dual-GPU sowieso.

MfG,
Raff
Auch mit Dual-GPU brauchts für hohe fps momentan nicht mehr als 3GB.
Real world wohlgemerkt. Irgendwelche Frickel-Szenarien, die 99% 99% der Zeit nicht interessieren, interessieren mich nicht. :rolleyes:

Bf4 läuft in 1080p mit 125% Auflösung mit 2GB auf 2 670 OCs gerade so flüssig genug.
Das kann man wohl auf zwei 780 Tis 3GB in 1440p übertragen.

Ätznatron
2013-11-13, 21:01:56
Real world wohlgemerkt. Irgendwelche Frickel-Szenarien, die 99% 99% der Zeit nicht interessieren, interessieren mich nicht. :rolleyes:


Ich denke mal, dass die Frickel-Szenarien eher zur Real World gehören als die einschränkenden Sonderinteressen eines aufkrawall.

Rancor
2013-11-13, 21:33:04
Warum wesentlich schneller? Darum geht's doch gar nicht.

Im Falle eines Falles: Es gibt keine hässlichen Einbrüche wegen möglicher Nachladeruckler.

Alleine das reicht doch schon.

PS:

In diesen Mythos flüchten sich die Gutheisser mageren Speicherausbaus gerne.

Dann zeig doch mal eins deiner ( mehr als genug ) Beispiele ?

Ätznatron
2013-11-13, 21:56:16
Dann zeig doch mal eins deiner ( mehr als genug ) Beispiele ?

X-Plane (http://www.x-plane.com/de/downloads/uebersicht/)

http://www.computerbase.de/forum/showthread.php?t=636865&highlight=x+plane

Dazu noch ein, zwei HD-Texturen und die >3GB Party ist perfekt.

aufkrawall
2013-11-13, 22:03:37
Irgendwelche Nischenspiele mit kack Ressourcen-Management wirds immer geben.
Gibt bestimmt auch Anwendungen, die dir 6GB vollaufen lassen.
Ist das jetzt ein valides Anwendungsszenario, das bedacht werden muss?
Wenn man nen VRAM-Fetisch hat, vielleicht. Oder einfach Fanboy der Firma ist, die gerade mehr anbietet.

Ätznatron
2013-11-13, 22:04:33
Irgendwelche Nischenspiele mit kack Ressourcen-Management wirds immer geben.
Gibt bestimmt auch Anwendungen, die dir 6GB vollaufen lassen.
Ist das jetzt ein valides Anwendungsszenario, das bedacht werden muss?
Wenn man nen VRAM-Fetisch hat, vielleicht. Oder einfach Fanboy der Firma ist, die gerade mehr anbietet.

Gut, dass X-Plane genau dazu nicht gehört.

nVidia bietet 6 GB!

Die 780 Ti hat es speichermäßig vergeigt.

Rancor
2013-11-13, 22:21:56
X-Plane (http://www.x-plane.com/de/downloads/uebersicht/)

http://www.computerbase.de/forum/showthread.php?t=636865&highlight=x+plane

Dazu noch ein, zwei HD-Texturen und die >3GB Party ist perfekt.

Ich sehe da keine Benchmarks, sondern nur der belegte VRAM der Karten und der ist dort immer weit unter 3GB. Was sollen diese Beispiele ?

Du hast immer noch keine Beispiel geliefert wo eine 3GB Karte nicht spielbare FPS liefert, eine 4GB Karte jedoch schon....

Ätznatron
2013-11-13, 22:33:21
Ich sehe da keine Benchmarks, sondern nur der belegte VRAM der Karten und der ist dort immer weit unter 3GB. Was sollen diese Beispiele ?

Du hast immer noch keine Beispiel geliefert wo eine 3GB Karte nicht spielbare FPS liefert, eine 4GB Karte jedoch schon....

Es geht doch nicht um Benchmarks. Mehr VRAM dient in erster Linie dazu, Nachladeruckler zu vermeiden.

Persönlich kann ich dir mit meiner 3 GB GTX 780 Szenerien darstellen, in denen genau im Moment des Speicherüberlaufs die FPS in den Keller gehen.

Das kann bzw. konnte ich genau so gut mit einer 1 GB HD 6950 vs einer 2 GB HD 6950.

Sobald der VRAM voll -> unschöne FPS-Einbrüche.

Und diese durchaus existierenden Einbrüche sind einer Karte mit High End Anspruch unwürdig.

-=Exlopan=-
2013-11-13, 22:37:43
Ziemlich offtopic...für einen 290x review-thread. etwas zu allgemein...

gedi
2013-11-13, 22:50:46
ich glaube eher, du ärgerst dich, keine Ti gekauft zu haben. plöd, dass man ne verbastelte karte nichtmal zurückschicken kann.
ging doch um ne 290x + 60€ kühler, oder?

den ersten satz kannst du mir ja mal erklären - darauf bin ich gespannt wie ein flitzebogen. immerhin kommt meine 290 auch in 1-2 tagen und jedes hier rumstehende gerät ist 3D fähig.. von TFT bis TV bis beamer. über titan kann jedes meiner gerät stereoskopische ausgabe.. und der bleibt vllt. sogar neben der AMD stecken. toll, wenn man direkt im selben rechner vergleichen kann -> versprochen.


da jetzt einen gewinnen zu küren ist allerdings nicht mein ziel. das sollen lieber die machen, die sich aus irgendwelchen gründen auf technik eines iHVs festlegen müssen. ich freue mich eher, wenn bei jedem das versprochene funktioniert und das auf dauer nervigere oder weniger oft genutzte wandert in den zweitrechner, wird an den kleinen bro vererbt oder verkauft.



(..)

mfg
tobi


Ich bin froh an meiner 290x. Die Garantie geht für gewöhnlich auch durch das Flashen eines Mod-Bios flöten. Zudem hat der Kühler bei Hardwareversand lediglich 40€ gekostet. In der Summe 530€ sind noch gerade so angemessen, imo :)

Zu 3D: Als Ausgabegerät benütze ich einen Samsung UE55ES8090. Die einzige Regel, welche es zu beachten gilt: Die Anwendung muss zwingend über Trifdef gestartet werden, denn ansonsten sind es gesyncte 30 fps. Ein weiterer Nachteil: In F1 2013 funktioniert in 3D kein MSAA (die Funktion ist ausgegraut).

Iruwen
2013-11-14, 10:50:32
Persönlich kann ich dir mit meiner 3 GB GTX 780 Szenerien konstruieren

Ich hab das mal korrigiert. Und geliefert haste immer noch nix, nur haltlose Behauptungen aufgestellt. Zumal das das ja in wirklich vielen Titeln zutreffen muss, denn 3GB sind ja

auch anderweitig und auflösungsunabhängig schnell zum Überlaufen gebracht.

:rolleyes:

TobiWahnKenobi
2013-11-14, 10:54:38
Ich bin froh an meiner 290x. Die Garantie geht für gewöhnlich auch durch das Flashen eines Mod-Bios flöten. Zudem hat der Kühler bei Hardwareversand lediglich 40€ gekostet. In der Summe 530€ sind noch gerade so angemessen, imo :)

Zu 3D: Als Ausgabegerät benütze ich einen Samsung UE55ES8090. Die einzige Regel, welche es zu beachten gilt: Die Anwendung muss zwingend über Trifdef gestartet werden, denn ansonsten sind es gesyncte 30 fps. Ein weiterer Nachteil: In F1 2013 funktioniert in 3D kein MSAA (die Funktion ist ausgegraut).


also immernoch tridef - ach herje - hoffe, dass meine beiden lizenzen noch irgendwie gültig sind. verglichen mti 3DVison ist tridef ganz großer schrott mit fummelpotenzial und oft gibt es neben unpassenden bildern mit überlappenden rändern, MSAA-inkompatiblität und widerliche dopplungen - da spielt man eher mit den möglichen einstellungen als das spiel ansich. das vergleiche ich seit es den krempel gibt; zuletzt mit version 5.7 im februar.

http://www.abload.de/img/41pf13.png

toll.. jetzt habe ich schon wieder angst, titan abzustoßen.


(..)

mfg
tobi