PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon R9 Fury X: (P)Review-Thread


Seiten : 1 2 3 4 5 [6] 7 8 9 10 11 12 13 14

PCGH_Carsten
2015-06-28, 10:41:31
Ich verstehe echt nicht wieso man da überhaupt Diskutieren muss... Bei der Leistung geben wir ja auch nicht nur das best / worst case an sondern den Durchschnitt wieso also nicht bei der Leistungsaufnahme?

Eigentlich geben die meisten inzwischen bei der Leistung, sprich den Fps, die Minimum/Average-Fps an unterstützt von Frametime-Messungen hier und da.

Warum sollte man gerade bei Verbrauchsmessungen andere Maßstäbe anlegen: Was bei Spiele-Leistung die Min-Fps sind bei Verbrauchsmessungen die Hochlastphasen. Es bewertet ja auch keiner die 3D-Performance der Karte nach Trackmania Nations/Counter Strike: Go/DOTA2 in 1.680×1.050 ohne AA/AF (als fiktives Beispiel für eine Niedriglast), oder?

--
Da hier eh grad alle am Disktuieren wegen Power-Messungen sind: Reine Compute-Lasten sind zwar sicherlich auch ein spannender Datenpunkt, vergessen aber gern mal, dass der Grafikchip eine Menge ROPs-, Rasterizer- und Setup-Schaltungen hat, die in solchen Fällen mehr oder weniger idlen dürfen.

Eine mMn sinnvolle Näherungsweise: Eine möglichst breite Auswahl an Spielen durchprobieren und dabei erstmal das Power-Meter an der Steckdose im Auge behalten. Von den Top5 oder Top10 dann detaillierte Messungen mit variierender CPU-Last, Auflösung und Detailstufen (u.a. Tessellation), um zumindest einschätzen zu können, wo mögliche Bottlenecks liegen.

Konstruiertes Extrembeispiel zur Verdeutlichung: Metro 2033 mit GPU-Physx. Wird auf Nvidia sehr energieintensiv sein und bei Radeon-Karten für viel Langeweilse sorgen, dafür dort aber wohl mit mehr/minder stromhungriger CPU skalieren.

--
Danke für die Info mit der Pixelfüllrate. Bin auch auf eine Merkwürdigkeit gestoßen. Bei Metro Last light und aktiviertem 1xssaa bricht die Karte voll weg.

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/35798-amd-radeon-r9-fury-x-im-test.html?start=16

sehr seltsam.

Wahrscheinlich bedarf der HBM Speicher mehr Treiberpflege und Anpassungen im Spiel als GDDR5

Frag mal Raff …
Füllratenmessungen ergeben jedenfalls keine Auffälligkeiten beim Zuschalten von Supersample-AA (und schon gar nicht 1×SSAA *SCNR*)

Und den Vantage allein würd' ich nicht als Aussage hernehmen, schließlich misst der sogar offiziell die Füllrate, die bei Fiji im Vergleich zu Hawaii pro Takt gleich ausfällt. Hier kann Fiji durch HBM nur bei Blending & Co. profitieren, vor allem bei bandbreitenintensiven Tests, z.B. mit FP16-Targets. Da liegt er dann auch standesgemäß vor Hawaii. Synthies waren noch nie AMDs Problem.
http://www.hardware.fr/articles/937-4/performances-theoriques-pixels.html

(del)
2015-06-28, 10:44:53
Eine MmN sinnvolle Näherungsweise: Eine möglichst breite Auswahl an Spielen durchprobieren und dabei erstmal das Power-Meter an der Steckdose im Auge behalten. Von den Top5 oder Top10 dann detaillierte Messungen mit variierender CPU-Last, Auflösung und Detailstufen (u.a. Tessellation), um zumindest einschätzen zu können, wo mögliche Bottlenecks liegen.

Da sind wir uns ja einig :)

Dann doch besser 3-4 verschiedene, wirklich reproduzierbare Szenen über jeweils eine Minute, diese dann einzeln ausweisen und noch einmal kumulieren.

Ich brauche es stabil übers Jahr, möglichst sogar treiberneutral, weil sich sonst alle alten Werte in die Tonne treten lassen. Siehe Heaven, der bisher den Durchschnitt bei NV und AMD bestens repräsentierte und grandios versagt, wenn eine Karte (oder der Treiber) aus dem Rahmen fällt. Neues Spiele mit vielen Unwägbarkeiten der Weiterentwicklung (Patch, Treiber usw.) taugen schlecht für Langzeitstatistiken. Leider.

fondness
2015-06-28, 10:47:51
Eigentlich geben die meisten inzwischen bei der Leistung, sprich den Fps, die Minimum/Average-Fps an unterstützt von Frametime-Messungen hier und da.

Warum sollte man gerade bei Verbrauchsmessungen andere Maßstäbe anlegen: Was bei Spiele-Leistung die Min-Fps sind bei Verbrauchsmessungen die Hochlastphasen. Es bewertet ja auch keiner die 3D-Performance der Karte nach Trackmania Nations/Counter Strike: Go/DOTA2 in 1.680×1.050 ohne AA/AF (als fiktives Beispiel für eine Niedriglast), oder?


Das erklärt nicht warum ihr auf avg Werte verzichtet. Ihr legt also bei den Verbrauchsmessungen andere Maßstäbe an, denn es gibt niemand bei den fps ausschließlich die min-Werte an.

Menace
2015-06-28, 10:58:20
Steinigt mich nicht, aber viele Angaben (fps, Watt, etc.) besitzen doch eine "Pseudo-Genau" Angabe, die der Realität doch häufig gar nicht entsprechen, da sie sowieso über viele Werte berechnet wurden. Ich habe z.B. gestern ein paar 4K-Werte tabellarisch vergleichen und einen Mittelwert ausgerechnet. Durch das Hinzufügen von Civ konnte man den Durchschnittswert so stark nach oben heben, dass man auf einmal meinen könnte, dass 4K-FPS gar keine Probleme mehr darstellen.

Früher gab es gibt bei Gamestar "Technik-Check"-Tabellen, (http://www.gamestar.de/spiele/the-witcher-3-wild-hunt/artikel/the_witcher_3_wild_hunt_systemanforderungen,49062,3085863,7.html#technik-tabelle) die durch einfache Farbangabe zeigten, welche CPU, welche GPU für welches Spiel mit welcher Auflösung reicht. Wäre es nicht ehrlicher und einfacher solche Farbtabellen auch bei Grafikkarten zusätzlich zu den Balkenlängen anzugeben? Durch die Balkenlänge wird doch eigentlich der wahre Wert einer Grafikkarte dadurch verzerrt, dass z.B. 980 Ti als "langsamer" dargestellt wird, wobei die Unterschiede doch nur akademischer Natur sind.

Tabelleneinteilungen könnten nach folgenden Spalten/Reihen aufgeteilt sein: Z.B. welches Netzteil wird benötigt? Welcher Energieverbrauch bei OpenCl-Anwendung? Grober Durchschnittsverbrauch bei Spielesammlung XY, YZ.
Oder denke ich da zu Durchschnittskundenmäßig und verpasse die wichtige Zielgruppe der Jugendliche, für die nur die längste Balkenlänge zählt?

PCGH_Carsten
2015-06-28, 10:58:25
Das erklärt nicht warum ihr auf avg Werte verzichtet. Ihr legt also bei den Verbrauchsmessungen andere Maßstäbe an, denn es gibt niemand bei den fps ausschließlich die min-Werte an.
Stimmt.


Ich brauche es stabil übers Jahr, möglichst sogar treiberneutral, weil sich sonst alle alten Werte in die Tonne treten lassen. Siehe Heaven, der bisher den Durchschnitt bei NV und AMD bestens repräsentierte und grandios versagt, wenn eine Karte (oder der Treiber) aus dem Rahmen fällt. Neues Spiele mit vielen Unwägbarkeiten der Weiterentwicklung (Patch, Treiber usw.) taugen schlecht für Langzeitstatistiken. Leider.
Darum braucht es auch elend viel Zeit, Grafikkarten gescheit zu testen.

(del)
2015-06-28, 10:58:56
Würde man es echt allen Recht machen wollen und alles bis ins Detail abdecken, dann würden solche Messungen länger als das ganze Spielerumgebenche dauern und es würde einem trotzdem keiner danken. Aufwand und Nutzen? Ich mag gar nicht dran denken :)

fondness
2015-06-28, 11:00:30
Stimmt.


Und eine Antwort warum keine avg-Werte angegeben werden willst du nicht geben? Ein halbwegs modernes Messgerät sollte doch neben Max-Werten auch kwh ausspucken können, oder zumindest eine Durchschnitt berechnen können. Sofern das so ist sollte sich der zusätzliche Aufwand dafür sehr in grenzen halten.

Datarecovery09
2015-06-28, 11:05:53
Ich verstehe ehrlich gesagt nicht, warum immer noch so ein Aufriss um diese Messungen gemacht wird. Es ist doch bekannt, dass der Verbrauch moderner Grafikkarten auch davon abhängt, was genau man damit macht.
Weder PCGH noch TH noch irgendeine andere Seite kann deshalb für sich in Anspruch nehmen, mehr als nur einen Teil der Realität abzubilden. Das ist auch nicht tragisch oder ein großes Unglück, denn diese Verbrauchswerte sollten m. E. ohnehin nur dazu dienen, den Durchschnittsverbrauch grob abzuschätzen und das Netzteil ordentlich zu dimensionieren. Dass diese Messungen in den Foren aber bis aufs letzte Watt gegeneinander gehalten werden, kann niemals Sinn und Zweck des Ganzen gewesen sein und wird weder der Wirklichkeit gerecht noch der Mühe, die zweifellos in diese Tests geflossen ist.

Insofern ist es wohl das einzig vernünftige, sich möglichst viele Tests anzuschauen, das eigene Gehirn einzuschalten und selbst seine Schlüsse zu ziehen. Dann sieht man im Fall FuryX, dass sich der Durschnittsverbrauch knappe 50W oberhalb der 980Ti einordnet - Welten, sage ich euch, ganze Welten! :freak:
Warum die Gemüter so hochkochen und mit Vorwürfen gegen Redaktionen und Tester nur so um sich geschmissen wird, das ist mir angesichts dieser Werte unbegreiflich.

Mein persönliches Fazit zur FuryX lautet bisher, dass die Karte grob auf Augenhöhe mit der 980Ti ist. Die FHD-Werte sind für mich persönlich relativ uninteressant, und bei höheren Auflösungen egalisiert sich der Unterschied zwischen beiden Karten dann auf den niedrigen einstelligen Prozentbereich.
Zudem beschleicht mich bei Nvidia-Karten immer der Argwohn, wie lange sie eigentlich gut bleiben - bei den letzten Generationen waren Nvidia-Karten bei Release immer wie Fruchtsaft, AMD-Karten wie Rotwein: Das eine genießt man lieber frisch, den anderen sollte man besser noch ein wenig reifen lassen...

PCGH_Carsten
2015-06-28, 11:06:44
Und eine Antwort warum keine avg-Werte angegeben werden willst du nicht geben? Ein halbwegs modernes Messgerät sollte doch neben Max-Werten auch kwh ausspucken können, oder zumindest eine Durchschnitt berechnen können. Sofern das so ist sollte sich der zusätzliche Aufwand dafür sehr in grenzen halten.
Ja, wir können den Average-Wert erst am Jahresende nach der Abrechnung durch den örtlichen Energieversorger angeben. :ugly:

--

Warum die Gemüter so hochkochen und mit Vorwürfen gegen Redaktionen und Tester nur so um sich geschmissen wird, das ist mir angesichts dieser Werte unbegreiflich.
Das ist immer so, egal bei wem. Wenn Nvidia mit typischem Boost getestet wird, sind es die grünen Propellerjungs, die auf die Barrikaden gehen, bei hoher Leistungsaufnahme ist es inzwischen eben die AMD-Red-Team-Plus-Fraktion, denen zu Fermi-Zeiten noch jedes Watt heilig war.

Was viele dabei übersehen: +/-5% wird im Alltag ohne direkten Vergleich KEINER bemerken.

fondness
2015-06-28, 11:09:40
Ja.

Nagut dann eben nicht. War nur eine Frage. Ich nehme zur Kenntnis, das nachfragen unerwünscht ist und man bestenfalls ein Wort als Antwort bekommt.

PCGH_Carsten
2015-06-28, 11:22:12
Nagut dann eben nicht. War nur eine Frage. Ich nehme zur Kenntnis, das nachfragen unerwünscht ist und man bestenfalls ein Wort als Antwort bekommt.
Akzeptiert. :ugly: Muss wohl damit leben, dass ausführliche, redundante Erklärungen nötig sind, wenn ich in meiner Freizeit an einem Sonntag mit schönen Wetter hier mal kurz reinschaue. Sorry dafür, wird nicht wieder vorkommen. :)

Siehe mein edit des vorigen Postings, welches vor deinem Edit tatsächlich nur ein Wort enthielt.

fondness
2015-06-28, 11:23:55
Das ist immer so, egal bei wem. Wenn Nvidia mit typischem Boost getestet wird, sind es die grünen Propellerjungs, die auf die Barrikaden gehen, bei hoher Leistungsaufnahme ist es inzwischen eben die AMD-Red-Team-Plus-Fraktion, denen zu Fermi-Zeiten noch jedes Watt heilig war.


Die Leute, über die du dich hier so herablassend auslässt sind wesentlich dafür verantwortlich, dass sich euer Magazin verkauft. Denk mal drüber nach. Beleidigt sein ist da sicher nicht das richtige Rezept.

Und es ist auch sicher nicht meine Absicht dich oder irgend jemand anderen hier zu nerven. Ich dachte nur wenn du dich schon darüber äußerst kann man ja mal nachfragen. In diesem Sinne noch einen schönen Sonntag.

Knuddelbearli
2015-06-28, 11:35:10
Das ist immer so, egal bei wem. Wenn Nvidia mit typischem Boost getestet wird, sind es die grünen Propellerjungs, die auf die Barrikaden gehen, bei hoher Leistungsaufnahme ist es inzwischen eben die AMD-Red-Team-Plus-Fraktion, denen zu Fermi-Zeiten noch jedes Watt heilig war.


Nana da willst du jetzt aber die Kritikern hier bewusst was falsches vorwerfen, um sie einfach als Fanboys abzutun.
Es geht eben darum das man eine brauchbare Aussage haben will damit man sagen kann ob Verbrauch nun viel ist oder wenig. Wozu Worst case eben unbrauchbar sind ( Das Beispiel das man das bei FPS Werten ja auch nicht macht habe ich ja schon x mal gebracht ). Und das es eben falsch ist einen Worstcaseverbrauch einer ungedrosselten Karte als Verbrauch anzugeben, auch weil im Wort Verbrauch bereits das Wort Durchschnitt bereits impliziert wird*, oder auch so ein Wert einer gedrosselten Karte gegenüber zustellen.

*man redet ja immer von Verbrauch und meint damit beim Gefrierschrank dann eben nicht die 1,5kWh wenn der Kompressor läuft

MadManniMan
2015-06-28, 11:37:36
So bei Unigine Heaven verbraucht mein System 15 Watt weniger als in Witcher 3. Rechnen wir diese 15 Watt auf FuryX 220+15 sind wir bei 235 Watt und immer noch weit von den >300 Watt entfernt.

Ist W3 ein überdurchschnittlich forderndes Spiel?


Aufgenommene Energie in einem bestimmten Zeitraum?!
ie man lässt einen Gameloop 5min laufen und misst in der Zeit die aufgenommene Energie des Gesamtsystemes.

Denn Peak Messungen sind mit aktuellen Karten einfach mal völliger Blödsinn, aufgrund der Funktionsweise der Stromsparmechanismen.

So kann es dann auch sein, dass die Karte, die auf dem Papier schlechter ausschaut, in der Praxis besser ist. Eben weil der Peak Wert deutlich über dem Durchschnitt liegt...

1) Vorweg muss man natürlich konstatieren, dass Du einen Scheiß darauf geben würdest, würde hier Nvidia irgendwie benachteiligt, richtig? ;)

2) Es ist kein Peak. Es ist ein Szenario, das in einem Spiel vorkommt und darlegt, womit man rechnen muss. Anhand dieser Szene kann man besser beurteilen, wie man die Stromversorgung und die Kühlung des Gesamtsystems dimensionieren sollte, als bei CS:GO mit Framelimiter auf 100 FPS, was bestimmt das realistischer Szenario wäre. Peak wäre die absolute Lastspitze, ein globales Maximum.

Meiner bescheidenen Meinung nach sollten Verbrauchs-Zeit-Verläufe verwendet werden.


Optimal wäre ein Benchmarkschleife von mehreren Spielen und Synthis, die automatisch abläuft. Dieser Schleife dauert zb. 30min, in der alle möglichen Spiele getestet werden. Am Rechner sollte dann ein kWh-Messgerät hängen, dass den Verbrauch protokolliert und am besten noch eine Exportfunktion der Daten hätte. Ich weiß nicht wie PCGH und Co. arbeiten, aber wenn sie die Benchmarks händisch starten müssen, tun mir die Leute dort leid.

Dann hast Du aber kein isolierte Aussage über den Graka-Verbrauch.


Die Benchmarks Scene ist ein Witz. Es ist nichts weiter als eine Längere Peak Messung. Es wird Einfach auf eine größere Stadt gezeigt wo ne Atombome in die luft geht.

Nochmal: es ist kein Peak UND es ist ein Datenpunkt der so, wie er aufgenommen wurde, reliabel und objektiv ist - einzig die Validität passt nicht, aber da teilt er das Schicksal mit Unigine Heaven.


Wo der Autor hier schon x mal geschrieben hat das Heaven genau dem entspricht was er als Durchschnitt in 5 anderen Spielen gemessen hat...

Ja, und? Wenn die Zahl angeben soll, was im Schnitt bei den Spielen raus kommt ...


Als Verbrauch ist für mich damit das die Referenz! PCGH ist für mich nur dazu da damit man weiss wie groß das Netzteil dimensioniert sein sollte ( wobei eigentlich nichtmal das da den Swetspot eines Netzteiles bei rund 70% hat und da ist dann noch mehr als genug Buffer für die höheren Verbräuche bei PCGH )

... kann das gern für Dich die Referenz sein.

Gibt einem das einen vollständigen Überblick über das Verhalten der Karte? Nay.


Ich verstehe echt nicht wieso man da überhaupt Diskutieren muss... Bei der Leistung geben wir ja auch nicht nur das best / worst case an sondern den Durchschnitt wieso also nicht bei der Leistungsaufnahme?

Bei der Leistung werden nicht auch die Min-FPS angegeben?

Timbaloo
2015-06-28, 12:01:54
Letztlich sind alle Tests zur Leistungsaufnahme Käse die nicht alle für Performance-Messungen herangezogenen Spiele in die Leistungsaufnahme einfliessen lassen (Vergleichbarkeit Performance/Watt).

Die Nutzung vom ZOMG-KRASS-TEUER-OSZILLOSKOP täuscht doch nur Genauigkeit vor die aufgrund der methodischen Fehler (siehe oben) überhaupt nicht gegeben ist.

N0Thing
2015-06-28, 12:02:14
Bei der Leistung werden nicht auch die Min-FPS angegeben?

Mir ist keines bekannt, bei dem man nur die Min-FPS zu sehen bekommt. Wie relevant diese sind, ist ja dank möglichem CPU-Limit und Streaming auch nicht unumstritten.

Von daher wäre ein Verlauf sowohl bei den Frames pro Sekunde wie auch bei der Stromaufnahme eine nahezu ideale Lösung, wobei ich auch eine Angabe über den Gesamtverbrauch nach einer gewissen Zeit interessant finde. Z.B. 6(0) Minuten in Spiel X. Da würde mir auch das Gesamtsystem reichen, damit es praktikabler bleibt.

Timbaloo
2015-06-28, 12:03:38
Da würde mir auch das Gesamtsystem reichen, damit es praktikabler bleibt.
Eben.

MadManniMan
2015-06-28, 12:07:02
Von daher wäre ein Verlauf sowohl bei den Frames pro Sekunde wie auch bei der Stromaufnahme eine nahezu ideale Lösung, wobei ich auch eine Angabe über den Gesamtverbrauch nach einer gewissen Zeit interessant finde. Z.B. 6(0) Minuten in Spiel X. Da würde mir auch das Gesamtsystem reichen, damit es praktikabler bleibt.

Mein Reden. Vielleicht bekommt man da sogar noch Frametimes rein.


Eben.

Gesamtverbrauch? Bitte nicht! Wie soll man denn da den Überblick bewahren, was jetzt auf welche Systemkomponente geht?

Timbaloo
2015-06-28, 12:10:02
Gesamtverbrauch? Bitte nicht! Wie soll man denn da den Überblick bewahren, was jetzt auf welche Systemkomponente geht?
Wofür genau brauchst du den?

Screemer
2015-06-28, 12:12:34
Es werden andauernd leistungsindexe über x spiele gezogen, warum passiert das nicht auch für die Leistungsaufnahme? Kann ja nicht so schwer sein, neben den benchmarkruns auch noch die Leistungsaufnahme mit zu loggen und das ganze am Schluss zu einem durchschnitt zu verrechnen. Zumindest stell ichnmir das netzr nicht so problematisch vor. Lass mich da gerne belehren.

Ideal wäre natürlich ein fps/watt-diagram über die einzelnen Benchmarks. Da sieht man auch die spitzen und die tiefen.

MadManniMan
2015-06-28, 12:19:53
Um die verschiedenen Karten mit ihren Leistungsaufnahmen in Relation setzen zu können und damit zu rechnen? Was ist denn das für eine Frage?

BlacKi
2015-06-28, 12:20:38
ich würde eigentlich auch eine gesammtsystem messung bevorzugen, wenn es um die vergleichbarkeit geht.

man darf aber nicht vergessen das der leser andere also schlechtere/bessere hardware besitzt und die gesammtleistung dazu abweichen kann.

bei einer reine kartenmessung kann man das ausser acht lassen.

MadManniMan
2015-06-28, 12:31:09
man darf aber nicht vergessen das der leser andere also schlechtere/bessere hardware besitzt und die gesammtleistung dazu abweichen kann.

Nicht nur das, denn man könnte auch keinen einzigen zweiten Test zum Vergleich heranziehen.

Screemer
2015-06-28, 12:32:04
Um die verschiedenen Karten mit ihren Leistungsaufnahmen in Relation setzen zu können und damit zu rechnen? Was ist denn das für eine Frage?
Kann man das dann nicht mehr? Aber Leistungsindexe sind OK?! Mit meinem idealvorschlag würden Worstcase und bestcase gleichermaßen abgebildet.

Nicht nur das, denn man könnte auch keinen einzigen zweiten Test zum Vergleich heranziehen.
Weshalb sollte man das nicht können. Das ist mit den unterschiedlichen testsystemen, Benchmarks und Szenen heute auch bei den Leistungsindexen schwer möglich. Jeder kommt da zu nem anderen Ergebnisse und es kommt schlicht auf die Messmethoden an. Die Zusammenhänge muss man sich immer noch selber herauslesen. Stupides vergleichen ist gar nicht möglich.

BlacKi
2015-06-28, 12:38:49
Weshalb sollte man das nicht können. Das ist mit den unterschiedlichen testsystemen, Benchmarks und Szenen heute auch bei den Leistungsindexen schwer möglich. Jeder kommt da zu nem anderen Ergebnisse und es kommt schlicht auf die Messmethoden an. Die Zusammenhänge muss man sich immer noch selber herauslesen. Stupides vergleichen ist gar nicht möglich.

mani hat recht, unterschiedlichenetzteile haben unterschiedliche wirkungsgrade.

soll heißen das karten die eine geringere leistungsaufnahme haben schlechter wegkommen, da das netzteil im schlechteren wirkungsgrad läuft.

eine 750ti mit 60w käme besonders schlecht weg.

Screemer
2015-06-28, 12:48:09
äh, netzteile? ich will keine gesamtsystemmessungen und die hab ich auch nicht vorgeschlagen. da sollte man sich eher an die messtechnik von ht4u oder thg halten.

Thunder99
2015-06-28, 12:52:26
Ihr seit mir echt lustig. Da wird seitenweise über die Leistungsaufnahme diskutiert und das manche diese zu hoch ist und im nvidia Thread wollen viele ihr Powerlimit mittels ModBios erhöhen damit sie den Takt halten kann :freak:. AMD Ansatz finde ich da echt besser. Lieber die Karte verbraucht mehr Strom und man den Takt halten sowieo die fps in der geforderten Szene bringen anstatt genau da herunter zu takten :wink:

DrFreaK666
2015-06-28, 12:54:13
Unglaublich wie sich das entwickelt entwickelt hat. Am Anfang waren nur FPS wichtig (V1 schneller als S3 Virge, Matrix Mystique etc), BQ wurde nur kurz angesprochen (S3 Virge filtert hässlich, Matrox gar nicht, Rendition und PowerVR bieten die beste BQ), Lautstärke hat damals niemanden interessiert (bei den kleinen Lüftern... ^^), und der Stromverbrauch auch nicht, schließlich haben wir damals noch bei Mama und Papa gewohnt :D
Balken waren damals das wichtigste. Moto Racer läuft flüssig ohne dass man den Bildschirm verkleinern muss, das war wichtig.
Heutzutage ist das fast nur Nebensache

Schnoesel
2015-06-28, 12:57:03
Nun so unterschiedlich ist eben die Herangehensweise vom "Boost". Es wird auch gerne immer davon gesprochen das man ne Titan X ja so gut wie immer auf 1,5k prügeln kann, dass man dafür aber einen anderen Kühler + Biosmod braucht und damit auch noch über 400 Watt durch die Karte schickt für die die Stromversorgung eigentlich nicht spezifiziert sind (was ja ein Riesenproblem bei der R9 295X2 war) interessiert da nicht mehr.

Zu oft wird dann eben Leistung @ OC und Verbrauch/Effizienz @ Stock in eine Topf geschmissen. Aber hier mal meckern wenn die Karte 50 Watt mehr verbraucht im Worst Case :freak:

PS: Weiß man schon ob Boardpartner mit Waküs kommen (sowas wie Powercolors LCS?!)

dildo4u
2015-06-28, 13:02:14
Die 980 TI von EVGA geht auf 1.5Ghz und hat die selben Limits wie das Standard PCB.

-/\-CruNcher-/\-
2015-06-28, 13:04:49
Unglaublich wie sich das entwickelt entwickelt hat. Am Anfang waren nur FPS wichtig (V1 schneller als S3 Virge, Matrix Mystique etc), BQ wurde nur kurz angesprochen (S3 Virge filtert hässlich, Matrox gar nicht, Rendition und PowerVR bieten die beste BQ), Lautstärke hat damals niemanden interessiert (bei den kleinen Lüftern... ^^), und der Stromverbrauch auch nicht, schließlich haben wir damals noch bei Mama und Papa gewohnt :D
Balken waren damals das wichtigste. Moto Racer läuft flüssig ohne dass man den Bildschirm verkleinern muss, das war wichtig.
Heutzutage ist das fast nur Nebensache

Du hast anscheinend Effiziente Konsolen und die ganze Mobile Entwicklung verpasst ;)

Schnoesel
2015-06-28, 13:05:51
Die 980 TI von EVGA geht auf 1.5Ghz und hat die selben Limits wie das Standard PCB.

Eine von wie vielen?

Troyan
2015-06-28, 13:09:21
Ihr seit mir echt lustig. Da wird seitenweise über die Leistungsaufnahme diskutiert und das manche diese zu hoch ist und im nvidia Thread wollen viele ihr Powerlimit mittels ModBios erhöhen damit sie den Takt halten kann :freak:. AMD Ansatz finde ich da echt besser. Lieber die Karte verbraucht mehr Strom und man den Takt halten sowieo die fps in der geforderten Szene bringen anstatt genau da herunter zu takten :wink:

Weil die Differenz im Stromverbrauch in die Übertaktung investiert werden kann.

In Anno2070 läuft die GTx980TI Referenzkarte mit 1088Mhz bei Hardware.fr und ist damit zwischen 10% - 15% schneller als Fury X.

Bringt man diese auf 1400Mhz - entspricht 28% mehr - wäre man ~40% schneller bei gleichem Verbrauch oder leicht darüber liegenden.

Timbaloo
2015-06-28, 13:14:52
mani hat recht, unterschiedlichenetzteile haben unterschiedliche wirkungsgrade.

soll heißen das karten die eine geringere leistungsaufnahme haben schlechter wegkommen, da das netzteil im schlechteren wirkungsgrad läuft.

eine 750ti mit 60w käme besonders schlecht weg.
Entschuldigung, aber eine Testseite die das nicht einigermassen rausrechnen kann sollte die Frontseite durch ein fettes 404 ersetzen.

MadManniMan
2015-06-28, 13:16:23
Kann man das dann nicht mehr? Aber Leistungsindexe sind OK?! Mit meinem idealvorschlag würden Worstcase und bestcase gleichermaßen abgebildet.

Ich hatte nicht auf Dich geantwortet :usad: Sondern auf den Post über Dir, wo gefragt wurde, wozu ich Grafikkartenaufnahme vom System isolieren möchte.

Thema Relevanz über die Zeit hinweg: selbstverständlich hat früher nur gezählt, dass vernünftig Bilder auf dem Screen ankamen.

Bis zur GF3 haben die Karten auch maximal 30 Watt gezogen - und außerdem hatten wir alle furchbar laute CPU-Kühler und Netzteile.

Aber sollen wir mit unseren Ansprüchen stehenblieben? Gerade jetzt, wo Faktor 2 jedes Jahr einfach nicht mehr gehalten wird?

MadManniMan
2015-06-28, 13:16:45
Entschuldigung, aber eine Testseite die das nicht einigermassen rausrechnen kann sollte die Frontseite durch ein fettes 404 ersetzen.

Und wie soll das bitte gehen? Für solche Zusammenhänge gibt es keine analytischen Lösungen.

Hübie
2015-06-28, 13:24:22
Isolierte Werte machen vorrangig deshalb Sinn, weil die Graka das meist getauschte Mittel im PC ist.

Timbaloo
2015-06-28, 13:28:16
Und wie soll das bitte gehen? Für solche Zusammenhänge gibt es keine analytischen Lösungen.
Ich weiss jetzt nicht woran genau du dich aufhängst, also wo ist das Problem?

mFuSE
2015-06-28, 13:41:46
Nun so unterschiedlich ist eben die Herangehensweise vom "Boost". Es wird auch gerne immer davon gesprochen das man ne Titan X ja so gut wie immer auf 1,5k prügeln kann, dass man dafür aber einen anderen Kühler + Biosmod braucht und damit auch noch über 400 Watt durch die Karte schickt für die die Stromversorgung eigentlich nicht spezifiziert sind (was ja ein Riesenproblem bei der R9 295X2 war) interessiert da nicht mehr.

Schwachsinn :mad:
Eigentlich will ich bei solchen Diskussionen nicht einsteigen, aber ich kann's einfach nicht mehr lesen :mad:

Solange man den Takt des Rams nicht hochtreibt, reicht für 1,5 Ghz bei der Titan X bei den meisten Spielen 110%, also 275 Watt gerade so aus.
Und den vergleich zwischen einer 1,5Ghz Titan mit einer Fury X möchte ich sehen ...


Dass Luft Titans diesen Takt aufgrund der Temperatur nicht halten können ist eine andere Sache.

... aber eigentlich würde es sich verbieten überhaupt eine Wassergekühlte Grafikkarte mit einer Luft gekühlten zu vergleichen.

Wenn man die Fury X vergleichen will - dann kann man das sobald die Luft gekühlten Versionen verfügbar sind.

Oder man nimmt Wasser und/oder Hybrid gekühlte Titans zur Hand - die es sehr wohl gibt.

-/\-CruNcher-/\-
2015-06-28, 13:42:00
Das Problem bei Witcher 3:
Man bekommt keine stabilen und wirklich reproduzierbaren Werte hin. Das schwankt, je nach Durchlauf, um bis zu 10%. Schließlich messe ich ja keine paar Sekunden, sondern einen längeren Zeitraum. Das bekommt man nie wirklich deckungsgleich hin. Außerdem hätten wir dann erneut einen Äpfel-Birnen-Vergleich mit provoziertem Wort Case, bei dem vor allem hohe Peak-Werte provoziert werden, die einem normalen Gaming-Abend kaum entsprechen.

Dann doch besser 3-4 verschiedene, wirklich reproduzierbare Szenen über jeweils eine Minute, diese dann einzeln ausweisen und noch einmal kumulieren. Und für einen Langzeittest überlegen wir uns noch was anderes. Ich kann mich nicht 30 Minuten vor den Monitor setzen und immer wieder völlig identisch durchs Gelände hoppeln. Nicht bei 200 Karten im Jahr.

Einige Engines haben Realtime Demo Recording und Playback Functions die man dafür Vollautomtisch nutzen kann ;)
Da muss man nicht selber rumhopsen aber man sollte schon wissen wo die Shader und Compute Präferierung liegt und das traue ich keinem Reviewer zu wirklich zu erkennen und mit einzubeziehen, da vor allem Nvidia hier heftig intern Gegenoptimiert.

Man müsste selber etwas basteln das 2 optimierte Render Cores hat und diese Software dürfte weder Nvidia noch irgend ein andere IHV in die Hände bekommen ;)

Halte ich ehrlichgesagt teils für Sinnlos weil gerade das Hardware optimieren das ist wo die IHVs den meisten otto normal entwicklern überlegen sind die nur mit einer API arbeiten und keinen Internen Zugriff und aussreichend Dokumentation über die GPU besitzen :)

Und es gehört zum Geschäft hier besser zu sein bei DX12 wird sich das etwas ändern aber auch hier wird die Treiber Arbeit ausschlaggebend sein.


So einen Power Test kann man viel Effizienter und simpler realisieren, als man denkt :)

Man nutzt einfach keine Dauer anhaltende Energiequelle z.b und mist den Code verbrauch auf die gesamte System (OS) interaktion da brauch man nicht unbedingt alles bis ins kleinste an der Hardware selbst zu analysieren um die Verbrauchseffizienz im gesammten zu filtern :)

Wobei ich deine Arbeit Format_C in zusammenarbeit mit Rhode und Schwarz schon interessant finde und hier auch ordentlich promotet habe seit den Maxwell Boost 2.0 test mit der gesteigerten Auflößung vor allem :)

BlacKi
2015-06-28, 13:51:37
Oder man nimmt Wasser und/oder Hybrid gekühlte Titans zur Hand - die es sehr wohl gibt.

das könnte man noch vertreten, da ganz klar höherer preispunkt.

aber wenn du eine 980ti hybrid vergleichen würdest, wo die karte selbst ohne OC bei minimum 1300 hängen würde, dann würde fury trotz hbm kein land mehr sehen und das ohne die 250w dauerhaft zu überschreiten.

aber das problem wird ja der treiber nächstes jahr lösen.

MadManniMan
2015-06-28, 13:54:34
Ich weiss jetzt nicht woran genau du dich aufhängst, also wo ist das Problem?

Wie soll man die unterschiedlichen Belastungen der restlichen Systemkomponenten bzw. unterschiedlichen Wirkungsgrad der Netzteile in unterschiedlichen Lastszenarien genau heraus rechnen können?

Schnoesel
2015-06-28, 13:58:16
Solange man den Takt des Rams nicht hochtreibt, reicht für 1,5 Ghz bei der Titan X bei den meisten Spielen 110%, also 275 Watt gerade so aus.

Ist doch lächerlich und fast jedem der hier einen Titan X hat bereits bestätigt dass das PT definitv nicht ausreicht für 1500. PCGH hat das auch deutlich gesagt, da läuft dann selbst bei 110% dieKarte gnadenlos ins PT und schafft "grade so" 1300. Und das beste ist dass du ja selbst schon eine Einschränkung machst "bei den meisten Spielen".

... aber eigentlich würde es sich verbieten überhaupt eine Wassergekühlte Grafikkarte mit einer Luft gekühlten zu vergleichen.

Bullshit! Referenz ist Referenz. Keiner zwingt Nvidia einen Kühler zu verbauen der eine 1000 Dollar Karte einschränkt. Die Frage ist verliere ich die Garantie bzw muss ich selbst Hand anlegen. Beides ist bei Fury X nicht der Fall. dann schon Vergleich mit Titan X und Waküblock aber das kostet ja nix.

dildo4u
2015-06-28, 14:01:48
Was ziehts du dich an der Titan X hoch,die Custom 980 TI sind deutlich sinvoller als Vergleich zu Fury X.

BlacKi
2015-06-28, 14:02:52
Ist doch lächerlich und fast jedem der hier einen Titan X hat bereits bestätigt dass das PT definitv nicht ausreicht für 1500. PCGH hat das auch deutlich gesagt, da läuft dann selbst bei 110% dieKarte gnadenlos ins PT und schafft "grade so" 1300. Und das beste ist dass du ja selbst schon eine Einschränkung machst "bei den meisten Spielen".



Bullshit! Referenz ist Referenz. Keiner zwingt Nvidia einen Kühler zu verbauen der eine 1000 Dollar Karte einschränkt. Die Frage ist verliere ich die Garantie bzw muss ich selbst Hand anlegen. Beides ist bei Fury X nicht der Fall.

lol,

wenn ich auf geizhals gehe und mir eine schnelle karte kaufe, finde ich referenzmodelle und auch hybridmodelle.

aufkrawall
2015-06-28, 14:06:12
Kurze Anmerkung: bei gesamtsystemverbrauch zieht die CPU mehr strom, wenn die gpu schneller rendert. Sollte deshalb nur zur groben Überprüfung der gpu-only werte dienen.

Timbaloo
2015-06-28, 14:07:21
Wie soll man die unterschiedlichen Belastungen der restlichen Systemkomponenten bzw. unterschiedlichen Wirkungsgrad der Netzteile in unterschiedlichen Lastszenarien genau heraus rechnen können?
Warum sollte ich die Belastungen der restlichen Systemkomponenten herausrechnen wollen? Solange das Testsystem für alle Karten identisch ist stört mich das doch nicht? Ich bekomme halt nicht die Aussage "Karte X zieht N Watt mehr als Karte Y" sondern "System mit Karte X zieht M Watt mehr als System mit Karte Y".

Bez. Wirkungsgrad: Ich verstehe dein Problem nicht: Du hast eine Kurve der Eingangsleistung in das Netzteil aufgenommen, und rechnest dir daraus die Ausgangsleistung anhand der Wirkungsgradkennlinie. Je nachdem ob die Kennlinie über Eingangs-oder Ausgangsleistung aufgespannt ist wird die Rechnung trivial oder simpel. Irgendwelche transienten Effekte (die Wirkungsgradkennlinie wird man ja stationär ermitteln) hat man natürlich drin, dadurch auch einen Fehler, aber gemessen an den Fehlern die in den Reviews derzeit gemacht werden (Leistungsaufnahme nur bei einem Spiel oder gar nur einen Benchmarktool messen) wäre das imho vernachlässigbar.

BlacKi
2015-06-28, 14:08:16
Kurze Anmerkung: bei gesamtsystemverbrauch zieht die CPU mehr strom, wenn die gpu schneller rendert. Sollte deshalb nur zur groben Überprüfung der gpu-only werte dienen.

macht doch nix. fury ist die schnellste gpu der welt.

aufkrawall
2015-06-28, 14:10:00
macht doch nix. fury ist die schnellste gpu der welt.
Hail Fury!
Getrolle gibts hier doch wirklich genug. :freak:

MadManniMan
2015-06-28, 14:10:11
1) Siehe aufkrawalls Post. Und da bezieht er sich nur auf die CPU.

2) Diese Kennlinie ist genau das: das Verhalten in einem ganz spezifischen Szenario. Selbst bei Karten, die im Mittel dasselbe verbrauchen, sich dafür aber in den Extrema unterschiedlich verhalten, machen unterschiedliche Netzteile schon große Unterschiede.

Schnoesel
2015-06-28, 14:11:26
Was ziehts du dich an der Titan X hoch,die Custom 980 TI sind deutlich sinvoller als Vergleich zu Fury X.

Äh hab ich behauptet mit der Titan X sind mal eben 1500 Core Clock drin ohne das PT mittels ModBios anzuheben? ich denke nicht.

Und ersetze Titan X mit GTX 970/GTX 980 etc. Überall wird Leistung OC und Verbrauch @ Stock in einen Topf geworfen.

Hübie
2015-06-28, 14:14:50
Kurze Anmerkung: bei gesamtsystemverbrauch zieht die CPU mehr strom, wenn die gpu schneller rendert. Sollte deshalb nur zur groben Überprüfung der gpu-only werte dienen.

Das bewegt sich bei 1-5%.Also kaum der Rede wert. THG hat da einen recht interessanten Artikel zu.

aufkrawall
2015-06-28, 14:17:29
Das bewegt sich bei 1-5%.Also kaum der Rede wert. THG hat da einen recht interessanten Artikel zu.
So? Wo ist der?
Dir ist schon klar, dass die CPU sich mitunter sogar runtertaktet, wenn sie nicht genug ausgelastet wird? Wenn ein Vorsprung einer GPU von ~15% das auslöst, wird der Gesamtverbrauch jedenfalls noch ungenauer als eh schon.

Timbaloo
2015-06-28, 14:17:42
1) Siehe aufkrawalls Post. Und da bezieht er sich nur auf die CPU.
Es ist die Frage was man als Ergebnis will. Da diskutiere ich nicht mehr weiter da offensichtlich zu subjektiv.

2) Diese Kennlinie ist genau das: das Verhalten in einem ganz spezifischen Szenario. Selbst bei Karten, die im Mittel dasselbe verbrauchen, sich dafür aber in den Extrema unterschiedlich verhalten, machen unterschiedliche Netzteile schon große Unterschiede.
Dann mal Butter bei die Fische: Zahlen, Daten, Fakten. Dieses herumlamentieren um diffuse Probleme ist mir dann doch ein wenig zu albern.

Screemer
2015-06-28, 14:20:01
Ich hatte nicht auf Dich geantwortet :usad: Sondern auf den Post über Dir, wo gefragt wurde, wozu ich Grafikkartenaufnahme vom System isolieren möchte.

ahh sorry. hatte ich übersehen. dann sind wir uns in dem punkt ja einig.

mFuSE
2015-06-28, 14:22:51
Ist doch lächerlich und fast jedem der hier einen Titan X hat bereits bestätigt dass das PT definitv nicht ausreicht für 1500.

Jedem seine Meinung, wer ATI hochhalten will darf das gerne tun, aber bitte dabei nicht Fakten verdrehen und Unwahrheiten verbreiten.

Richtig, ich habe eine Titan X, ergo kann ich selbst sehen was mir die Karte verbraucht, und dank dem Monitoring http://www.forum-3dcenter.org/vbulletin/showthread.php?t=482122 sieht man wunderbar Verläufe von Takt, Spannung, etc.

Dass man sich jetzt aufregt, das die Karte bei 1.5 Ghz - 50% (!) - Mehrtakt als im Referenzdesign vorgesehen, ins Power Limit läuft .... ehm... ernsthaft?? :freak:
Dazu nochmal zum mitschreiben:
Ohne Mod und Cracks sind 110% PT drin - und das reicht gerade so für 1,5Ghz.


Im Worst Case geht der Takt auf 1464 runter .... Gott bewahre .. was für'n Unding :eek:
(stellt man den Speicher von 3500Mhz auf 3300Mhz, dann werden die >= 1,5Ghz dagegen wieder stabil gehalten!)

je nach Serienstreuung kann sich das mal nach oben oder unten bewegen.
Aber im Bereich der 275Watt .....
Hier aber reißerisch von 400 Watt zu phalabern ... das spricht nicht gerade für Objektivität ...

PCGH hat das auch deutlich gesagt, da läuft dann selbst bei 110% die Karte gnadenlos ins PT und schafft "grade so" 1300. Und das beste ist dass du ja selbst schon eine Einschränkung machst "bei den meisten Spielen".

Hast du einen Link dafür?
Die müssen dann ja mal eine unterirdische Karte erwischt haben.
1300 Mhz, da reichen je nach Kartenqualität 80% bis 90% PT.

Meine kriege ich nichtmal unter 1342 Mhz, das ist mein Default Takt der immer anliegt :)
Und ich habe eine eher durchschnittliche Karte erwischt.

Schnoesel
2015-06-28, 14:27:24
Zusätzlich kühlen wir die Platinenrückseite inklusive der blanken RAM-Chips mit einem 120-mm-Lüfter und erhöhen das Powertarget der GTX Titan X per Nvidia Inspector auf das Maximum von 110 Prozent. Damit darf die Grafikkarte bis zu 275 Watt verbrauchen, doch schnell ist klar: Das genügt nicht im Ansatz, um den GM200-Chip auszufahren. Wie die GTX Titan Classic, welche mit Bordmitteln höchstens 265 Watt verbrauchen darf, wird auch die Titan X stark von ihrer maximalen Leistungsaufnahme limitiert. Der Chip unseres Samples verkraftet mühelos 1.400 MHz, kann diese Frequenz jedoch nur in "powerarmen" Spielen wie Crysis 3/Warhead länger als ein paar Sekunden halten. Anno 2070, Risen 3 und viele andere Spiele zwingen die Karte nach Erwärmung zu Frequenzen knapp oberhalb von 1.300 MHz. Das ist zwar ansehnlich und die Leistung der Titan X steigt messbar an, richtige Overclocking-Freude kommt jedoch erst mit Wasserkühlung auf, die den Takt etwas stabilisiert. Wer die Titan X ernsthaft übertakten möchte, ist auf BIOS-Mods und höhere Powertargets angewiesen - bislang ist aber unklar, ob sich diese Möglichkeit eröffnet.

http://www.pcgameshardware.de/Geforce-GTX-Titan-Grafikkarte-256920/Specials/Geforce-GTX-Titan-X-Test-Benchmark-1153643/2/#a2

Und die 400 Watt + mit Modbios kommen nicht von mir sondern von Raff. Und selbst damit schaffen es einige nicht 1500 konstant zu halten. Aber ja alles völlig aus der Luft gegriffen...

MadManniMan
2015-06-28, 14:29:57
Es ist die Frage was man als Ergebnis will. Da diskutiere ich nicht mehr weiter da offensichtlich zu subjektiv.

Disclaimer: ich bin kein roter, ich bin kein grüner, ich will einfach nur gute Methodik.

Was ist denn, wenn man zur Absicherung bzw. für weitere Datenpunkte bspw. die Ergebnisse von HardPCGH mit AnandTom vergleichen, die einen aber mit nem 12-Kern Via-Prozessor und die anderen mit nem 4-Kern-3DFX-Prozessor mit Hyperthreading messen? Wie willst Du das konsistente Aussagen heraus bekommen?


Dann mal Butter bei die Fische: Zahlen, Daten, Fakten. Dieses herumlamentieren um diffuse Probleme ist mir dann doch ein wenig zu albern.

Zum Einstieg: http://ht4u.net/reviews/2014/amd_kaveri_apus_im_test/index13.php

Andererseits: meine (sehr eingeschränkte) Laborerfahrung mit diversen Stromkreisen lässt mich nicht erwarten, dass nach dem Austausch auch nur eine Komponente noch konsistente Ergebnisse zu erwarten sind ;(

aufkrawall
2015-06-28, 14:36:06
Disclaimer: ich bin kein roter, ich bin kein grüner, ich will einfach nur gute Methodik.

Dies.
Wenn avg-Verbräuche über jeden Benchrun hinweg zu aufwendig sind, könnte man immer noch "einfach" mehr Spiele testen, sagen wir vier (natürlich komplett im GPU-Limit).
Da hält sich der Aufwand noch halbwegs in Grenzen (bei PCGH sinds aktuell immerhin schon zwei) und man hat trotzdem einen Überblick.
Aus diesen vier Werten errechnet man dann der Vollständigkeit halber einen Durchschnitt.
Es müssen nicht vier Powerviren sein, aber fordern sollten sie schon alle.

mFuSE
2015-06-28, 14:37:12
http://www.pcgameshardware.de/Geforce-GTX-Titan-Grafikkarte-256920/Specials/Geforce-GTX-Titan-X-Test-Benchmark-1153643/2/#a2
Über die Qualität dieses Artikels möchte ich mal lieber nichts sagen.
Ich zeige lieber mal: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=564295&page=3
Ohne Mods, von Haus aus. (1,4 Ghz + 4000Mhz Ram (+500Mhz) - bei genau 100% PT Verwendung)



Und die 400 Watt + mit Modbios kommen nicht von mir sondern von Raff. Und selbst damit schaffen es einige nicht 1500 konstant zu halten. Aber ja alles völlig aus der Luft gegriffen...
Titan wird durch die Temperatur limitiert.
Wasser gekühlte Karten halten, nach allem was ich gelesen habe, alle ihre Taktraten.

Zudem setzt man damit einfach das Limit nach oben - bei OC können schonmal sämtliche Rahmen gesprengt werden.
Aber wir sprechen hier um Steigerungsraten ab 50%
Um wieviel kann man nochmal die Fury X übertakten?

fondness
2015-06-28, 14:38:28
Was ich nicht verstehe: Die Benchdurchläufe muss man doch ohnehin für die fps-Werte machen. Kann man währenddessen nicht auch die Leistungsaufnahme irgendwie mittracken? Dann sollte es eigentlich ohne zusätzlichen zeitlichen Aufwand möglich sein zu jeden fps-Wert einen passenden Watt-Wert zu erhalten.

StefanV
2015-06-28, 14:39:35
Mich interessiert durchaus peak (in Spielen) weil ich dadurch halt weis ob mein Netzteil noch reicht. ;)
Moment, du willst eine 700€ Karte mit einem alten Netzteil kombinieren?! WARUM?!


320 könnten bei meinem älteren 550er Dark Power Pro schon knapp werden, für eine 290x reicht es noch. Wenn für eine Fury 100 € für ein neues Netzteil nötig werden das man für eine 980 TI nicht braucht ist die Entscheidung auch schnell getroffen bei den aktuellen Fury Preisen.
...was vielleicht mal ein Grund wäre, dein Dark Power P7 auszutauschen und es nicht so lange zu nutzen, bis dir reihenweise die Laufwerke verrecken...

Um es mal ganz deutlich zu sagen:
Entweder du killst dein Antikes Netzteil mit der neuen Karte, da alte Schinken gar nicht auf die Leistungsaufnahme moderner Komponenten ausgelegt sind.
Oder das Netzteil killt deinen Rechner langsam (Laufwerke etwas schneller), da es eben NICHT für die Leistungsaufnahme moderner Komponenten ausgelegt ist.

Dazu kommt, dass die Elektronik und die verwendeten Komponenten mit den Jahren auch nicht unbedingt besser werden...

Käse, die NV wird gnadenlos bei 250W abgeregelt. Zur not wird halt der Takt wieder mal nicht gehalten. AMD hat deswegen so hohe Peak Werte, weil sie vesucht ihren Takt zu halten.
DAS ist etwas, was viele Leute bei dieser Betrachtung ausblenden, dass das ganze eben NICHT so ganz vergleichbar ist.
Und der eine halt versucht den Takt zu halten, während der andere brutal bei der entsprechenden Leistungsaufnahme abregelt...

Und eine Antwort warum keine avg-Werte angegeben werden willst du nicht geben? Ein halbwegs modernes Messgerät sollte doch neben Max-Werten auch kwh ausspucken können, oder zumindest eine Durchschnitt berechnen können. Sofern das so ist sollte sich der zusätzliche Aufwand dafür sehr in grenzen halten.
...weil nVidia dann nicht so gut dastehen würde, wie es jetzt der Fall ist.
Man muss es ja 'den Kunden' Recht machen, auch wenn man da völligen Mist verzapft...

Ja, wir können den Average-Wert erst am Jahresende nach der Abrechnung durch den örtlichen Energieversorger angeben. :ugly:
SPar dir deine billige Polemik.

Den DUrchschnittlichen Verbrauch kann man mit jedem halbwegs brauchbaren Energiekostenmessgerät anzeigen lassen.
Erfordert natürlich, dass man das ganze resettet.
Und wenn man immer das selbe Netzteil verwendet, sind auch die Verbräuche gleich.

Hier muss man euch dann durchaus unterstellen, dass ihr das nicht machen wollt, um AMD schlechter dastehen zu lassen, als notwendig wäre.

Sonst hättet ihr schon längst euren Pacours angepasst.

Aber vielleicht kommt das ja bei der nächsten AMD/nV Generation...

Ist W3 ein überdurchschnittlich forderndes Spiel?
W3 ist völliger Bullshit für Verbrauchsmessungen. Format C hat es schon mehrfach gesagt, warum.
Es ist neu, es wird drauf optimiert werden und es wird gepatcht werden.
All das macht es für Verbrauchsmessungen unbrauchbar, da es mit jedem Patchlevel und jedem Treiber die alten Werte unbrauchbar macht.

Dazu noch Dynamiken und so weiter. Sprich du musst exakt den selben Weg mehrfach ablaufen.
Und das kann man einem Tester nun wirklich NICHT zumuten, aus diversen Gründen. Unter anderem könnte er was sinnvolleres machen, während er das macht.

Bleibt noch die Möglichkeit sich ein Script zu basteln, was dann das ganze automatisch macht.
Aber was machst du, wenn dann gerade mal zufällig ein Gegner den Weg kreuzt?!

Kurzum: Es ist nicht sinnvoll umzusetzen.
Dazu noch andere Dinge usw.
Letztendlich ist es am sinnvollsten, sich Dinge rauszusuchen, die schon relativ alt sind und kaum mehr beachtet werden.
Und vorallen auch sehr gut reproduzierbar.
Unigine Heaven eignet sich da besonders gut, da die Last auch relativ konstant ist.
Bei dem Unigine Valley hast du recht große Bereiche von z.T. 100-200W. Also auch nicht so wirklich das Wahre.
Beim Heaven hast Schwankungen von etwa 20-30W. ALso wesentlich besser für Lastsachen geeignet.


1) Vorweg muss man natürlich konstatieren, dass Du einen Scheiß darauf geben würdest, würde hier Nvidia irgendwie benachteiligt, richtig?
Yeah, erst mal den Gegenüber ankacken, bevor man irgendwas sinnvolles sagt...
Was soll der Quatsch? Warum machst du das?
Bist selbst ein Anhänger des 'grünen Glaubens'? oder wie soll man das verstehen?



2) Es ist kein Peak. Es ist ein Szenario, das in einem Spiel vorkommt und darlegt, womit man rechnen muss. Anhand dieser Szene kann man besser beurteilen, wie man die Stromversorgung und die Kühlung des Gesamtsystems dimensionieren sollte, als bei CS:GO mit Framelimiter auf 100 FPS, was bestimmt das realistischer Szenario wäre. Peak wäre die absolute Lastspitze, ein globales Maximum.
Liest du diesen Thread auch genau durch oder kommst du nur alle paar Tage an und schmeißt irgendwas in den Raum?

Hier hat jemand doch sich die Szene genau angeschaut und laut dem User ist es sehr wohl eine Peak Situation, die im Spiel selbst einfach mal gar nicht vorkommt...

Das war irgendwie sowas wie Bildschirmfüllende Stadt, bei der 'ne Atombombe explodiert. Und wie oft hast in Anno explodierende Atombomben?!
Eben, womit wir wieder bei der Peak-Anschuldigung wären...

Und dem Zustand, dass AMD den Takt versucht zu halten, während nVidia bei Erreichen einer bestimmten Aufnahme gnadenlos abriegelt. So stehen die nV Karten bei den Verbrauchsmessungen deutlich besser da, obwohl der Takt z.B. gleich mal um 200MHz reduziert wurde... (oder ev. gar mehr).

Sp und was ist jetzt besser?!
Eine 'Peak Situation', bei der der Chip den Takt hält?
Eine 'Peak Situation', bei der der Chip den Takt absenkt, um das Aufnahmelimit nicht zu überschreiten?

Also hier könnte man dann durchaus behaupten, dass es in der zweiten Situation zu Rucklern kommen könnte, da die Karte ja die Leistung reduziert.

Aber genau DAS macht ja den Vergleich der Leistungsaufnahmen momentan so umständlich!


Meiner bescheidenen Meinung nach sollten Verbrauchs-Zeit-Verläufe verwendet werden.
...was anderes kann man auch aktuell nicht wirklich machen, um die ganzen Peaks rauszuhalten. Die sind eigentlich nur insofern wichtig, als dass man das für die Auslegung des Netzteiles braucht.

DrFreaK666
2015-06-28, 14:42:19
Du hast anscheinend Effiziente Konsolen und die ganze Mobile Entwicklung verpasst ;)

Habe mich nur auf den PC konzentriert. Angefangen hat alles damals mit nem Commodore Plus 4. Aber das wird jetzt zu OT... 😉

StefanV
2015-06-28, 14:43:33
Kurze Anmerkung: bei gesamtsystemverbrauch zieht die CPU mehr strom, wenn die gpu schneller rendert. Sollte deshalb nur zur groben Überprüfung der gpu-only werte dienen.
...wurde diese Behauptung nicht letztens von einem THG Artikel widerlegt??

aufkrawall
2015-06-28, 14:45:09
...wurde diese Behauptung nicht letztens von einem THG Artikel widerlegt??
Was soll diese dümmliche Frage überhaupt?
Wie soll der Verbrauch gleich sein, wenn der CPU-Takt es nicht ist?

Schnoesel
2015-06-28, 14:47:26
Über die Qualität dieses Artikels möchte ich mal lieber nichts sagen.

Ah ja ... ich sehe schon wohin die Reisegeht. Da wird was Gegenteiliges behauptet und belegt aber der Artikel na was wissen schon die Hardwareredakteure der PCGH ... Danke auf dies Art von "Diskussion" kann ich verzichten.

mFuSE
2015-06-28, 14:48:47
Ah ja ... ich sehe schon wohin die Reisegeht. Da wird was Gegenteiliges behauptet und belegt aber der Artikel na was wissen schon die Hardwareredakteure der PCGH ... Danke auf dies Art von "Diskussion" kann ich verzichten.

ich auch :)
Schönen Tag noch :freak: :ulol:

-/\-CruNcher-/\-
2015-06-28, 15:03:17
Was soll diese dümmliche Frage überhaupt?
Wie soll der Verbrauch gleich sein, wenn der CPU-Takt es nicht ist?

Bei Intel hat der CPU takt selbst keine großen Auswirkungen auf den Verbrauch es ist das Voltage verhalten was hier den Verbrauch ausmacht.

Sprich overclocker leben ineffizienter ;)

Aber Intel konnte das nicht tot bekommen da haben sie ein Geschäft draus gemacht ;)

Nvidia geht schon lange den selben Weg wie Intel mit ihren GPU Spar Entwicklungen seit Tegras GPU Core excessiv dieses ganze R&D findet sich in Maxwell wieder dafür wurden sie kritiesiert ohne Ende jetzt zahlt sich das alles aus ;)

HT4U, THG, Techreport und Digitalfoundry waren die ersten die tiefer hinter die Kullissen bei den GPUs geblickt haben :)

PCGH (Computec) kann man da überhaupt nicht ernst nehmen.

Thunder99
2015-06-28, 15:09:48
Und hält nicht den Takt! ;) @ Dildo4u

Timbaloo
2015-06-28, 15:10:22
Disclaimer: ich bin kein roter, ich bin kein grüner,
Das wollte ich auch nicht ausdrücken. Es ist vielmehr eine Frage dessen was man als Ergebnis haben will: Leistungsaufnhame eines Systems oder nur einer Komponente. Beides hat Vor-und Nachteile, ich komme mit beidem klar, bin aber der Meinung, dass ersteres den Aufwand reduzieren würde den man...
ich will einfach nur gute Methodik.
... eben in bessere Methodik investieren könnte/sollte/muss.

Was ist denn, wenn man zur Absicherung bzw. für weitere Datenpunkte bspw. die Ergebnisse von HardPCGH mit AnandTom vergleichen, die einen aber mit nem 12-Kern Via-Prozessor und die anderen mit nem 4-Kern-3DFX-Prozessor mit Hyperthreading messen? Wie willst Du das konsistente Aussagen heraus bekommen?
Es gilt eh: Wer misst, misst Mist. Totale Vergleichbarkeit werden wir eh nicht bekommen. Aktuell haben wir ja zum Glück (naja, eher "leider") die Situation, dass die verwendeten Prozessoren sich nicht dramatisch unterscheiden, so dass der Einfluss vergleichsweise gering ist. Wenn nun dein hypotetisches System von "HardPCGH" zwischen einer RadeoGTX und einer GeFury 20W Unterschied misst und "AnandTom" misst mit seinem Testsystem 30W, bei eben gleicher Methodik, so watt? *tusch*
Wäre wesentlich besser als das was man heute hat: Delta -20W bis + 40W oder so weil eben komplett andere Bedingungen getestet werden die nichtmal genauer spezifiziert werden.

Zum Einstieg: http://ht4u.net/reviews/2014/amd_kaveri_apus_im_test/index13.php
Naja, das ist wunderbar mit einer statischen Wirkungsgradkennlinie erklärbar...

-/\-CruNcher-/\-
2015-06-28, 15:19:23
Und hält nicht den Takt! ;) @ Dildo4u

Wer sagt das der Takt gehalten werden muss es kommt auf den Load an der Bearbeitet wird je effizienter je weniger takt ist nötig

je Bruteforciger umso mehr Takt und Spannung wirst du brauchen und das heist nicht gleich das automatisch deine latenz sinkt ;)

Gimmick
2015-06-28, 15:23:23
Muss halt mal einer ein gescheites Kalorimeter für GPUs bauen, oder full cover Wasserkühlung drauf und die Temperatur vom Wasser messen trololol :tongue:

Mir ist der Strombedarf als direkter Wert erstmal egal ich richte mich da eher nach den daraus folgenden Konsequenzen und meinen anderen Ansprüchen.

Wenn die Karte angenehm per Luft ohne super special extra Aufwand kühlbar ist passt das.

Wenn die Karte schon mit 2x8Pin Stromanschluss und/oder Wasserkühlung ankommt ist mir dann auch klar, dass da kein grüner Daumen drauf sein wird... Aber wenn ich mir sowas kaufen will schätze ich eher ab ob ich mit den Konsequenzen in Sachen Kühlung oder Lautstärke leben kann und denke da nicht an die paar Cents Unterschied auf der Stromrechnung.

Und wenn eher der Gedanke an die Umwelt zählt -> keine Highend Hardware kaufen sondern sparsames Zeugs und nicht übertakten. Das scheint hier aber nicht der Fall zu sein, von daher wieder nur "Gigglegiggle ich hab noch irgendwo einen Punkt gefunden wo meine Lieblingsfirma besser ist als deine" :rolleyes:

StefanV
2015-06-28, 15:36:54
Was soll diese dümmliche Frage überhaupt?
Wie soll der Verbrauch gleich sein, wenn der CPU-Takt es nicht ist?
http://www.tomshardware.de/leistungsaufnahme-cpu-grafikkarten-amd-nvidia,testberichte-241818.html

CPU Verbrauch ist bei allen Grafikkarten in etwa gleich...

Wenn die Karte schon mit 2x8Pin Stromanschluss und/oder Wasserkühlung ankommt ist mir dann auch klar, dass da kein grüner Daumen drauf sein wird... Aber wenn ich mir sowas kaufen will schätze ich eher ab ob ich mit den Konsequenzen in Sachen Kühlung oder Lautstärke leben kann und denke da nicht an die paar Cents Unterschied auf der Stromrechnung.
Das eine hat mit dem anderen relativ wenig zu tun.

Insbesondere bei sehr hohen Preisen kann man durchaus befürchten, dass nicht unbedingt der Verbrauch der Grund für die Kühlung ist sondern schlicht Prestige.

Und das ist bei der Fury X nunmal definitiv so, denn die Aufnahme dieser Karte ist nicht nennenswert von der R9-290X entfernt. Und auch die Titan X ist da auch nicht soo besonders weit entfernt (wenn wir mal irgendwelche Worst Case Peak Dinger ausblenden).

So kann man letztendlich sagen, dass das Ziel eine Kühlung mit sehr vielen Reserven und geringer Lautheit war.
Man hat schlicht auf die Schelten bei der R9-290 Referenz reagiert und das komplett negiert.

Aber warum kann man diesen AUfwand, den AMD hier getrieben hat, nicht einfach mal honorieren?!
WARUM muss man alles, was AMD macht, hier nieder reden, schlecht machen und jeden Mist, den 'die anderen' abziehen so gewaltsam verteidigen?!

BlacKi
2015-06-28, 15:40:07
http://www.tomshardware.de/leistungsaufnahme-cpu-grafikkarten-amd-nvidia,testberichte-241818.html

CPU Verbrauch ist bei allen Grafikkarten in etwa gleich...
aufs gesammtsystem gesehen ja, auf den verbrauch vom prozessor gesehen fast 10% unterschied.

aufkrawall
2015-06-28, 15:45:52
http://www.tomshardware.de/leistungsaufnahme-cpu-grafikkarten-amd-nvidia,testberichte-241818.html

CPU Verbrauch ist bei allen Grafikkarten in etwa gleich...
Bei Metro: LL langweilt sich ein 4770k eigentlich immer. Ich finde nicht, dass dieser Test meiner Aussage widerspricht.
Gesamsystemverbrauch ist ungenau und wird so noch ungenauer.

Wenn NV die CPU durch bessere Mehrkernunterstützung (wie z.B. bei Watch Dogs) besser auslastet, ist das auch ein unfairer Nachteil bei so einer Messung.
Taugt nur zur ungefähren Überprüfung eines bereits gemessenen Karten-Verbrauchs.

dildo4u
2015-06-28, 15:47:38
http://www.tomshardware.de/leistungsaufnahme-cpu-grafikkarten-amd-nvidia,testberichte-241818.html

CPU Verbrauch ist bei allen Grafikkarten in etwa gleich...


Das eine hat mit dem anderen relativ wenig zu tun.

Insbesondere bei sehr hohen Preisen kann man durchaus befürchten, dass nicht unbedingt der Verbrauch der Grund für die Kühlung ist sondern schlicht Prestige.

Und das ist bei der Fury X nunmal definitiv so, denn die Aufnahme dieser Karte ist nicht nennenswert von der R9-290X entfernt. Und auch die Titan X ist da auch nicht soo besonders weit entfernt (wenn wir mal irgendwelche Worst Case Peak Dinger ausblenden).

So kann man letztendlich sagen, dass das Ziel eine Kühlung mit sehr vielen Reserven und geringer Lautheit war.
Man hat schlicht auf die Schelten bei der R9-290 Referenz reagiert und das komplett negiert.

Aber warum kann man diesen AUfwand, den AMD hier getrieben hat, nicht einfach mal honorieren?!
WARUM muss man alles, was AMD macht, hier nieder reden, schlecht machen und jeden Mist, den 'die anderen' abziehen so gewaltsam verteidigen?!
Das Potenzial der Kühlung kann man überhaupt nicht ausspielen weil der Chip ein OC Krüppel ist und HBM komplett gelockt ist.Wo ist das ne attraktive Karte für High-End User?

http://www.computerbase.de/2015-06/amd-radeon-r9-fury-x-test/10/#abschnitt_uebertaktbarkeit

Thowe
2015-06-28, 15:49:31
Ob es auch wohl eine Fury MAXX geben wird? Sicher bin ich mir beim Rage 128, dass er deutlich weniger Verbrauch hatte und das die MAXX die nervigste Grafikkarte war, die ich je hatte. Wobei meine 970 da nicht wirklich nachsteht, aber aus anderen Gründen.

Wie dem auch sei, die Verbrauchsdiskussionen (und ja, ich bin jemand der darauf massiv achtet) sind im Grunde wenig spannend, da sie individuell und speziell auf die eigene Hardware betrachtet werden muss. Da kann es schnell richtig lächerlich werden. In meinem Fall ist der Stromverbrauch der Karte relativ egal, ich würde mehr sparen, wenn ich mein Mainboard gegen eines mit wirklich geringen Stromverbrauch, wie das Fujitsu D3222-B austauschen würde. Damit ist mein jetziges auch nicht so der Stromfresser. In > 95% meiner Zeit ist der Rechner zum Surfen, für Bildbearbeitung oder Texte schreiben an. Alleine die Tatsache, dass ich mittlerweile alle Festplatten verbannt habe, spart mehr Strom ein als es die Fury X an Mehrverbrauch gegenüber der GTX 970 hat.

Nun, ich habe eines der besten Netzteile die man kaufen kann. Das ist jenseits jeglicher Regel, wenn ich mir in der Praxis anschaue, wie viele Rechner mir unterkommen wo wirklich tolle Grafikkarten an wirklich scheußlichen Netzteilen hängen und durch diese, genau wie die restliche Hardware, sicherlich nicht besser werden, technisch und auch im Verbrauch - Nun, die Realität ist am Ende nie das, was ein jeder von uns im Kopf hat, genau das gibt erst den Diskussionsfreiraum, der mit sehr viel individuellen Ansichten und dennoch wenig Relevanz gefüllt wird.

Das Ermessen von Verbrauchswerten ist immer richtig, die individuelle Erfassung einzig durch die Grafikkarte und eben nicht des gesamten Systems ist und bleibt die einzig sinnige Methode - weil nur diese die Basis einer Nachvollziehbarkeit bietet. Dennoch, sie ist zwangsweise immer praxisfern und wohl nur Zündstoff für Diskussionen wie hier, wo AMD eben durchaus gegen einen mittlerweile gut ausgereiften Maxwell in Hardware und Treiber, antreten muss, ohne das bislang ein ähnlicher Zeitraum für die Reife gegeben war. Deshalb muss ich die Fury X auch für mich nicht perfekt sehen, dass sind die GTX 980 etc. eben auch nicht, sie scheitern am Verbrauch beim Geldbeutel, für das wenige, was ich spiele, bin ich nicht bereit derart viel zu investieren. Das ist aber ein anderes Thema.

Was ich für mich brauche ist eine Grafikkarte die in UHD solides Tempo bezahlbar macht und ja, die Anschaffungskosten werden in meinem Fall in den seltensten Fällen durch einen geringeren Stromverbrauch kompensiert werden. Wo wir wieder beim Schuh individuell wären und der, so nebenbei, gilt auch bei Punkten wie Übertaktbarkeit etc. In der Realität tun es die wenigsten Käufer, wenn auch gefühlt in Foren etc. es die allermeisten tun. Aus meiner Sicht hat AMD durchaus die richtige Wahl bei der Fury X bei den Parametern begangen. Darüber kann man diskutieren, aber die eigene Ansicht bleibt eben einzig eine solche und der Markt wird letztendlich und hoffentlich eben AMD recht geben, es sie ihnen gegönnt. :)

StefanV
2015-06-28, 15:56:46
Das Potenzial der Kühlung kann man überhaupt nicht ausspielen weil der Chip ein OC Krüppel ist und HBM komplett gelockt ist.Wo ist das ne attraktive Karte für High-End User?
Wie wäre es mit abwarten und Tee rauchen, was die nächsten Treiber so bieten?!
Laut Gerüchten soll ja am 7.7. der Omega 2 kommen können.

Warum wartest du nicht bis dahin, bevor du dich so weit aus dem Fenster lehnst?!

Denn was mit der Karte und/oder dem Kühler wirklich möglich ist, wurde noch nicht belastbar verifiziert...

Das kann unter anderen Umständen auch ganz anders ausschauen. Da müssen wir erst mal abwarten, was die 'Fachleute' mit dieser Karte anstellen. Und wie sich die ganzen Sachen ändern können...

Von demher, solltest du weniger die Dinge flamen, die du dir eh nicht kaufen würdest. WARUM kannst du nicht wenigstens versuchen halbwegs objektiv zu sein?
WARUM musst du so sehr Werbung für einen bestimmten Hersteller machen? Was bringt es dir?
Geld wohl sicher nicht...

Aber das wird man nie verstehen, dass einige Leute an Hersteller glauben, wie andere an irgendwelche Götter...
Daher verweise ich einfach mal an Richard Dawkins.

Gimmick
2015-06-28, 16:02:55
Das eine hat mit dem anderen relativ wenig zu tun.

Insbesondere bei sehr hohen Preisen kann man durchaus befürchten, dass nicht unbedingt der Verbrauch der Grund für die Kühlung ist sondern schlicht Prestige.

Und das ist bei der Fury X nunmal definitiv so, denn die Aufnahme dieser Karte ist nicht nennenswert von der R9-290X entfernt. Und auch die Titan X ist da auch nicht soo besonders weit entfernt (wenn wir mal irgendwelche Worst Case Peak Dinger ausblenden).

So kann man letztendlich sagen, dass das Ziel eine Kühlung mit sehr vielen Reserven und geringer Lautheit war.
Man hat schlicht auf die Schelten bei der R9-290 Referenz reagiert und das komplett negiert.

Aber warum kann man diesen AUfwand, den AMD hier getrieben hat, nicht einfach mal honorieren?!
WARUM muss man alles, was AMD macht, hier nieder reden, schlecht machen und jeden Mist, den 'die anderen' abziehen so gewaltsam verteidigen?!

Du hast mich falsch verstanden.

Mein Punkt ist, dass der Stromverbrauch an sich eigentlich nie interessant ist sondern höchstens die Konsequenzen daraus.
Die Fury bleibt doch wohl kühl und leise. Fiept aber irgendwie und hat eben eine Wasserkühlung. Darauf sollte man sich konzentrieren. Ob die Eigenschaften für einen relevant sind ist der Punkt. Verbauch ist bei dem Preis eh wurscht und einen Ökopreis gewinnt keine Gaminghardware.

Dass man jetzt von der Kühlung nicht direkt auf den Verbrauch schließen kann ist klar. Da der Verbrauch aber eh egal ist, ist das dann eben auch egal ^^.

Hübie
2015-06-28, 16:14:41
Was soll diese dümmliche Frage überhaupt?
Wie soll der Verbrauch gleich sein, wenn der CPU-Takt es nicht ist?

Was ist das für eine Art? Du stellst eine These auf die falsifiziert wurde und wir müssen dir das servieren? Man such selber. Sitz im Garten und hab kein Bock für Herrn aufkrawall zu googlen.
Es nimmt sich einfach nicht viel. Du kannst dir jedes absurde Szenario kreieren, aber lassen wir die Kirche im Dorf und betrachten spielerelevante Settings. Ob du eine GTX 640 oder Titan X einsetzt: macht kaum ein Unterschied.

-/\-CruNcher-/\-
2015-06-28, 16:17:47
Bei Metro: LL langweilt sich ein 4770k eigentlich immer. Ich finde nicht, dass dieser Test meiner Aussage widerspricht.
Gesamsystemverbrauch ist ungenau und wird so noch ungenauer.

Wenn NV die CPU durch bessere Mehrkernunterstützung (wie z.B. bei Watch Dogs) besser auslastet, ist das auch ein unfairer Nachteil bei so einer Messung.
Taugt nur zur ungefähren Überprüfung eines bereits gemessenen Karten-Verbrauchs.

Naja er hat nur FPS verglichen die nach seinen aussagen marginal unterschiedlich waren leider keine externen Frametimes (latenzunterschiede) die vielleicht ein wenig mehr Auffschluss hätten geben können.

Bei Watch_Dogs stimme ich dir zu aber da merkt man den Boost sofort in der erfassbaren Latenz.

Wie man momentan den Boost mit 353.30 im Latenzverhalten sofort merkt.

fondness
2015-06-28, 16:19:50
Wenn NV die CPU durch bessere Mehrkernunterstützung (wie z.B. bei Watch Dogs) besser auslastet, ist das auch ein unfairer Nachteil bei so einer Messung.


Was ist daran unfair? Es zeigt die Realität. problematisch ist etwas ganz anderes, nämlich die schwankende Effizienz des Netzteils bei unterschiedlicher Auslastung.

-/\-CruNcher-/\-
2015-06-28, 16:24:46
Jo das ist ein Problem das man aber sicherlich auch schon längst hätte lösen können 99% effizienz währen laut einem Elektro Ingenieur der auf Industrie Netzteile spezialisiert ist (Crack kein 0815 unikant, Freelancer Weltweite Projekte) für minimalen generelen Aufpreis absolut möglich in der Herstellung.

Das sagte er mir schon weit vor dem Platinum standard, der hat verdammt viele der Asien NTs analysiert und regte sich damals schon drüber auf ;)

Raff
2015-06-28, 17:02:32
Herrje. :ugly: Ich wünschte, ich hätte die Zeit, um auf alles hier einzugehen. Habe ich aber nicht. Darum nur das Nötigste.

Die 980 TI von EVGA geht auf 1.5Ghz und hat die selben Limits wie das Standard PCB.

"Geht auf 1,5 GHz" ist ziemlich dehnbar. Die geht bestimmt auf 1,5 GHz, aber nur in powerarmen Spielen, nur ohne Speicher-OC und nur mit aufgezogener Kühlung. 1,4 GHz sind im Mittel realistischer, mit ordentlich übertaktetem Speicher ist das sogar die Obergrenze. Hier gilt: Powerlimitiertes Overclocking führt zu höherer Effizienz, da zwar der Takt (per manuellem Offset) steigt, der Chip sich aber selbst undervoltet, um im Watt-Rahmen zu bleiben.

Nun so unterschiedlich ist eben die Herangehensweise vom "Boost". Es wird auch gerne immer davon gesprochen das man ne Titan X ja so gut wie immer auf 1,5k prügeln kann, dass man dafür aber einen anderen Kühler + Biosmod braucht und damit auch noch über 400 Watt durch die Karte schickt für die die Stromversorgung eigentlich nicht spezifiziert sind (was ja ein Riesenproblem bei der R9 295X2 war) interessiert da nicht mehr.

Zu oft wird dann eben Leistung @ OC und Verbrauch/Effizienz @ Stock in eine Topf geschmissen. Aber hier mal meckern wenn die Karte 50 Watt mehr verbraucht im Worst Case :freak:

PS: Weiß man schon ob Boardpartner mit Waküs kommen (sowas wie Powercolors LCS?!)

Bitte nicht alles glauben, was im Internet steht. Und da steht viel. Nur die wenigsten Titanen gehen auf 1,5 GHz. "Gehen" ist auch hier dehnbar: Gehen im 3DMark und Heaven oder "Gehen" unter stundenlanger UHD(+)-Volllast? Da gibt's gewaltige Unterschiede und in diversen Foren ist die anhaltende Last nicht der Maßstab. Ich würde mittlerweile soweit gehen, zu sagen, dass man eine Titan X nur mit Wasserkühlung und einer TDP um 350 Watt dauerhaft zu 1,5 GHz befähigen kann. Hat man einen Popel-ASIC (50-60 %; gibt's öfter als man denkt), ist selbst das optimistisch.

Schwachsinn :mad:
Eigentlich will ich bei solchen Diskussionen nicht einsteigen, aber ich kann's einfach nicht mehr lesen :mad:

Solange man den Takt des Rams nicht hochtreibt, reicht für 1,5 Ghz bei der Titan X bei den meisten Spielen 110%, also 275 Watt gerade so aus.
Und den vergleich zwischen einer 1,5Ghz Titan mit einer Fury X möchte ich sehen ...

Dass Luft Titans diesen Takt aufgrund der Temperatur nicht halten können ist eine andere Sache.

... aber eigentlich würde es sich verbieten überhaupt eine Wassergekühlte Grafikkarte mit einer Luft gekühlten zu vergleichen.

Wenn man die Fury X vergleichen will - dann kann man das sobald die Luft gekühlten Versionen verfügbar sind.

Oder man nimmt Wasser und/oder Hybrid gekühlte Titans zur Hand - die es sehr wohl gibt.

Nochmal: Ich hatte noch keine Titan X in der Hand, die wirklich überall 1,5 GHz schafft. Skyrim? Ja. Crysis 3? Mit etwas Glück. Anno 2070? Risen 3? Nie im Leben mit dem Standard-BIOS und noch nieer im Leben ;) mit dem Standardkühler. Das muss man erneut klar sagen: Im Referenzdesign bleiben sowohl die Titan X als auch die GTX 980 Ti weit hinter ihren Möglichkeiten zurück, der GM200 wird geradezu verschwendet.

Bei Intel hat der CPU takt selbst keine großen Auswirkungen auf den Verbrauch es ist das Voltage verhalten was hier den Verbrauch ausmacht.

Sprich overclocker leben ineffizienter ;)

Definitiv, Overclocking bei unveränderter oder gar gesenkter Spannung steigert die Effizienz. Leider hat die höhere Spannung manchmal sogar einen Sinn. ;)

PCGH (Computec) kann man da überhaupt nicht ernst nehmen.

Bitte etwas genauer. Ich reiße mir täglich den Hintern auf, um vernünftige Artikel zu schreiben, und antworte sogar sonntags auf Bullshit wie diesen. Bitte nicht alles in einen Topf werfen, das macht mich rasend.

MfG,
Raff

(del)
2015-06-28, 17:06:16
Die CPU-Last ist nur bei in etwa gleich schnellen Grafikkarten einigermaßen identisch. Jage ich in so einem Spiel eine GT 630 in den Slideshow-Modus, bucht die CPU derweil Urlaub bei der TUI. Allerdings sind die Unterschiede unterm Strich nicht ganz so dramatisch wie bei Grafikkarten, da das Delta der Verlustleistung zwischen Niedrig- Normal- und Extremlast vergleichsweise mager ist, wenn man nicht gerade seinen i7 5960X über den Turbo Core einzeln auf 4.8 GHz übertaktet. Consumer-Brötchen wie ein 4790K sind da weitaus unkritischer.


Bitte etwas genauer. Ich reiße mir täglich den Hintern auf, um vernünftige Artikel zu schreiben, und antworte sogar sonntags auf Bullshit wie diesen. Bitte nicht alles in einen Topf werfen, das macht mich rasend.
Wort zum Sonntag:cool: Nochmal melde ich mich hier aber auch nicht an, einmal reicht :freak:

BTW:
Selbst 1.4 GHz sind mit der TitanX und dem Referenzkühler unter Last nicht order nur sehr selten erreichbar. Unter Wasser und mit anderem BIOS geht's ganz gut, aber dann ist die Effizienz voll im Eimer. Selbst Gigabyte wird wohl demnächst auf der 980 Ti Gaming G1 das Power Target wieder auf 280 Watt runter setzen. Ich teste gerade ein Beta-BIOS und man bekommt GPU und Spannungswandler mit deutlich weniger Propellergedöns auf identische Temperaturen. Dann ist zwar der Boost im Schnitt 30 MHz niedriger, aber was soll's? Das sind doch Peanuts. Über 4 dB(A) weniger Geräuschkulisse sind hingegen echt eine Hausnummer.

aufkrawall
2015-06-28, 17:17:01
Was ist daran unfair? Es zeigt die Realität.

Das zeigt genau so die Realität wie 220W Verbrauch von Fiji bei Heaven, bei dem die GPU deutlich langsamer ist als GM200, was aber nicht erwähnt wird...

gedi
2015-06-28, 17:21:29
Herrje. :ugly: Ich wünschte, ich hätte die Zeit, um auf alles hier einzugehen. Habe ich aber nicht. Darum nur das Nötigste.



"Geht auf 1,5 GHz" ist ziemlich dehnbar. Die geht bestimmt auf 1,5 GHz, aber nur in powerarmen Spielen, nur ohne Speicher-OC und nur mit aufgezogener Kühlung. 1,4 GHz sind im Mittel realistischer, mit ordentlich übertaktetem Speicher ist das sogar die Obergrenze. Hier gilt: Powerlimitiertes Overclocking führt zu höherer Effizienz, da zwar der Takt (per manuellem Offset) steigt, der Chip sich aber selbst undervoltet, um im Watt-Rahmen zu bleiben.



Bitte nicht alles glauben, was im Internet steht. Und da steht viel. Nur die wenigsten Titanen gehen auf 1,5 GHz. "Gehen" ist auch hier dehnbar: Gehen im 3DMark und Heaven oder "Gehen" unter stundenlanger UHD(+)-Volllast? Da gibt's gewaltige Unterschiede und in diversen Foren ist die anhaltende Last nicht der Maßstab. Ich würde mittlerweile soweit gehen, zu sagen, dass man eine Titan X nur mit Wasserkühlung und einer TDP um 350 Watt dauerhaft zu 1,5 GHz befähigen kann. Hat man einen Popel-ASIC (50-60 %; gibt's öfter als man denkt), ist selbst das optimistisch.



Nochmal: Ich hatte noch keine Titan X in der Hand, die wirklich überall 1,5 GHz schafft. Skyrim? Ja. Crysis 3? Mit etwas Glück. Anno 2070? Risen 3? Nie im Leben mit dem Standard-BIOS und noch nieer im Leben ;) mit dem Standardkühler. Das muss man erneut klar sagen: Im Referenzdesign bleiben sowohl die Titan X als auch die GTX 980 Ti weit hinter ihren Möglichkeiten zurück, der GM200 wird geradezu verschwendet.



Definitiv, Overclocking bei unveränderter oder gar gesenkter Spannung steigert die Effizienz. Leider hat die höhere Spannung manchmal sogar einen Sinn. ;)



Bitte etwas genauer. Ich reiße mir täglich den Hintern auf, um vernünftige Artikel zu schreiben, und antworte sogar sonntags auf Bullshit wie diesen. Bitte nicht alles in einen Topf werfen, das macht mich rasend.

MfG,
Raff

Exakt - wobei ich dies gar noch drastischer formulieren würde: Das Powerlimit mit Default-Bios ist bei einer 980Ti die letzte Scheiße, da durch das ganze herumgetakte es zu massiven Rucklern kommt. Seltsam, dass dies Problem auf der 980 non Ti wenig bis gar nicht auftrat.

Mit Marke Eigenbau-Bios finde ich die Absenkung der Vcore mit zunehmender Temperatur hilfreich, so dass hier bei sehr schnell erreichten 80°C noch 1.495G bei 1.162V anliegen - aber die dauerhaft und Rockstable, trotz der grausamen Referenz-Lüftung :redface:

aufkrawall
2015-06-28, 17:29:29
Referenz ist bei GM200 wirklich nicht gut mit nur +10% zusätzlichem Powertarget. Es bräuchte +25% wie bei der 980. Ich würde von der Ti also nur Custom kaufen, Bios-Mod kann man so vermeiden (zwar harmlos, aber trotzdem mit gewissen Unsicherheiten verbunden).

M@TRIX™
2015-06-28, 17:31:34
Also ich hab die Fury X jetzt seit dem 25. und ich bin mehr als zufrieden, des Fiepen ist zwar bei mir auch vorhanden, aber ich nehme es nicht wahr, mein Rechner steht ca einen halben Meter von mir weg.

Und was ich am besten finde sind die Temperaturen der Karte, hab eben ungefähr 2 Stunden Batman gespielt und die Temperatur lag bei 47 Grad, habe dann mal zum Test den Lüfter der AIO auf 100% gestellt und habe 20 Minuten weiter gespielt, habe dann nachgeguckt wie viel Grad sie erreicht wenn der Lüfter auf maximale Drehzahl läuft, es waren 36 Grad. einfach ein Traum. :)

Mit so einer Temperatur müsste auf jeden fall viel OC potential vorhanden sein, aber das wird sich erst in Zukunft zeigen sobald man den VCore anheben kann usw.

Die Fury X ist die beste Karte die ich je hatte, auch wenn sie nur 4 GB hat und auch wenn sie nicht die Leistung hat, die alle erwartet hatten, aber es kann ab jetzt eh nur noch besser werden. :)

MfG

akuji13
2015-06-28, 17:39:38
Meine war schon bei 73°. :eek:

Sind natürlich auch harte Bedingungen hier. :D

(del)
2015-06-28, 17:57:27
...Mit Marke Eigenbau-Bios finde ich die Absenkung der Vcore mit zunehmender Temperatur hilfreich, so dass hier bei sehr schnell erreichten 80°C noch 1.495G bei 1.162V anliegen - aber die dauerhaft und Rockstable, trotz der grausamen Referenz-Lüftung :redface:

Mit welcher Last? Ich habe keine Karte bisher dazu bewegen können, dies auch bei voller Auslastung konstant zu halten. Nicht mit dem Referenzkühler. Ich würde an Deiner Stelle auch mal die Ergebnisse mit denen bei etwas niedrigerem Takt vergleichen, denn ich hatte schon Fälle, wo zwar der Takt augenscheinlich höher war, die echte Performance beim höherem Boost im Grenzbereich aber leicht eingebrochen ist.

-/\-CruNcher-/\-
2015-06-28, 18:25:17
Ich bezweifle, dass CM wirklich preiswerter ist. Und CM Pumpen waren noch nie wirklich leise. DAS zumindest hätte man vorher wissen können. Aber es ist eh zu spät. An sich finde ich den aufgeblasenen Tonga als Fiji nicht mal übel, aber das Teil weit so über dem Sweet Spot zu betreiben, hat schon der R9 380 nicht wirklich gut getan.

Was ich sagen wollte.:
Ein Großteil der Meinungsbildung geschieht nun mal über die Medien. Und genau dort hat AMD eigentlich grandios versagt, nicht beim Chipdesign. Wenn man fair zu den Medien ist, auf alberne Marketingspielchen verzichtet, kollegial und partnerschaftlich mit den Redakteuren umgeht, genügend Zeit für Tests und mögliche Nachfragen einräumt, auch im Vorfeld mal unvoreingenommen zuhört und dann auch nicht nur Platitüden als Antwort verschickt, genau dann kann auch ein Launch eines (noch) nicht ganz so runden Produktes gelingen. Wenn alle an einem Strang ziehen. So aber wird sinnlos Druck bei Reviewern, Distributoren, Händlern und Kunden aufgebaut, der dann die ganze Blase viel zu laut platzen lässt. Leider.

Wie Du schon schriebst: die Karte hätte Besseres verdient. Nur eben nicht so. AMD hat ja nicht mal Samples für einen Nachtest. Also habe ich mir privat was bestellt. Rein aus Neugier.

Es kommen noch die Fury und die Nano da kann AMD einiges wiedergutmachen und das sollten sie nutzen sonst geht ihre Release Strategie diesmal extrem den Bach runter sie hatten den Vorteil sie wussten was Nvidia releasen wird wieso kommen sie als erstes mit der Fury X das wird mir noch lange ein Rätsel bleiben ;)

Diese Strategie stand schon seit den ersten Wakü Design Leaks fest es ist einfach unfassbar das man versucht Nvidia Shares abzuluxen mit der alten Stretegie von Nvidia selbst und das schon 2x hintereinander so durchzuziehen kompletter Größenwahn nach dem Konsolen Win kann ich da nur attestieren.

Die Nano werd ich aber so oder so adoptieren egal was die Reviewer kritzeln werden über sie ;)

@Raff
Kritik an eurer Balkenorgien Methodik und eure Unfähigkeit darauf zu reagieren haben user inklusive mir schon oft genug geäusert.

Bis der Kommerziele druck dann mal zu groß wurde und ihr ein wenig reagiert habt in meinen Augen zu spät in eurem fokus, was soll man davon halten innovation sieht anders aus.

mironicus
2015-06-28, 18:37:15
Die Fury Pro könnte punkten mit...
- Luftkühlung :D
- Preis (-100 Dollar)
- nur geringfügig langsamer als Fury XT

Für 549 Dollar oder <599 Euro liegt das genau zwischen 980 und 980 Ti. Deren preislicher Abstand ist sehr groß und AMD liegt dazwischen mit mehr Leistung in Richting 980 Ti.

gedi
2015-06-28, 18:37:20
Mit welcher Last? Ich habe keine Karte bisher dazu bewegen können, dies auch bei voller Auslastung konstant zu halten. Nicht mit dem Referenzkühler. Ich würde an Deiner Stelle auch mal die Ergebnisse mit denen bei etwas niedrigerem Takt vergleichen, denn ich hatte schon Fälle, wo zwar der Takt augenscheinlich höher war, die echte Performance beim höherem Boost im Grenzbereich aber leicht eingebrochen ist.

Ich habe mir ein 300W BIOS gebastelt, welches per AB, Inspector o.ä. auf 360W aufgebohrt werden kann. Temp.-Target: 91°C. Typische Last unter 1440p und 1620p zwischen 95% und 110% - theoretisch also zwischen 290W und 330W, wobei die 110% nur ganz selten anliegen. Bei Anno 2070 z.B. sind es so zwischen 99%-105%, bei Project Cars 98%-103%, Metro LL bis 105%, der Blödman braucht afair weniger, die sythetischen Benchmarks wie Unigine oder 3dK13 bis zu 98%.

Das heißt, bei mir geht es sehr zügig auf 89°C, dann allerdings wird die Temperatur durchweg auf 87°C bis 88°C gehalten - bei automatischem Lüfterprofil. Der Propeller dreht dann aber mit bis zu 85% auf und ist durch das grelle Surren nur schwer zu ertragen.

iuno
2015-06-28, 18:52:17
Die Fury Pro könnte punkten mit...
- Luftkühlung :D
- Preis (-100 Dollar)
- nur geringfügig langsamer als Fury XT

Für 549 Dollar oder <599 Euro liegt das genau zwischen 980 und 980 Ti. Deren preislicher Abstand ist sehr groß und AMD liegt dazwischen mit mehr Leistung in Richting 980 Ti.
Die X ist auch wegen der WaKü so effizient, die niedrigere Temperatur macht schon einige Watt aus.
Natürlich müssen die Boardpartner alleine schon wegen HBM diesmal ihre Kühler anpassen, aber wenn sie ähnlich 'ambitioniert' vorgehen wie bei Hawaii wird es imho sehr schwer für die Fury :rolleyes:
Das gehört aber eigentlich auch eher in den Speku-Thread

(del)
2015-06-28, 18:54:42
@Gedi:
Dann viel Spaß mit Deinem potentiellen Grillferkel. Vor allem BIOS-Bastler vegessen fast immer die wichtigsten Regeln einer funktionierenden Telemetrie, weil sie sich bereits für Hackzilla halten, nur weil sie per Tool ein paar Values im BIOS umbiegen können. Nicht die Spannung an sich ist das Problem, sondern die Häufigkeit, in der sie in voller Pracht anliegt. Ich will Dich jetzt nicht mit Voids und Hillocks langweilen, aber die Elektromigration is a bitch und auch der GM200 ist reichlich anfällig. Die Temperatur ist nur sekundär für den Alterungsprozess. Das jedenfalls belegen AIB interne Informationen und nicht umsonst gibt es seit Kepler so etwas wie "Nvidias Rules" für die Hersteller.

Ich erinnere mich gern an das hier, was ich damals eher zufällig gefunden haben (diesmal aber eine Firma):
http://www.tomshardware.de/MSI-GTX660Ti-Overvolting,testberichte-241108.html

Diese sinnlose Aktion hat damals die eine Menge Kohle gekostet. Nein, nicht der Artikel, sondern die Karten, von denen so einige das erste Jahr wegen diesem Schmarrn nicht überlebt haben.

StefanV
2015-06-28, 19:06:20
Die X ist auch wegen der WaKü so effizient, die niedrigere Temperatur macht schon einige Watt aus.
Ach und das hast du ausprobiert?

Und da du das behauptest, kannst du sicher auch deine Behauptung belegen, oder etwa nicht?!

gedi
2015-06-28, 19:12:27
Danke für den Hinweis und der Artikel war auch demensprechend interessant, allerdings trifft dieses Problem bei mir wohl eher nicht zu, da ich an der Betriebsspannung, also der VCore, nichts verändere. Zudem beläuft es sich bei mir um ein Palit Kikilalla-Referenzdesign - also (hoffentlich) nix mit Schaltungsfehler und dergleichen. Und wie bereits erwähnt - hier liegen nach sehr kurzer Zeit dauerhaft 1.162V an, um die Temperatur und damit auch um den Takt, bemüht sich der Brüller - ähm Propeller meinte ich ;)

Timbaloo
2015-06-28, 19:12:43
Ach und das hast du ausprobiert?

Und da du das behauptest, kannst du sicher auch deine Behauptung belegen, oder etwa nicht?!
Das wurde im Rahmen der 290x mehrfach getestet und bestätigt.

StefanV
2015-06-28, 19:18:38
Das wurde im Rahmen der 290x mehrfach getestet und bestätigt.
...was jetzt welchen Bezug auf die Fury hat?
Außer, dass beide in einem 28nm Prozess gefertigt werden...

Sorry, aber so musst du dir gefallen lassen, dass man dir unterstellt, dass du hier nur einfach sinnlos diese Karte flamst, mit irgendwelchen an den Haaren herbeigezogenen ARgumenten, weil sonst ja nix bleibt.

Wenn dich das Kärtel nicht interessiert, schön für dich.

Aber warum um alles in der Welt versuchst du hier als Missionar aufzutreten und den 'bösen AMD Käufer' ein relativ gutes Produkt madig zu machen?!
WAS zur Hölle versprichst du dir davon?!

(del)
2015-06-28, 19:19:38
... hier liegen nach sehr kurzer Zeit dauerhaft 1.162V an ...

Genau da liegt aber das Problem. Gerade die Telemetrie in der Firmware sorgt in ihrer Ganzheit (Sensoren, Treiber) dafür, dass exakt so etwas eigentlich nie eintritt. Das ist schon die Maximalspannung, die freigegeben ist, solange die anderen Werte dafür sorgen, dass kein Langzeitschaden durch Dauerstress entstehen kann, sondern die Spannung alterniert. Wenn so etwas nicht dauerhaft anliegt, kann man sogar mit der Spannung höher gehen und trotzdem weniger Elektromigration riskieren. Wobei die 1.162 doch eher harmlos sind. ;)

Ich fahre mein 980er SLI unter Wasser mit 1.93V, spiele aber nicht sonderlich oft. Mal sehen, wann und ob es Peng macht :D

Timbaloo
2015-06-28, 19:23:55
...was jetzt welchen Bezug auf die Fury hat?
Außer, dass beide in einem 28nm Prozess gefertigt werden...

Sorry, aber so musst du dir gefallen lassen, dass man dir unterstellt, dass du hier nur einfach sinnlos diese Karte flamst, mit irgendwelchen an den Haaren herbeigezogenen ARgumenten, weil sonst ja nix bleibt.

Wenn dich das Kärtel nicht interessiert, schön für dich.

Aber warum um alles in der Welt versuchst du hier als Missionar aufzutreten und den 'bösen AMD Käufer' ein relativ gutes Produkt madig zu machen?!
WAS zur Hölle versprichst du dir davon?!
Jetzt mal halblang Kleiner. Ich habe lediglich einen Hinweis darauf gegeben, dass bei der 290x die Temperatur einen Einfluss auf die Leistungsaufnahme (und damit Effizienz) hatte, was durch Untersuchungen belegt wurde. Wenn dir das nicht passt, gut. Aber mich hier so dumm von der Seite anzumachen kannst du dir in deinen verklemmten Hintern stecken. Du bist hier nur noch aggro unterwegs und flamest in jedem Beitrag nur noch rum und machst Leute blöd von der Seite an. Es ist mir langsam zu blöd mit dir. Ich hoffe die Moderation gibt dir mal eine Auszeit, die hast du dir redlich verdient.

Raff
2015-06-28, 19:24:47
Stefan, es ist wahrlich nichts Neues, dass Mikroprozessoren bei niedrigen Temperaturen effizienter laufen als bei hohen. Der erste Prominente war der Pentium 4 und spätestens GF100 zeigte, dass ein guter Kühler sehr viel ausmacht. Hawaii hätte man direkt zum Start auch mit einer Fluidkühlung bestücken sollen.

MfG,
Raff

StefanV
2015-06-28, 19:39:13
Jetzt mal halblang Kleiner.
Getroffene Hunde bellen, oder wie sagt man so schön.


Ich habe lediglich einen Hinweis darauf gegeben, dass bei der 290x die Temperatur einen Einfluss auf die Leistungsaufnahme (und damit Effizienz) hatte, was durch Untersuchungen belegt wurde.
Ja, und warum musst du das in so ziemlich jedem deiner Postings erwähnen?!
Fällt dir sonst nix mehr ein, um die AMD Karte schlechter zu machen als sie ist?!

Oder stört dich nur, dass AMD es gewagt hat, der Fury ab Werk einen richtig guten Kühler zu verpassen?!
Oder wo ist jetzt genau das Problem bzw der Grund, warum du dieses bei gefühlt jedem zweiten deiner Postings betont?!

Noch einmal für dich:
DIe Fury X hat ab Werk eine richtig gute Kühlung, die verdammt gut kühlt (Titan X übrigens nicht).
Temperaturen um 80-90°C interessieren hier nicht, da die Karte das in der Regel gar nicht erreicht.

Also warum jetzt auf der Temperatur rumreiten?!


Wenn dir das nicht passt, gut. Aber mich hier so dumm von der Seite anzumachen kannst du dir in deinen verklemmten Hintern stecken. Du bist hier nur noch aggro unterwegs und flamest in jedem Beitrag nur noch rum und machst Leute blöd von der Seite an. Es ist mir langsam zu blöd mit dir. Ich hoffe die Moderation gibt dir mal eine Auszeit, die hast du dir redlich verdient.
Gewtroffene Hunde bellen...

Wie wäre es, wenn du anfangen würdest, zu versuchen, das ganze etwas sachlicher zu sehen und nicht so verbissen die AMD Karte schlecht redest und bei jedem Posting die Fury schlecht zu reden?!

Die niedrigere Temperatur kann man AMD nun wirklich NICHT anlasten, eher könnte man nVidia anlasten, der Titan X solch einen Schrott KÜhler spendiert zu haben, der durchaus schon auf dem Lautstärkeniveau der R9-290(X) agiert...

@Raff
DAs ist mir schon klar, nur waren auch die Aussagen einiger Leute, die das mal getestet haben, dass die Leckströme erst ab einem bestimmten Punkt deutlich zu nehmen (AFAIR über 85°C oder so), darunter die Unterschiede aber gar nicht so gewaltig sind...

Ganz ab davon hat noch niemand wirklich die Auswirkung der Temperatur auf die Verlustleistung bei dieser Karte getestet. Bevor das nicht geschehen ist, sollte man sich mit solchen Aussagen eher bedekt halten, da man eben NICHT weiß, wie die Auswirkungen sind.
Dass es welche gibt, OK, klar. Aber davon ist ja nicht nur AMD betroffen!

Oder hast du gesehen, dass jemand bei der TItan X die hohen Temperaturen angemerkt hat?!

gedi
2015-06-28, 19:48:38
Genau da liegt aber das Problem. Gerade die Telemetrie in der Firmware sorgt in ihrer Ganzheit (Sensoren, Treiber) dafür, dass exakt so etwas eigentlich nie eintritt. Das ist schon die Maximalspannung, die freigegeben ist, solange die anderen Werte dafür sorgen, dass kein Langzeitschaden durch Dauerstress entstehen kann, sondern die Spannung alterniert. Wenn so etwas nicht dauerhaft anliegt, kann man sogar mit der Spannung höher gehen und trotzdem weniger Elektromigration riskieren. Wobei die 1.162 doch eher harmlos sind. ;)

Ich fahre mein 980er SLI unter Wasser mit 1.93V, spiele aber nicht sonderlich oft. Mal sehen, wann und ob es Peng macht :D

Ich denke, bzw. hoffe, dass 1.162V unbedenklich sind. Besonderes hier im Forum knallen viele 1.27V auf ihren BohlenX (interessant dass die gleichen Leute dann hier im Thread sich negativ über FuryX und deren Verbrauch auslassen :confused:). Eigentlich wollte ich primär nur den Lastwechsel und damit das Stottern eliminieren. Dass sie sich dadurch auch noch derart gut takten lässt, ist natürlich ein sehr netter Nebeneffekt und macht für mich, um endlich mal wieder zum Thema zurückzukommen, FuryX in der derzeitigen Situation leider uninteressant. Mal schauen was kommende Treiber, Windows 10 incl. API DX12, fehlerbereinigte Kühllösungen so bringen.

Timbaloo
2015-06-28, 19:51:05
Den Rest deines Beitrags ignoriere ich jetzt einfach, denn es ist mir etwas zu wirr was du da redest, ich glaube langsam du verwechselst mich mit irgendjemandem, ich habe beispielsweise keine Ahnung was du mir mit der Titan X kommst, die Karte finde ich so spannend wie weisses Rauschen und habe glaube ich exakt 0 Posts im entsprechenden (P)Review-Thread.

Aber das hier interessiert mich nun doch:
Ja, und warum musst du das in so ziemlich jedem deiner Postings erwähnen?!
Fällt dir sonst nix mehr ein, um die AMD Karte schlechter zu machen als sie ist?!
Nenne doch mal die Posts wo ich die Fury X schlecht mache? Komm, auch mal Fakten liefern nicht nur rumsabbeln und aggro werden.

N0Thing
2015-06-28, 19:51:23
Unglaublich wie sich das entwickelt entwickelt hat. Am Anfang waren nur FPS wichtig (V1 schneller als S3 Virge, Matrix Mystique etc), BQ wurde nur kurz angesprochen (S3 Virge filtert hässlich, Matrox gar nicht, Rendition und PowerVR bieten die beste BQ), Lautstärke hat damals niemanden interessiert (bei den kleinen Lüftern... ^^), und der Stromverbrauch auch nicht, schließlich haben wir damals noch bei Mama und Papa gewohnt :D

Also weder meine S3 Virge, noch die Matrox Mystique meines Bruders hatte einen Miniquirl.
Und der Stromverbrauch war damals tatsächlich egal, sowohl wenn man auf den damaligen Preis pro kW/h schaut, als auch im Hinblick auf den Verbrauch der damaligen Komponenten. ;)




Fällt dir sonst nix mehr ein, um die AMD Karte schlechter zu machen als sie ist?!


Für mich klingt es positiv, wenn eine Karte kühl bleibt und dadurch effizient ist. Aber wenn du da anderer Meinung bist, erklärt das wohl auch deine exklusive Sicht auf die Korrelation von Temperatur und Leistungsaufnahme bei Halbleitern. Aber vielleicht hast du recht und Fiji wird der erste Chip sein, der bei höheren Temperaturen weniger Strom benötigt. ;D

Timbaloo
2015-06-28, 19:54:30
Gibt ja auch Kaltleiter und Heißleiter :P

dildo4u
2015-06-28, 19:57:42
Test mit einer Retail Karte hat neben dem Pumpen Geräusch auch noch Spulenfiepen.


https://youtu.be/iEwLtqbBw90

StefanV
2015-06-28, 19:59:07
Test mit einer Retail Karte hat neben dem Pumpen Geräusch auch noch Spulenfiepen.
https://youtu.be/iEwLtqbBw90
...als ob das bei nVidia Karten mal gar nicht auftreten würde...

dildo4u
2015-06-28, 20:02:55
...als ob das bei nVidia Karten mal gar nicht auftreten würde...
Wie wärs wenn du erstmal das Video guckst er hat verschiedene 980 TI getestet dort gabs kein Spulenfiepen.Ist auch vollkomemn logisch das man bei einer 700$ bessere Bauteile einsetzen kann als bei einer 970.
Natrülich wird AMD dort weniger Spielraum haben da sie schon ne Wakü verbauen und HBM als komplett neue Technologie nicht grad billig sein wird.

M@TRIX™
2015-06-28, 20:07:40
Hab eben rausgefunden wie man den Speicher der Fury X Takten kann.

Aber bringen tut es nicht viel, in 3D Mark Fire Strike brachte die Anhebung des Takts von 500 auf 600 Mhz nur 1-2 FPS, dazu gab es leichte Grafikfehler.

http://www11.pic-upload.de/28.06.15/p41vcrz71yc.jpg (http://www.pic-upload.de/view-27515319/furyx-oc.jpg.html)

dildo4u
2015-06-28, 20:09:49
Bandbreite sollte mit HBM nich das Problem sein macht also Sinn.

=Floi=
2015-06-28, 20:15:53
Würde man es echt allen Recht machen wollen und alles bis ins Detail abdecken, dann würden solche Messungen länger als das ganze Spielerumgebenche dauern und es würde einem trotzdem keiner danken. Aufwand und Nutzen? Ich mag gar nicht dran denken :)
mach dir hald ein script, wo die die tastatureingaben immer gleich ablaufen lässt.

Lard
2015-06-28, 20:16:44
Hab eben rausgefunden wie man den Speicher der Fury X Takten kann.

Aber bringen tut es nicht viel, in 3D Mark Fire Strike brachte die Anhebung des Takts von 500 auf 600 Mhz nur 1-2 FPS, dazu gab es leichte Grafikfehler.

Köntest du die Karte mit OpenCL MemBench testen, mit 500 und 600 MHz?:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=560727

Tamagothi
2015-06-28, 20:20:57
Stefan, es ist wahrlich nichts Neues, dass Mikroprozessoren bei niedrigen Temperaturen effizienter laufen als bei hohen. Der erste Prominente war der Pentium 4 und spätestens GF100 zeigte, dass ein guter Kühler sehr viel ausmacht. Hawaii hätte man direkt zum Start auch mit einer Fluidkühlung bestücken sollen.

MfG,
Raff

Hab irgendwo einen Test von mehreren GTX 980 Ti gesehen.

Eine davon war wassergekühlt aber Referenz geTaktet und einer war Standard Referenz.

Die Wasserkühlte und die Referenzkarte hatten selben Fps und den selben Verbrauch bloß die H²O war kühler.

So viel dazu Kühler= weniger verbrauch

ps. ich such mal nach der Seite

Digidi
2015-06-28, 20:28:07
--

Und den Vantage allein würd' ich nicht als Aussage hernehmen, schließlich misst der sogar offiziell die Füllrate, die bei Fiji im Vergleich zu Hawaii pro Takt gleich ausfällt. Hier kann Fiji durch HBM nur bei Blending & Co. profitieren, vor allem bei bandbreitenintensiven Tests, z.B. mit FP16-Targets. Da liegt er dann auch standesgemäß vor Hawaii. Synthies waren noch nie AMDs Problem.
http://www.hardware.fr/articles/937-4/performances-theoriques-pixels.html

Danke für die Infos und den Link. Was sagen mir eigentlich die Werte aus dem Link? Was wird den heutzutage so benutzt mit oder ohne Blending / Int8 FP16 etc.?

Ohne Blending und in Int8 sieht die Fury nicht gut aus.

Schnoesel
2015-06-28, 20:30:05
Hab irgendwo einen Test von mehreren GTX 980 Ti gesehen.

Eine davon war wassergekühlt aber Referenz geTaktet und einer war Standard Referenz.

Die Wasserkühlte und die Referenzkarte hatten selben Fps und den selben Verbrauch bloß die H²O war kühler.

So viel dazu Kühler= weniger verbrauch

ps. ich such mal nach der Seite

http://www.computerbase.de/2015-06/geforce-gtx-980-ti-custom-test-partnerkarten-vergleich/4/#abschnitt_leistungsaufnahme

M@TRIX™
2015-06-28, 20:30:43
Köntest du die Karte mit OpenCL MemBench testen, mit 500 und 600 MHz?:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=560727

Kein Problem.

http://www11.pic-upload.de/28.06.15/3v87mcvjenj.jpg (http://www.pic-upload.de/view-27515646/oclmembench.jpg.html)

Lard
2015-06-28, 20:34:53
Kein Problem.
Danke, sieht sehr gut aus.

-/\-CruNcher-/\-
2015-06-28, 20:35:09
@Gedi:
Dann viel Spaß mit Deinem potentiellen Grillferkel. Vor allem BIOS-Bastler vegessen fast immer die wichtigsten Regeln einer funktionierenden Telemetrie, weil sie sich bereits für Hackzilla halten, nur weil sie per Tool ein paar Values im BIOS umbiegen können. Nicht die Spannung an sich ist das Problem, sondern die Häufigkeit, in der sie in voller Pracht anliegt. Ich will Dich jetzt nicht mit Voids und Hillocks langweilen, aber die Elektromigration is a bitch und auch der GM200 ist reichlich anfällig. Die Temperatur ist nur sekundär für den Alterungsprozess. Das jedenfalls belegen AIB interne Informationen und nicht umsonst gibt es seit Kepler so etwas wie "Nvidias Rules" für die Hersteller.

Ich erinnere mich gern an das hier, was ich damals eher zufällig gefunden haben (diesmal aber eine Firma):
http://www.tomshardware.de/MSI-GTX660Ti-Overvolting,testberichte-241108.html

Diese sinnlose Aktion hat damals die eine Menge Kohle gekostet. Nein, nicht der Artikel, sondern die Karten, von denen so einige das erste Jahr wegen diesem Schmarrn nicht überlebt haben.

Sowas ist doch gang und gebe was da alles manipuliert wird z.b das bekannte MB tuning mal 1 Mhz mehr FSB und schwups Balkenorgie bei den Reviewern gewonnen ;)

Tamagothi
2015-06-28, 20:35:29
http://www.computerbase.de/2015-06/geforce-gtx-980-ti-custom-test-partnerkarten-vergleich/4/#abschnitt_leistungsaufnahme


Danke :love3:

Screemer
2015-06-28, 20:40:54
Kein Problem.

http://www11.pic-upload.de/28.06.15/3v87mcvjenj.jpg (http://www.pic-upload.de/view-27515646/oclmembench.jpg.html)
Warum gibts denn bei den letzten 500mb so nen massiven Einbruch?

akuji13
2015-06-28, 20:41:11
@Tamagothi
Ein solcher Quervergleich ist sinnlos, da selbst 2 Referenzkarten unterschiedliche Leistungsaufnahmen verursachen können.

Meine GTX 470 hatte ebenso wie die X unter Wasser weniger Leistungsaufnahme.

http://ht4u.net/reviews/2014/arctic_accelero_iv_xtreme_im_test_auf_r9_290/index10.php
http://ht4u.net/reviews/2014/arctic_accelero_iv_xtreme_im_test_auf_r9_290/index11.php
http://www.hardwareluxx.de/index.php/artikel/hardware/kuehlung/30664-arctic-accelero-xtreme-iv-im-test.html?start=1

Timbaloo
2015-06-28, 20:45:01
Warum gibts denn bei den letzten 500mb so nen massiven Einbruch?
Liegt glaube ich an Fensteranwendung.

(del)
2015-06-28, 20:46:58
mach dir hald ein script, wo die die tastatureingaben immer gleich ablaufen lässt.

Bringt in einer dynamischen Welt nicht viel außer weiteren Unwägbarkeiten. Ich habe 17 Jahre als Programmierer gearbeitet und es wäre auch ein Klacks, extern Makros aufzuzeichnen und später abzurufen. Aber auch bei Spielen wie bei GTA V z.B. scheiterst Du damit grandios und die ganzen tollen Benchmarks sind nicht 100%-ig reproduzierbar. Dann lieber Scenen aus dem Ingame-"Videorecorder" rendern lassen. Das stimmen Umgebung, Trafiic etc. 100%-ig überein. Nein, es ist nicht so einfach, wie man oft denkt.

Schnoesel
2015-06-28, 20:48:26
Ich denke auch dass es darauf ankommt ab welcher Temperatur das wirklich Auswirkungen hat. Ob du eine Hawaii mit 60° oder 94° betreibst macht dann wohl eine größeren Unterschied als einen GM 200 zwischen 50° und 80°. Zumindest bei Hawaii ging da noch einiges:

http://www.tomshardware.de/r9-290-umbau-wasserkuhlung-review-tutorial,testberichte-241464-4.html

Mir gehts dabei aber eher um die Laustärke bei der Kühlung. Leise und zwar immer.

aufkrawall
2015-06-28, 20:49:07
Die Unterschiede sollten doch nie signifikant sein und die Ergebnisse lassen sich durch mehrmaliges Wiederholen bestätigen oder eben nicht.
Warum macht ihr es so kompliziert? :confused:

BlacKi
2015-06-28, 20:55:32
Danke :love3:
was sieht man?

die referenz karte taktet 1114mhz und das systembraucht 379

king mod taktet 1202mhz und das system braucht 370w.

die kingmod taktet 9% höher und verbraucht dabei 2,4% weniger strom.

Schnoesel
2015-06-28, 21:06:49
Ich sehe da

KFA² GTX 980 Ti 1.189/3.502 MHz (1.114 nicht maximiert)
King Mod Inno3D GTX 980 Ti 1.202/3.502 MHz

und

KFA² GTX 980 Ti : 352 gesamt (wobei das wohl nicht richtig ist da der max Wert der KFA nicht angegeben ist): Nvidia Referenz Max liegt bei 379 aber da es unterschiedliche Karten sind...
King Mod Inno3D GTX 980 Ti : 370 gesamt

Arghs CB und das scheiß Max

Wobei KFA hier die Referenkarte ist.

Troyan
2015-06-28, 21:11:41
Kein Problem.

http://www11.pic-upload.de/28.06.15/3v87mcvjenj.jpg (http://www.pic-upload.de/view-27515646/oclmembench.jpg.html)

Kannst du im 3DMark Vantage den Colorfillrate Test jeweils mit 500MHz und 600MHz laufen lassen?

/edit: Gerade gesehen, dass man da bezahlt haben muss. Schade.

Tamagothi
2015-06-28, 21:11:48
was sieht man?

die referenz karte taktet 1114mhz und das systembraucht 379

king mod taktet 1202mhz und das system braucht 370w.

die kingmod taktet 9% höher und verbraucht dabei 2,4% weniger strom.


Ich hab mich Falsch erinnert ich ging von diesen Zwei Karten aus ( doch keine Referenz Karte )

KFA² GTX 980 Ti 1.189/3.502 MHz @ 83°

352 Watt

King Mod Inno3D GTX 980 Ti 1.202/3.502 MHz @ 51°

370 Watt

-/\-CruNcher-/\-
2015-06-28, 21:12:47
Die Unterschiede sollten doch nie signifikant sein und die Ergebnisse lassen sich durch mehrmaliges Wiederholen bestätigen oder eben nicht.
Warum macht ihr es so kompliziert? :confused:
Weil man es vielleicht richtig machen will und nicht wie jemand der im Multiplayer irgendwo rumläuft und seine werte postet und das als realen vergleich hinstellt der aber überhaupt keine aussagekraft über irgendetwas besitzt wenn man exakte Szenarios vergleichen will dazu aber exakt den selben Load benötigt ;)

Das Problem nur GTA 5 ist auf der Optimierungsliste der IHVs noch ziemlich weit oben @ Igor vor allem auf Nvidias da die meisten Shader ja primär AMD GCN optimiert sind ;)

BlacKi
2015-06-28, 21:16:13
der test zeigt nicht eindeutig das die wakü sprasamer ist oder nicht, da der takt nicht derselbe ist.

mironicus
2015-06-28, 21:18:59
Im Hardwareluxx-Forum behaupten ein paar Fury X-Besitzer das deren Karten mit bis zu 1220 MHz laufen...

Mod gegen den Lärm:
http://www.hardwareluxx.de/community/attachments/f305/327498d1435432818-amd-fury-x-fiji-xt-sammelthread-faq-img_1101.jpg

Ist das wohl gesund für die Karte (Hitze)?

Schaffe89
2015-06-28, 21:23:24
Ich hab einfach ein kleines Stück schaumstoff zwischen das Coolermastersiegel und den Kühler gepresst, dann war das erledigt.
Ich erreiche auch einen stabilen 1250mhz Durchlauf im Heaven Benchmark, jetzt brauch ich nurnoch mehr Spannung und dann geht das Teil ab.;D

mironicus
2015-06-28, 21:25:46
Welche Marke (Sapphire)?

Tamagothi
2015-06-28, 21:29:47
Ich erreiche auch einen stabilen 1250mhz Durchlauf im Heaven Benchmark, jetzt brauch ich nurnoch mehr Spannung und dann geht das Teil ab.;D

Kann gut möglich sein

Meine R9 290X macht auch 1250 Mhz mit einer leichten Spannungs Erhöhung.

iuno
2015-06-28, 21:31:00
Ach und das hast du ausprobiert?

Und da du das behauptest, kannst du sicher auch deine Behauptung belegen, oder etwa nicht?!
Ich habe nur Hawaii-Messungen, wenn du unbedingt darauf beharrst
Grob wurden mir bei meiner Hawaii glaube ich so um die 40 Watt Unterschied zwischen 40 und 80°C am Messgerät angezeigt (Steckdose). Natürlich kann ich nicht so genau messen, aber zum Thema gibt es aber auch sonst genügend Infos im Netz. Siehe z.B. Tests von Hawaii mit WaKü oder besseren Kühlern wo die kühleren Chips auch deutlich weniger verbrauchen.

Fiji verhält sich offensichtlich ähnlich, nett dass im Test bei THG auch der Verbrauch für den kühlen Chip angegeben ist:
Mit knapp 221 Watt bei der erwärmten Karte (kalt 216 Watt)
siehe Quelle (http://www.tomshardware.de/radeon-r9-fury-x-grafikkarte-fiji-gpu,testberichte-241846-7.html)
54°C im Gaming-Loop (221 Watt Verlustleistung)
siehe Quelle (http://www.tomshardware.de/radeon-r9-fury-x-grafikkarte-fiji-gpu,testberichte-241846-8.html)
Das sind auch schon 5 Watt bei wenigen K, Raumtemperatur/GPU Temp. im idle weiß nich nicht.

aufkrawall
2015-06-28, 21:39:42
Weil man es vielleicht richtig machen will und nicht wie jemand der im Multiplayer irgendwo rumläuft und seine werte postet und das als realen vergleich hinstellt der aber überhaupt keine aussagekraft über irgendetwas besitzt wenn man exakte Szenarios vergleichen will dazu aber exakt den selben Load benötigt ;)

PCGH hat es schon lange richtig gemacht, einzig mehr Spiele testen ist da noch eine Verbesserungsoption.

M@TRIX™
2015-06-28, 21:47:26
Kannst du im 3DMark Vantage den Colorfillrate Test jeweils mit 500MHz und 600MHz laufen lassen?

/edit: Gerade gesehen, dass man da bezahlt haben muss. Schade.

Hab die Vollversion. ;)

Fury X @1100Mhz 500/600 Mhz

500Mhz Color Fill 42.1 pixels/s

600MHz Color Fill 47.0 pixels/s

Sunrise
2015-06-28, 21:47:38
Ich hab einfach ein kleines Stück schaumstoff zwischen das Coolermastersiegel und den Kühler gepresst, dann war das erledigt.
Ich erreiche auch einen stabilen 1250mhz Durchlauf im Heaven Benchmark, jetzt brauch ich nurnoch mehr Spannung und dann geht das Teil ab.;D
Heftig. Ab 1221MHz hast du 10 TFLOPs SP. :D

Na hoffentlich lässt AMD sich nicht zuviel Zeit, da mehr freizuschalten zu können. Und dann noch verbesserte Treiber und dann gehts ab.

-/\-CruNcher-/\-
2015-06-28, 21:48:07
PCGH hat es schon lange richtig gemacht, einzig mehr Spiele testen ist da noch eine Verbesserungsoption.

Seh ich nicht so die einzigen die es halbwegs vernünftig machen sind Techreport und Digitalfoundry weil das Spielbare Ergebniss sollte stehts im Vordergrund stehen und keine Balkenorgien.
Einmal hat PCGH reagiert mit einem System intern durchgeführten Frametime test weil sie mussten bei der GTX 970 und dann mit der Begründung des Aufwands das ganze Extern ad akta gelegt.
Back to Balkenorgie.

Digidi
2015-06-28, 21:49:15
Hab die Vollversion. ;)

Fury X @1100Mhz 500/600 Mhz

500Mhz Color Fill 42.1 pixels/s

600MHz Color Fill 47.0 pixels/s

Danke. Das sieht sehr nach Speicherlimitierung von FIJI aus.

Troyan
2015-06-28, 21:52:21
Hab die Vollversion. ;)

Fury X @1100Mhz 500/600 Mhz

500Mhz Color Fill 42.1 pixels/s

600MHz Color Fill 47.0 pixels/s

Cool, danke. Könntest du auch noch 1050MHz mit 600MHz testen? Wäre klasse. :)

M@TRIX™
2015-06-28, 21:56:52
Cool, danke. Könntest du auch noch 1050MHz mit 600MHz testen? Wäre klasse. :)

Klar ;)

1050MHz 600MHz

Color Fill 45.9 pixels/s

aufkrawall
2015-06-28, 21:58:01
Seh ich nicht so die einzigen die es halbwegs vernünftig machen sind Techreport und Digitalfoundry weil das Spielbare Ergebniss sollte stehts im Vordergrund stehen und keine Balkenorgien.
Einmal hat PCGH reagiert weil sie mussten bei der GTX 970 und dann (ist zu aufwendig) das ganze ad akta gelegt.
??
Deine beiden angesprochenen Seiten haben einfach nur eine Szene in einem Spiel (Crysis 3) getestet und auch nur den Gesamtsystemverbrauch.
eurogamer ziehen dann auch noch den falschen Schluss draus und behaupten, dass diese Effizienz Potenzial für eine Luftkühlung hätte. Würde natürlich niemand sagen, der weiß, wie viel ungelockt in Risen 3 gezogen wird und wie die Performance dabei ist...

Troyan
2015-06-28, 22:01:46
Sind knapp 15% mehr mit 20% mehr Bandbreite.

Stellt sich jetzt die Frage, ob das breite Interface mit der geringen Taktung zur Limitierung der Bandbreite führt. Mit 512GB/s sollte die Karte hier ja spielend vor nVidia sein...

Schaffe89
2015-06-28, 22:02:13
Welche Marke (Sapphire)?

Ja, Sapphire.

Digidi
2015-06-28, 22:03:16
Kannst du mal Vantage mit 800 Mhz gpu und 500/600 Mhz speicher testen? Wenn der Speicher limitiert müsste die Texturleistung relative hoch bleiben

Schaffe89
2015-06-28, 22:04:23
PCGH hat es schon lange richtig gemacht, einzig mehr Spiele testen ist da noch eine Verbesserungsoption.

Und den Average Verbrauch messen und keinen Peak.
Oder eben beides.

-/\-CruNcher-/\-
2015-06-28, 22:05:38
??
Deine beiden angesprochenen Seiten haben einfach nur eine Szene in einem Spiel (Crysis 3) getestet und auch nur den Gesamtsystemverbrauch.
eurogamer ziehen dann auch noch den falschen Schluss draus und behaupten, dass diese Effizienz Potenzial für eine Luftkühlung hätte. Würde natürlich niemand sagen, der weiß, wie viel ungelockt in Risen 3 gezogen wird und wie die Performance dabei ist...

Bei dem Thema was du ansprichst wird es noch komplexer und da muss low latency FCAT mit low latency Power Analyse gebundelt werden ;)

Dazu seh ich momentan nur Igor im Stande das Effizient durchzuführen und hier wieder innovativ voranzupreschen ;)

ilibilly
2015-06-28, 22:07:57
Die russische Seite kam ja bei 600mhz hbm Auf ca 20% höhere 3dmarkwerte,scheint also doch was dran zu sein das im Speicher was limitiert.

Sunrise
2015-06-28, 22:13:59
Also ich hätte bei dem ersten HBM-Design ja alles erwartet, aber eine Speicherbandbreitenlimitierung (was ein Wort) in Spieleszenarien mit Sicherheit schonmal nicht.

Schaffe89
2015-06-28, 22:17:56
Wie kann man den Speicher übertakten? Ich würde die Merhleistung gerne mitnehmen.^^

Timbaloo
2015-06-28, 22:19:06
Wie kann man den Speicher übertakten? Ich würde die Merhleistung gerne mitnehmen.^^
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10684649#post10684649

M@TRIX™
2015-06-28, 22:19:49
Kannst du mal Vantage mit 800 Mhz gpu und 500/600 Mhz speicher testen? Wenn der Speicher limitiert müsste die Texturleistung relative hoch bleiben

GPU 800 Mhz
Speicher 500 Mhz
http://www11.pic-upload.de/28.06.15/dlgizr7ae66f.png (http://www.pic-upload.de/view-27516948/fulltest.png.html)

GPU 800 Mhz
Speicher 600 Mhz

http://www11.pic-upload.de/28.06.15/2qj7tb7427k5.jpg (http://www.pic-upload.de/view-27517061/fulltest2.jpg.html)

1050/500 Mhz

http://www11.pic-upload.de/28.06.15/sqrhe6nce4kg.jpg (http://www.pic-upload.de/view-27517837/3dmvfs.jpg.html)

boxleitnerb
2015-06-28, 22:29:57
Ach und das hast du ausprobiert?

Und da du das behauptest, kannst du sicher auch deine Behauptung belegen, oder etwa nicht?!

Troll? Das ist Physik. Kannst du deine pro-AMD Passiv-Aggressivität nicht endlich mal sein lassen und objektiv sein?

Tamagothi
2015-06-28, 22:31:29
Also ich hätte bei dem ersten HBM-Design ja alles erwartet, aber eine Speicherbandbreitenlimitierung (was ein Wort) in Spieleszenarien mit Sicherheit schonmal nicht.

Wenn Hawaii schon am Speicher nagte dann wird es Fijii genau so.

Menace
2015-06-28, 22:31:42
Troll? Das ist Physik. Kannst du deine pro-AMD Passiv-Aggressivität nicht endlich mal sein lassen und objektiv sein?

Stimmt; in einem AMD Thread der ja vor Objektivität nur so strotzt. :rolleyes:

aufkrawall
2015-06-28, 22:33:26
Und den Average Verbrauch messen und keinen Peak.
Oder eben beides.
Meine Güte, bist du unbelehrbar: Bei Anno wurde kein Peak gemessen. Carsten meinte, wenn noch weiter in die Partikeleffekte reingezoomt würde, wär der Verbrauch noch höher.

Ex3cut3r
2015-06-28, 22:35:36
WTF?! Sind die Bilder nicht vertauscht? :biggrin:

Naja Vantage ist eigentlich eh nur noch ein CPU TEST

Tamagothi
2015-06-28, 22:36:30
Meine Güte, bist du unbelehrbar: Bei Anno wurde kein Peak gemessen. Carsten meinte, wenn noch weiter in die Partikeleffekte reingezoomt würde, wär der Verbrauch noch höher.

Indirekt ist es ja keine Peak Messung aber eine GPU Auslastung die es in dem Spiel vielleicht zwischen 1 und 10 % an Häufigkeit kommt. Und das ist unrealistisch.

M@TRIX™
2015-06-28, 22:36:32
Wie kann man den Speicher übertakten? Ich würde die Merhleistung gerne mitnehmen.^^


MSI Afterburner / Settings / und bei "Offizielle Overclocking-Limits erweitern" einen Hacken setzen und PC neu starten.


WTF?! Sind die Bilder nicht vertauscht? :biggrin:

Naja Vantage ist eigentlich eh nur noch ein CPU TEST

Ne vertauscht hab ich nichts, wenn man die werte vergleicht hab ich überall bei dem 600 Mhz Test mehr,
außer im ersten GPU Test und im letzten Test... wieso auch immer. ;)

Digidi
2015-06-28, 22:36:39
Vielen Dank für die Werte M@trix.

Ich habs mal schnell in Excel eingegeben. Also bei Taktsteigerung 800 auf 1100 um 27% steigt die Pixelfüllrate um 14% also um die hälfte.

Jetzt kommts. Bei 1100 MHz und Steigerung von HBM von 500 auf 600Mhz geweinnt man 12%
Bei 800 MHz und Steigerung von HBM von 500 auf 600 MHz gewinnt man nur 6%

samm
2015-06-28, 22:37:52
Stimmt; in einem AMD Thread der ja vor Objektivität nur so strotzt. :rolleyes:Dennoch ist festzuhalten, dass für Tahiti, Hawaii und auf nVidia-Seite ebenfalls merklich verringerte Verlustleitung gemessen werden kann, wenn man die Temperaturen verringert. Ist doch nur folgerichtig, diesen Effekt für Fury auch zu erwarten.

aufkrawall
2015-06-28, 22:41:58
Indirekt ist es ja keine Peak Messung aber eine GPU Auslastung die es in dem Spiel vielleicht zwischen 1 und 10 % an Häufigkeit kommt. Und das ist unrealistisch.
Ist das so? Es gibt auch Gebäude im Spiel, die Partikelwolken und so einen sehr hohen Stromverbrauch erzeugen.

Tamagothi
2015-06-28, 22:46:14
Ja aber du starst nicht 8 Std am Tag auf ein und das selbe Gebäude.

Ich habe ein fettes Savegame bei Anno gelade und je nachdem auf welche Insel man ist welche Zoomstufe usw. schwankt der verbrauch um 60 Watt.

Bei meine Billig Messgerät wohlgemerkt.

aufkrawall
2015-06-28, 22:49:13
Sicher schwankt der. Er ist aber schon recht konstant auf einem hohen Niveau.
Ich hoffe, du hast nicht in 1080p getestet?

Tamagothi
2015-06-28, 22:59:10
2560 x 1600 (VSR)

Zwischen 300 und 360 Watt (Rechner + Moni)

boxleitnerb
2015-06-28, 23:00:14
Stimmt; in einem AMD Thread der ja vor Objektivität nur so strotzt. :rolleyes:

Das Verhalten anderer Poster entschuldigt doch nicht das eigene auftreten. "Mimimi, der hat aber auch...", genau :rolleyes:

Um mal Werte zu liefern:
Titan bei mir hatte ca. 30W Unterschied zwischen 85°C und 45-50°C. Gemessen in 3 Spielen. Ich wette meine linke Hand, dass das bei Hawaii, GM200 und Fiji in ähnlichen Größenordnungen ist. Kann die Tage gerne bei meinen Titan X testen, wenn gewünscht. Kann sich ja auch jemand mit einer Fury und einer 290X dazugesellen.

y33H@
2015-06-28, 23:05:23
Ich erreiche auch einen stabilen 1250mhz Durchlauf im Heaven Benchmark, jetzt brauch ich nurnoch mehr Spannung und dann geht das Teil ab.Zeig mal.

M@TRIX™
2015-06-28, 23:06:45
Vielen Dank für die Werte M@trix.

Kein Thema, falls es noch was sein darf, immer her damit ;)



Die russische Seite kam ja bei 600mhz hbm Auf ca 20% höhere 3dmarkwerte,scheint also doch was dran zu sein das im Speicher was limitiert.

Bei meinem Test zwischen 500 und 600 Mhz bei Fire Strike habe ich nur einen unterschied von 1-2 FPS gehabt und im endergebnis waren es nur ca 250 Punkte mehr.

Troyan
2015-06-28, 23:08:39
Vielen Dank für die Werte M@trix.

Ich habs mal schnell in Excel eingegeben. Also bei Taktsteigerung 800 auf 1100 um 27% steigt die Pixelfüllrate um 14% also um die hälfte.

Jetzt kommts. Bei 1100 MHz und Steigerung von HBM von 500 auf 600Mhz geweinnt man 12%
Bei 800 MHz und Steigerung von HBM von 500 auf 600 MHz gewinnt man nur 6%

Bei Anandtech erreicht die Sapphire 285 mit 965Mhz und 180Gb/s 19,9 GPixel/s.
Fury X sollte theoretisch > 2,17x schneller sein. Mit 40,2 GPixel/s ist sie jedoch nur 2,02x so schnell.
Von der theoretischen Bandbreite von 512Gb/s kommen <=66% wirklich an...

(del)
2015-06-28, 23:09:16
Bei Hawaii sind es sogar fast 50W zwischen 40°C (Wasser) und 80°C (Luft). Ich habe mal eine Asus 290X DirectCU II, deren Kühler ja schon ab Werk schrottig war, für einen Bekannten unter Wasser gesetzt. Das hat mich ja dann auch veranlasst, das nochmal mit anderen Kühlern zu testen (Raijintek Morpheus und NZXK Kraken). Ähnliches Ergebnis. Leckströme sind bei AMD echt ein Problem.

Digidi
2015-06-28, 23:11:23
@Troyan was ich erstaunlich finde ist das die Taktsteigerung des Chips von 27% voll durchschlägt mit 14% Pixelfüllrate bei gleichem Ram Takt. Wenn der Speicher limitieren würde könnte der Chip noch so hoch takten es würde sich nicht verbessern. So verhält es sich an meiner Hawaii GPU. Um es genau zu wissen müsste man noch mal bei 1100 und 800 mit 250 mhz Ramtakt die Pixellfüllrate testen. Aber das möchte ich zu so später Stunde Matrix nicht zumuten.

M@TRIX™
2015-06-28, 23:21:58
10684942Um es genau zu wissen müsste man noch mal bei 1100 und 800 mit 250 mhz Ramtakt die Pixellfüllrate testen. Aber das möchte ich zu so später Stunde Matrix nicht zumuten.

:biggrin:

Würde ich gerne tun, nur kann ich den Speicher nicht Untertakten, geht nur minimal 500 Mhz.

Troyan
2015-06-28, 23:25:16
Danke Matrix. Wenn du irgendwann Zeit hast, ein Testlauf mit 1050Mhz und 500Mhz wäre ebenfalls sehr klasse.

Ansonsten erklärt das Ergebnis auch, wieso die Fury X in Deferred Renderer Spielen mit MSAA sich kaum von der 390X absetzen kann.

iuno
2015-06-28, 23:26:49
Titan bei mir hatte ca. 30W Unterschied zwischen 85°C und 45-50°C. Gemessen in 3 Spielen. Ich wette meine linke Hand, dass das bei Hawaii, GM200 und Fiji in ähnlichen Größenordnungen ist. Kann die Tage gerne bei meinen Titan X testen, wenn gewünscht. Kann sich ja auch jemand mit einer Fury und einer 290X dazugesellen.
Hawaii hatte ich ja schon ungefähr geschrieben, hab jetzt nochmal nachgemessen. Habe eine Asus 290X Matrix bei 1150 mV, der Gesamtverbrauch beim Furmark wurde an der Steckdose gemessen, er steigt natürlich deutlich mit der Temperatur. Zum Start hat der Chip etwa 35°C und pendelt sich dann auf 80°C ein
35°C: ~345 W
80°C: ~385 W

edit: nach Abkühlen nochmal die Werte ohne UV, also 1250 mV:
35°C: ~410 W
70°C: ~440 W
80°C: ~460 W
90°C: ~480 W
Kann das stimmen? verrückt :ugly:

Bei Hawaii sind es sogar fast 50W zwischen 40°C (Wasser) und 80°C (Luft). Ich habe mal eine Asus 290X DirectCU II, deren Kühler ja schon ab Werk schrottig war, für einen Bekannten unter Wasser gesetzt. Das hat mich ja dann auch veranlasst, das nochmal mit anderen Kühlern zu testen (Raijintek Morpheus und NZXK Kraken). Ähnliches Ergebnis. Leckströme sind bei AMD echt ein Problem.
Den Morpheus-Test hatte ich auch bei meiner Aussage im Hinterkopf, den anderen kannte ich noch nicht, auch interessant da ich genau so einen Wechsel auch schonmal kurz überlegt habe ;)
Bei mir sind es ~40 Watt bei einer Asus Matrix. Ich kann nur den Stock-Kühler testen, habe halt jeweils zu Beginn und Ende Temperatur/Verbrauch gemessen. Kann nicht sagen, wie aussagekräftig die Werte sind, aber scheinen sich ja zu decken.

Danke an M@TRIX für die Messungen :up: Da scheint doch noch was drin zu stecken.

Spasstiger
2015-06-28, 23:26:59
@Troyan was ich erstaunlich finde ist das die Taktsteigerung des Chips von 27% voll durchschlägt mit 14% bei gleichem Ram Takt.
Eigentlich müsste man bei einem Chip, der laut AMD mehr als genug Speicherbandbreite hat (daher offiziell die OC-Sperre beim Speicher), erwarten, dass eine 27%-ige Steigerung des Chiptaktes von niedrigen 800 MHz aus auf lediglich den Standard-Takt eine ebenso 27%-ige Steigerung der Pixelfüllrate bringt. Denn die ROPs dürften an der Chiptaktdomäne hängen. Eine Limitierung durch die Speicherbandbreite sollte bei 800 MHz Chiptakt noch viel weniger vorliegen als bei 1050 MHz.
Es ist offenbar aber so, dass in Fiji noch mehr Teile als das Speicherinterface an der Speichertaktdomäne hängen oder dass das Speicherinterface ineffizient genutzt wird (Latenz?).
Chiptaktübertaktung nützt bei Fiji ausgehend von den standardmäßigen 1050 MHz nur zusammen mit Speicherübertaktung, da zeigen die bisherigen Benchmarks klar an. Selbst bei starker Untertaktung auf 800 MHz schlägt ein höherer Speichertakt ja noch gut durch.
In der Gerüchteküche waren mal 640 GB/s Speicherbandbreite im Gespräch, das wären 625 MHz. Damit wäre die Fury X sicherlich ein gutes Stück schlagkräftiger geworden.

Steigt denn die Leistungsaufnahme durch Speicherübertaktung nennenswert an?

Digidi
2015-06-28, 23:34:31
Danke Matrix noch mal für deine Pionierarbeit an FIJI :)

Der Ramtakt untenrum schlägt nicht gut Durch er bewirkt gerade mal eine Steigerung von 5% obwohl der Takt um 17% gesteigert wird. Erst wenn die GPU mehr liefert kommt auch der Speicher so langsam zum Tragen. FIJI ist wohl wirklich Pixelfill limitiert.

Ich habe gerade mal mit Hawaii bei 540Mhz gpu takt getestet und von 625 auf 1250 Mhz Ramtakt gewinne ich 43%. Hawaii ist eindeutig Speicherlimitiert. Bei Fiji bin ich mir da nicht so sicher.

M@TRIX™
2015-06-28, 23:39:51
Danke Matrix. Wenn du irgendwann Zeit hast, ein Testlauf mit 1050Mhz und 500Mhz wäre ebenfalls sehr klasse.

Ansonsten erklärt das Ergebnis auch, wieso die Fury X in Deferred Renderer Spielen mit MSAA sich kaum von der 390X absetzen kann.

1050/500 Mhz

http://www11.pic-upload.de/28.06.15/sqrhe6nce4kg.jpg (http://www.pic-upload.de/view-27517837/3dmvfs.jpg.html)

Troyan
2015-06-28, 23:44:12
Der Test ist ein Best-Case für "lossless delta color compression". Hawaii gewinnt mehr, weil er über so etwas nicht verfügt.

Fury X müsste mit "lossless delta color compression" und 512Gb/s meilenweit vor jeder anderen Karte sein. Titan X z.B. mit mehr knapp 3,7x soviel Pixelfillrate wie die Sapphire 285 ist auch nur 2,2x schneller. Hier fehlt es einfach an Bandbreite, die mit 1,86x deutlich niedriger ausfällt.

Fury X hat gegenüber der Sapphire 285 2,84x mehr Bandbreite. Die müsste sich 1:1 durchschlagen.

/edit: Danke Matrix. Dein Wert ist leicht höher als bei Anandtech. Aber hier resultiert die 4,7% Übertaktung in gerademal 1% mehr Leistung.
Und von den 31%, ausgehend von 800Mhz, kommen auch nur 15% durch. Entweder macht der Treiber noch unsinnige Sachen oder die Implementierung ist weitab der theoretischen Bandbreite von 512Gb/s.

Spasstiger
2015-06-28, 23:47:18
Komisch find ich ja, dass GPU-OC um 31% und Speicher-OC um 20% kombiniert nur in 15% mehr Pixelfüllrate mündet. Wieder so eine Powerlimit-Geschichte? Oder gibts bei Fiji noch eine unbekannte Taktdomäne?
So gern ich ja Fiji liebgewinnen würde wegen seiner richtungsweisenden Aufbau- und Verbindungstechnik und der konsequenten Umsetzung in Kartenform mit kompakten Formfaktor und WaKü, so sehr muss ich bei allen Benchmarks mit dem Kopf schütteln. Es ist einfach nix stimmig an der Fiji-Performance.

Digidi
2015-06-28, 23:55:54
Ich lese die Werte etwas anders. Bei 800 Mhz bringt eine Steigerung des Ram Taktes nichts. Das heißt es ist genug Bandbreite da, was fehlt sind genug Pixelfüllrate die den Ram füttert.

Bei 1100 Mhz sieht man das deutlich. Da bringt eine Ramsteigerung von 20% dann auch 11% Steigerung bei der Pixelfüllrate. Vorher sind es nur 5% was bedeutet der Chip bekommt einfach nicht genug durch um den Ram sinnvoll zu füllen.

Timbaloo
2015-06-29, 00:03:25
Wurde denn schon RAM-Untertakten (ohne GPU-OC) ausprobiert? Wäre ganz interessant zu sehen wie stark das Design an der Bandbreite hängt.

BlacKi
2015-06-29, 00:13:39
Wurde denn schon RAM-Untertakten (ohne GPU-OC) ausprobiert? Wäre ganz interessant zu sehen wie stark das Design an der Bandbreite hängt.

:biggrin:

Würde ich gerne tun, nur kann ich den Speicher nicht Untertakten, geht nur minimal 500 Mhz.

siehe post von matrix

Timbaloo
2015-06-29, 00:34:03
Ah, danke. Hab ich glatt überlesen.

Nicht untertakten können ist aber schon irgendwie was Neues :D

Nakai
2015-06-29, 00:35:00
Nur so zur Info. AMD hat gemeint, dass der HBM anders verwendet wird, als GDDR5. Dementsprechend könnten AMDs Treiberspielchen sich doch auf die effektive Füllrate auswirken. Keine Ahnung, wie ein Treiber die Daten organisiert, aber wenn er viele Daten rumkopiert und verschiebt, um immer die nötigsten Daten zu besitzen, dann sollte das einen generellen Stress auf das Speicher-Subsystem verursachen. Fiji besitzt auf jeden Fall relativ wenig Füllrate, umso beachtlicher ist es, wie gut man unter 4K performt.

Troyan
2015-06-29, 00:49:52
Ich lese die Werte etwas anders. Bei 800 Mhz bringt eine Steigerung des Ram Taktes nichts. Das heißt es ist genug Bandbreite da, was fehlt sind genug Pixelfüllrate die den Ram füttert.

Bei 1100 Mhz sieht man das deutlich. Da bringt eine Ramsteigerung von 20% dann auch 11% Steigerung bei der Pixelfüllrate. Vorher sind es nur 5% was bedeutet der Chip bekommt einfach nicht genug durch um den Ram sinnvoll zu füllen.

Die Untertaktung um 24% resultiert nur in einem Leistungsverlust der Pixelfillrate von 13,2%. Die Texelfillrate, zum Vergleich, sinkt dagegen um 23,6% - also fast 1:1.

Matrixs Fury hat mit 800MHz 1,66x mehr Pixelfillrate als die Sapphire 285 von Anandtech und ist 1,82x schneller. Die "Effizienz" im Test ist also mit der Untertaktung angestiegen, da die Karte bei 1050Mhz 2,17x mehr Pixelfillrate besitzt, jedoch nur 2,09x schneller ist.
Trotz 2,84x mehr Bandbreite ist die Karte nichtmal in der Lage den Unterschied in der Pixelfillrate 1:1 darzustellen.

Da der Test die Effizienz des Speichersystem zeigt, scheint es augenscheinlich so zu sein, dass bei Fiji nicht 512Gb/s im Chip genutzt werden können sondern nur irgendwas um die 360-380GB/s.

StefanV
2015-06-29, 01:44:18
Wie wärs wenn du erstmal das Video guckst er hat verschiedene 980 TI getestet dort gabs kein Spulenfiepen.Ist auch vollkomemn logisch das man bei einer 700$ bessere Bauteile einsetzen kann als bei einer 970.
Natrülich wird AMD dort weniger Spielraum haben da sie schon ne Wakü verbauen und HBM als komplett neue Technologie nicht grad billig sein wird.
Hör endlich auf mit deinen billigsten AMD Flames!

Jeder, der schon etwas länger hier im Forum vertreten ist, sollte eigentlich wissen, dass Spulenfiepen _IMMER_ auftreten kann und nur einige Karten etwas anfälliger sind als andere. Und auch unterschiedliche Netzteile verursachen unterschiedlich lautes Fiepen bei den Komponenten.

Das KANN also ebenso eine Wechselwirkung mit dem Netzteil oder jegliche andere Komponente sein und schlicht immer mal auftreten.
Das, lieber dildo4u, solltest auch DU wissen!

Es wird ganz sicher auch den einen oder anderen Titan X Nutzer geben, bei dem die Spulen pfeifen, so what?!
That's how it is, deal with it!

Verstehe nicht, warum du hier solch einen Aufriss machst und hier jedes mikroskopische Sandkorn versuchst zu einem Gebirge aufzubauschen.

(del)
2015-06-29, 06:25:30
Naja, Spulenfiepen.

Wenn man überlegt, was für Ströme dort fließen... In der Nähe der Spulen ist ein Magnetfeld, so stark wie mein erster Morgenespresso :P Da ist es nahezu Wurst, was man da an Komponenten einbaut. inno3D hat sich bei der 970 mal an einbetonierten Spulen versucht - nette Idee aber wohl nicht ganz bruchsicher. Da haben schon einige der Samples stellenweise geschnarrt wie eine wildgewordene Aquarienpumpe. :)

Diese "elektrischen Geräusche" (denn es sind ja nicht nur die Spulen, sondern z.B. auch die Caps) hat man eigentlich immer, wobei es beim Referenzdesign der 970 wirklich an der unzweckmäßigen Verschaltung lag. Mit albernen 5 Phasen so eine Karte lautlos in die Nacht entlassen zu wollen, war auch von NV reichlich euphorisch. Gute Boardpartnerkarten hatten diese Probleme dann nicht mehr, weil sie sich mit der 980 ein PCB teilen konnten.

BlacKi
2015-06-29, 06:29:45
Mit albernen 5 Phasen so eine Karte lautlos in die Nacht entlassen zu wollen, war auch von NV reichlich euphorisch. Gute Boardpartnerkarten hatten diese Probleme dann nicht mehr, weil sie sich mit der 980 ein PCB teilen konnten.

und wieviele phasen nutzt fiji? 16? 8-10 wären deiner ansicht dann zu wenig. ah, 4+2 muss ich hier lesen.

(del)
2015-06-29, 06:47:18
Lies doch mal alles im Kontext :)

wobei es beim Referenzdesign der 970 wirklich an der unzweckmäßigen Verschaltung lag.

Aber auch mit 6+2 oder meinetwegen sogar 12+2 kannst Du Dich gehörig auf den Hintern setzen, wenn das Design Quark ist. Die Anzahl der Phasen ist sicher nur eine Seite der Medaille, aber ich hätte mir auch bei FuryX mindestens 6+2 gewünscht. Warum, das werden alle die feststellen, die die Kühllösung durch einen Wasserblock ersetzen werden. Das Testsample machte dort nämlich auch gar liebliche Geräusche, die aber von den anderen "Betriebsgeräuschen" fast komplett überdeckt wurden. :) Ich warte jetzt auf meine eigene Karte, die ich dann ja auch mal zerlegen darf. Dann kommt bestimmt auch mal ein Körperschallmikro zum Einsatz

Dawn on Titan
2015-06-29, 07:01:13
Ob die Chaces bei Fury limitieren?

Malabolge
2015-06-29, 07:29:36
Ob die Chaces bei Fury limitieren?#

Nein , muss die Wasserkühlung sein.:rolleyes:
Das Gewicht des Wasser drückt zu sehr auf den Chip und bremst ihn so !:biggrin::D:biggrin:
Luft wäre leichter gewesen. Obwohl der Luftdruck !??:frown:

Ausserdem ist die Wasserkühlung auch lauter als ein A380 der Lufthansa
(nach diversen Opferschilderungen hier)

AMD sollte alle Furys einsammeln und Öffentlich "verbrennen" müssen :cool::biggrin:






PS: Nachdem ich im "Radeon R9 Fury X (P)review"-Thread seitenlange Ausführungen lesen konnte,
wie man eine 980TI richtig Taktet und mit welchen einstellungen, bin ich überzeugt das der Threadtitel
einfach nur falsch ist.

(del)
2015-06-29, 07:45:25
PS: Nachdem ich im "Radeon R9 Fury X (P)review"-Thread seitenlange Ausführungen lesen konnte,
wie man eine 980TI richtig Taktet und mit welchen einstellungen, bin ich überzeugt das der Threadtitel
einfach nur falsch ist.
Made my day... :tongue:

Wobei - nix gegen den A380. Da kann man echt gut pennen, denn der ist wirklich leise. :wink:

BlacKi
2015-06-29, 07:55:16
AMD sollte alle Furys einsammeln und Öffentlich "verbrennen" müssen :cool::biggrin:

endlich hats einer geschnallt:freak:

die karte hat nunmal ihre mankos, im schlechte perf. pro watt wegreden hat man hier ja schon erfahrung, jetzt kommen halt noch ein paar dicke mankos hinzu und man ist eingeschnappt.

mich würden mal RMA raten interessieren nachdem man ja so vom tollen verkauf gesprochen hat. die sind bestimmt höher als bei der 970.

Pirx
2015-06-29, 08:23:23
Und wieder sind es einige nv-Fanatiker, die einen AMD-Preview-Thread (zer)stören.

Malabolge
2015-06-29, 08:33:13
Und wieder sind es einige nv-Fanatiker, die einen AMD-Preview-Thread (zer)stören.

Zerstören brauchen die gar nichts mehr.
Traurig daran ist das die "Modschaft" so Sang und Klanglos dabei zuschaut !
(und zuweilen auch noch selbst "mittreibt")


endlich hats einer geschnallt:freak:

die karte hat nunmal ihre mankos, im schlechte perf. pro watt wegreden hat man hier ja schon erfahrung, jetzt kommen halt noch ein paar dicke mankos hinzu und man ist eingeschnappt.

mich würden mal RMA raten interessieren nachdem man ja so vom tollen verkauf gesprochen hat. die sind bestimmt höher als bei der 970.

Ja Ja Ja - Am besten Öffentlich - (Zitat Eric Cartman: "Wie Geil Wie Geil" )

Ätznatron
2015-06-29, 08:39:33
Mehr Gelassenheit!

Ist halt im Regelfall typische Frustbewältigung GTX 970 Geschädigter.

MilesEdgeworth
2015-06-29, 09:17:15
Es wäre auch höchst interessant wie die Leistungsaufnahme der Fury mit dem Takt skaliert. Leider machen solche Tests erst mit veränderbarer Chipspannung Sinn. Bei 800MHz und ~1050mV erwarte ich deutlich unter 200W, tendenziell eher 150W.

Exxtreme
2015-06-29, 10:39:49
Für 700 € ist mir das Ding zu teuer. Für 500 € würde ich es mir holen. Wäre ein nettes Upgrade zu GTX 670. ^^

(del)
2015-06-29, 11:57:22
So, Post war pünktlich und der Zoll gänädig. Nun kann es weiter gehen...

http://media.bestofmicro.com/N/A/507574/original/Fury.jpg

Erster Höreindruck: kein aktustischer Unterschied zum Presse-Sample. Gut für uns, weil wir exakt da weiter machen können, wo wir aufgehört haben, schlecht für uns, weil ich seit einer Stunde mit In-Ears rumlaufe. Und schlecht für den Kunden, denn das ist ein anonym gekauftes Retail-Exemplar :confused:

M4xw0lf
2015-06-29, 11:59:55
So, Post war pünktlich und der Zoll gänädig. Nun kann es weiter gehen...

http://media.bestofmicro.com/N/A/507574/original/Fury.jpg
"4GB-SCHWARZER AUFKLEBER" wot? Stand da vielleicht GDDR5? :ulol:

(del)
2015-06-29, 12:06:18
Scharfes Auge.... ich schau dann mal nach

M4xw0lf
2015-06-29, 12:08:14
Scharfes Auge.... ich schau dann mal nach
Ich bin gespannt ^^

Unicous
2015-06-29, 12:08:43
"4GB-SCHWARZER AUFKLEBER" wot? Stand da vielleicht GDDR5? :ulol:

Sind eigentlich 8 GB HBM, die Hälfte ist deaktiviert.:|

M4xw0lf
2015-06-29, 12:09:36
Sind eigentlich 8 GB HBM, die Hälfte ist deaktiviert.:|
Die 4 ist aber unüberklebt :tongue:

Unicous
2015-06-29, 12:10:22
Die 4 ist aber unüberklebt :tongue:

Ach Mist. Ich habe das Bild nicht vergrößert.:frown:

mironicus
2015-06-29, 12:23:13
Erster Höreindruck: kein aktustischer Unterschied zum Presse-Sample.

Bin schon mal auf AMDs Ausreden gespannt... :freak:
Am besten mal weiter verfolgen, RMA-Quoten/Rückmeldungen der Händler prüfen und daraus einen schönen Artikel machen. ;D

(del)
2015-06-29, 12:23:24
So, der Aufkleber respektive Rätsel sind gelöst, wobei das auf die Kappe von XFX geht. Aber der ist echt episch:

http://media.bestofmicro.com/N/D/507577/original/XFX-GDDR5.jpg

Marodeur
2015-06-29, 12:25:12
Wahaha... Nice... :uup:

Timbaloo
2015-06-29, 12:28:04
lol das ist ja mal echt geil :D

M4xw0lf
2015-06-29, 12:28:46
So, der Aufkleber respektive Rätsel sind gelöst, wobei das auf die Kappe von XFX geht. Aber der ist echt episch:

http://media.bestofmicro.com/N/D/507577/original/XFX-GDDR5.jpg
Ich wusste es ;D

btw:Erster Höreindruck: kein aktustischer Unterschied zum Presse-Sample. Gut für uns, weil wir exakt da weiter machen können, wo wir aufgehört haben, schlecht für uns, weil ich seit einer Stunde mit In-Ears rumlaufe. Und schlecht für den Kunden, denn das ist ein anonym gekauftes Retail-Exemplar :confused:
Das Ding entstammt doch wohl einfach derselben Charge wie die Review-Samples, nehme ich an?

(del)
2015-06-29, 12:45:12
Das Ding entstammt doch wohl einfach derselben Charge wie die Review-Samples, nehme ich an?Soiweit ich weiß, gibt es nur eine Charge. In den ganzen Kisten ist überall dasselbe drin, egal was auf dem Karton steht ;)

Das hier kam ja per Mail VOR dem review:
The issue is limited to a very small batch of initial production samples and we have worked with the manufacturer to improve the acoustic profile of the pump. This problem has been resolved and fix added to production parts and is not issue.

Ich habe gerade einen Boardpartner gefragt, die messen und hören das Gleiche wie ich. Immer noch.

Mal auf die Schnelle gleich hier und noch nicht im Lab - Idle und ohne jegliche Last:
http://media.bestofmicro.com/N/F/507579/original/Fury-Pump.jpg

Der Rest kommt dann in einem Follow-Up. Im übrigen ändert sich die in GPU-Z angezeigte "Pumpengeschwindigkeit" von ca. 3700 U/min, wenn ich den Lüfter bremse oder gar anhalte. Dann steht dort nämlich 0 obwohl die Pumpe fleißig weiter dreht. Auf diese Angabe kann man sich also nicht verlassen. :P Man beachte den fiesen Fiepton bei knapp 2 KHz im Spektrum, das kommt dann schon eher hin (siehe auch unseren Launchartikel)

robbitop
2015-06-29, 12:52:28
Naja, Spulenfiepen.

Wenn man überlegt, was für Ströme dort fließen... In der Nähe der Spulen ist ein Magnetfeld, so stark wie mein erster Morgenespresso :P Da ist es nahezu Wurst, was man da an Komponenten einbaut. inno3D hat sich bei der 970 mal an einbetonierten Spulen versucht - nette Idee aber wohl nicht ganz bruchsicher. Da haben schon einige der Samples stellenweise geschnarrt wie eine wildgewordene Aquarienpumpe. :)

Diese "elektrischen Geräusche" (denn es sind ja nicht nur die Spulen, sondern z.B. auch die Caps) hat man eigentlich immer, wobei es beim Referenzdesign der 970 wirklich an der unzweckmäßigen Verschaltung lag. Mit albernen 5 Phasen so eine Karte lautlos in die Nacht entlassen zu wollen, war auch von NV reichlich euphorisch. Gute Boardpartnerkarten hatten diese Probleme dann nicht mehr, weil sie sich mit der 980 ein PCB teilen konnten.

Hörbare elektrische Geräusche zu verringern ist mMn eigentlich eine Frage der Auslegung der Schwingkreise. Solange keine hörbaren Eigenfrequenzen angeregt werden, ist alles gut. Dummerweise gibt es so viele unterschiedliche Lastzustände, dass es sicher nicht sehr einfach ist, die Anregungsfrequenzen aus dem Bereich der Eigenfrequenzen der Bauteile herauszuhalten. Unmöglich ist es sicher auch nicht. Ist wohl eine Frage der Iterationsfreudigkeit des Herstellers. Je nach dem wieviel Geld und Zeit er dafür aufwenden will.

robbitop
2015-06-29, 12:59:29
Danke. Das sieht sehr nach Speicherlimitierung von FIJI aus.
Im Single Texture Fillrate vieleicht. Aber das ist kein realer Anwendungsfall. Deshalb nimmt man solche Tests eigentlich zur Bandbreitenmessung, da jede sinnvoll dimensionierte GPU nicht genug Bandbreite bei ST-Fill hat. Wozu auch, wenn es mind. eine dreistellige Anzahl an Takten dauert, eh ein Pixel berechnet ist (Shading, mehrere Texturen, Beleuchtung etc).

Birdman
2015-06-29, 13:03:12
The issue is limited to a very small batch of initial production samples and we have worked with the manufacturer to improve the acoustic profile of the pump. This problem has been resolved and fix added to production parts and is not issue.

Wie zu erwarten war diese Aussage eine weitere aalglatte Lüge der AMD Marketingfuzzies.
Mittlerweile nähert sich die gross angepriesene "World best Cooling Solution" dem Niveau des legendären nVidia Föns an :D

Matrix316
2015-06-29, 13:05:06
Da freut man sich über eine wirklich leise Referenzkühlung und dann sowas. Pffff...=)

robbitop
2015-06-29, 13:11:18
Ist für mich auch völlig unverständlich, wie so etwas passieren kann. Insbesondere, da ja einfache Maßnahmen deutlich zu helfen scheinen.

Viper Zx
2015-06-29, 13:14:24
Welche sollen das sein?
Ich hatte gegen diesen Ton KEINE Chance! Vielleicht wenn man seinen PC komplett mit Bauschaum ausfüllt. ;)

(del)
2015-06-29, 13:14:39
Ich habe mittlerweile sogar versucht zu dämmen, den 2 KHz-Tinitus bekommt man nicht wirklich weg.

Matrix316
2015-06-29, 13:16:27
Und was ist, wenn man den Lüfter gegen ein lauteres Modell eintauscht? ;);)

Viper Zx
2015-06-29, 13:18:01
Eine Gegenschallanlage die diesen Ton auslöscht wäre noch ne Möglichkeit. :D

Screemer
2015-06-29, 13:21:39
Immer die gleichen

N0Thing
2015-06-29, 13:24:48
So, der Aufkleber respektive Rätsel sind gelöst, wobei das auf die Kappe von XFX geht. Aber der ist echt episch:

http://media.bestofmicro.com/N/D/507577/original/XFX-GDDR5.jpg

;D

Made my day!

Matrix316
2015-06-29, 13:29:39
Eine Gegenschallanlage die diesen Ton auslöscht wäre noch ne Möglichkeit. :D
Lärm mit Lärm bekämpfen. Wäre doch eine Idee. :)

Hätten die lieber mal das PCB größer gemacht und eine gescheite Luftkühlung draufgepappt? Die Idee mit der Wasserkühlung ist ja net schlecht, aber a) nimmt das im Gehäuse einen Lüfterplatz weg und b) sollte man es wenn richtig machen.

MD_Enigma
2015-06-29, 13:31:33
GDDR5 ... http://uli-staerk.de/files/smilies/ultragoil.gif

eratte
2015-06-29, 13:36:17
Sich an diesem Aufkleber hochzuziehen und zu belustigen zeigt leider auf welchem Niveau man hier angekommen ist.

Ansonsten scheint es ja mit der Geräuschkulisse im Moment ein Glücksspiel zu sein was einem nicht zum frühen Kauf animiert. Ich hoffe nur das sie das bei der nächsten "Charge" wirklich im Griff haben. Weil so nicht akzeptabel für eine 700 € Karte.

Matrix316
2015-06-29, 13:36:51
Ist HBM nicht sogar "nur" DDR Speicher? ;)

anddill
2015-06-29, 13:38:26
Es zeugt davon wie viel die Leute die für den Verkauf, Marketing etc. verantwortlich sind von dem Zeug verstehen was sie da verkaufen.

Marodeur
2015-06-29, 13:47:17
Sich an diesem Aufkleber hochzuziehen und zu belustigen zeigt leider auf welchem Niveau man hier angekommen ist.


"hochziehen"? Hallo? Man darf ja wohl mal noch XFX dafür auslachen, was hat das mit der Karte zu tun? Hier wird eine 600+ € Karte vertickt und die pappen Tesa über jede einzelne Packung. Ich finds einfach köstlich und erheitert etwas den öden (Mon)Tag.

Godmode
2015-06-29, 13:57:32
Ist für mich auch völlig unverständlich, wie so etwas passieren kann. Insbesondere, da ja einfache Maßnahmen deutlich zu helfen scheinen.

Verstehe ich auch nicht. Da entwickelt man einen absoluten High-End Chip mit größter Packdichte, größter Transistoranzahl, der neuesten Speichertechnologie und Wasserkühlung und dann lässt man sich den sehr guten Gesamteindruck durch eine zu laute Pumpe wieder kaputt machen. Andererseits ist der Kühler auf der TX auch nicht wirklich brauchbar, außer im Idle.

Zumindest gibts schon richtige Wasserkühler für die Fury. Custom Loop > AiO

akuji13
2015-06-29, 14:07:33
Ansonsten scheint es ja mit der Geräuschkulisse im Moment ein Glücksspiel zu sein was einem nicht zum frühen Kauf animiert.

Sind es wirklich Unterschiede oder ist nur unterschiedliches Empfinden?

Raff sollte die Fury mal auf eine Rundreise schicken so wie das im Mecha Bereich mit Schalter-Testern üblich ist. :D

Andererseits ist der Kühler auf der TX auch nicht wirklich brauchbar, außer im Idle.

Ich hätte lieber einen Kühler der unter Last laut ist als eine Pumpe die mich auf dem desktop oder in ruhigen Szenen nervt.

Ich habe mittlerweile sogar versucht zu dämmen, den 2 KHz-Tinitus bekommt man nicht wirklich weg.

Da weiß ich immer nicht ob ich mich freuen soll das ich wohl doch nicht zu doof bin oder darüber ärgern das es nicht doch einfach zu lösen wäre. :rolleyes:

yamo
2015-06-29, 14:17:59
Ich finde den Aufkleber spitze:freak: Gibt evtl. noch Sammlerwert ;D
Heutzutage muss man ja fast schon auf die 2 Gen. einer Serie warten, im Kfz-Bereich ist das ja schon üblich. Mit der 970 hat NV ihre Jünger beschissen,
AMD bringt ein tolles Produkt mit schlechter Qualitätssicherung, das aber behoben werden kann.
Für 550 € wäre Fury schon verlockend.

Gibt es Berichte über DVI-Adapter (120Hz) für die Fury?

InsaneDruid
2015-06-29, 15:02:15
Sich an diesem Aufkleber hochzuziehen und zu belustigen zeigt leider auf welchem Niveau man hier angekommen ist.

Ansonsten scheint es ja mit der Geräuschkulisse im Moment ein Glücksspiel zu sein was einem nicht zum frühen Kauf animiert. Ich hoffe nur das sie das bei der nächsten "Charge" wirklich im Griff haben. Weil so nicht akzeptabel für eine 700 € Karte.

Stimmt. Viel pikanter ist, das auf dem Karton ein nicht überklebter "Mantle API Technology" Werbeaufkleber prangt. Viel Spaß mit Mantle @ Fury @ Battlefiel. Nicht.

Thunder99
2015-06-29, 16:05:56
Kenne mich da nicht aus aber das trifft nur auf Battlefield zu oder auch z.B. Tief? BotE? etc?

Menace
2015-06-29, 16:11:02
Stimmt. Viel pikanter ist, das auf dem Karton ein nicht überklebter "Mantle API Technology" Werbeaufkleber prangt. Viel Spaß mit Mantle @ Fury @ Battlefiel. Nicht.

Stimmt. DX11 wird von Fury ja nicht unterstützt.
:rolleyes:

#
PS: Nachdem ich im "Radeon R9 Fury X (P)review"-Thread seitenlange Ausführungen lesen konnte,
wie man eine 980TI richtig Taktet und mit welchen einstellungen, bin ich überzeugt das der Threadtitel
einfach nur falsch ist.

Zerstören brauchen die gar nichts mehr.
Traurig daran ist das die "Modschaft" so Sang und Klanglos dabei zuschaut !
(und zuweilen auch noch selbst "mittreibt")


:up:

Dural
2015-06-29, 16:22:25
Es wird keinen Support von Mantle für GCN 1.2 (Tonga + Fiji) geben, dies hat AMD bestätigt.

Kein Wunder hat NV XFX rausgeschmissen, unfähig bis zum geht nicht mehr, die Verpackung ist nur noch Peinlich.

M4xw0lf
2015-06-29, 16:36:09
Kein Wunder hat NV XFX rausgeschmissen, unfähig bis zum geht nicht mehr, die Verpackung ist nur noch Peinlich.
Jetzt neu: Geschichtsklitterei auch für den Grafikkartenmarkt :ulol:

N0Thing
2015-06-29, 16:40:19
XFX hätte Nvidia einfach nicht den Dolch in den Rücken stoßen dürfen. :freak:


Stimmt. DX11 wird von Fury ja nicht unterstützt.
:rolleyes:


Mantle läuft nicht über DX11. :rolleyes:
Da Mantle eigentlich einen Vorteil gegenüber dem DX11-Renderer bieten soll, ist das leider ein Minuspunkt. Ein Update auf Vulkan wäre toll, aber wohl ebenso utopisch.

aufkrawall
2015-06-29, 16:48:58
XFX hätte Nvidia einfach nicht den Dolch in den Rücken stoßen dürfen. :freak:

MMD! :eek:

Dural
2015-06-29, 16:52:59
http://www.chip.de/news/Grafikkarten-Hersteller-XFX-Kuenftig-ohne-Nvidia_45150490.html

akuji13
2015-06-29, 16:53:08
So entstehen Legenden! :D

Flusher
2015-06-29, 16:56:23
Es wird keinen Support von Mantle für GCN 1.2 (Tonga + Fiji) geben, dies hat AMD bestätigt.

Kein Wunder hat NV XFX rausgeschmissen, unfähig bis zum geht nicht mehr, die Verpackung ist nur noch Peinlich.

Unsinn - hierzu hat lediglich irgendwer vor ein paar Seiten geschrieben dass er gehört hätte dass Mantle nicht für GCN 1.2 optimiert wird. Das ist weit weg von einer offiziellen AMD Aussage.

(del)
2015-06-29, 16:58:45
Wie schon geschrieben - der Karton ist episch, geht aber NICHT zu Lasten von AMD. Die können dafür jas nun wirklich nichts :)

Troyan
2015-06-29, 17:04:16
Unsinn - hierzu hat lediglich irgendwer vor ein paar Seiten geschrieben dass er gehört hätte dass Mantle nicht für GCN 1.2 optimiert wird. Das ist weit weg von einer offiziellen AMD Aussage.

Ryan Smith hat es direkt von AMD gehört. ;)

Tamagothi
2015-06-29, 17:05:15
Zwecks Fiepen der Pumpe.

Könnte man die nicht einfach Drosseln per Widerstand oder Software? Von diesen 3700? auf z.B. 2500.

Wer hat eine Fury, kennst sich in Elektronik aus und will es mal testen? :biggrin:

(del)
2015-06-29, 17:09:44
Übrigens sitze ich gerade an der Messung der Leistungsaufnahme. Eigentlich kann man alle FHD Benchmarks in die Tonne werfen. Bei Metro LL sind es satte 55 Watt Unterschied zu UHD!

Ab sofort gibt es auch die Balken doppelt, also nicht nur Watt sondern auch Watt/FPS. Das macht alles dann vergleichbarer. Habe bereits 4 Spiele durch und suche noch nach den echten Perlen. Wir werden auf alle Fälle ein Follow-UP schreiben. :D

Könnte man die nicht einfach Drosseln per Widerstand oder Software? Von diesen 3700? auf z.B. 2500.


Die Pumpe läuft nicht auf 3700. Die rechnen irgend etwas vom Lüfter hoch, denn wenn ich den anhalte, steht in der Anzeige 0 rpm. Laut meiner Frequenzanalyse liegt die Pumpe konstant bei reichlich 1.900 U/min. GPU-Z zeigt einen Fake-Wert an. ich bin schon in Taiwan am rumgraben, um mehr Details über die Produktion herauszubekommen. Der Fertiger ist ja bekannt. CM kauft doch auch nur zu und sie hätten doch wohl besser bei Aquatuning zugegriffen. :D

Wenn mman den Radiator vorn im Gehäuse unterhalb der Grafikkarte einbaut, klingt das Teil im Idle wie ein Zimmerspringbrunnen und man sucht ständig nach einer Pfütze ;)