PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 29. März 2022


Leonidas
2022-03-30, 09:04:54
Link zur News:
https://www.3dcenter.org/news/news-des-29-maerz-2022

GerryB
2022-03-30, 09:41:52
Ich würde mal sagen, CB-Wolfgang hat eeh keinen Dunst wie ein Highend-Gehäuse mit Airflow aussehen sollte, ... hat wohl nur eine Silent-Werbegeschenk in Nutzung.

Für die FE und ähnliche Customs mit kurzem PCB wirds vermutlich kaum unterhalb der Graka nen Hitzestau geben.

z.Bsp.
Manli hat eine lange Graka, wo der 3.Lüfter dann gut durchblasen kann. (RX56 Pulse lässt grüßen)

Aroas
2022-03-30, 09:56:40
Ich würde mal sagen, CB-Wolfgang hat eeh keinen Dunst wie ein Highend-Gehäuse mit Airflow aussehen sollte, ... hat wohl nur eine Silent-Werbegeschenk in Nutzung.


Statt so dusselig herumzuspekulieren und Testern die Erfahrung abzusprechen, hättest du auch einfach mal in den Test reinschauen können.
Da steht nämlich drin, welches Case genutzt wurde.

Ein "Phanteks Enthoo Evolv X Midi Tower".

Mit Sicherheit ist das kein "High End" Gehäuse mit bestem Airflow. Aber es ist ein Gehäuse, wie es heutzutage sehr viele gibt und die entsprechend oft verkauft werden. Insofern ist es auch absolut richtig, eine Grafikkarte in solch einem Gehäuse zu testen und nicht ausschließlich in einem auf maximale Belüftung ausgelegten Big Tower.

Das Wort "Praxisnähe" sagt dir vielleicht was?

GerryB
2022-03-30, 09:58:23
oder man geht auf h2o@Fullcover
lieferbar von Alphacool ?

https://www.techpowerup.com/293420/alphacool-announces-cooler-active-backplate-for-rtx-3090-ti-fe

btw.
Das 212€-Case von CB ist nur ein Witz, ... und ja, habe ich mir natürlich beim Lesen vom Review angeschaut.
"mit RGB wirds 10°C kühler und die Performance steigt um 10fps"

für 70€ weniger hätte man schon ein Pro2 mit reichlich Lüfterplätzen nehmen können
(für eingesparte 70€ kann man schon einige Lüfter meeehr kaufen)

Kleebl00d
2022-03-30, 10:06:14
Da mir die Skalierung der Leistung (ungleiche Schritte - erst 25W, dann 50W) bei dem Bild nicht gefällt, da der visuelle Eindruck unnötig verzerrt wird, hab ich den Graph mal reproduziert und eine einheitliche x-Achse verwendet.

Und da die Effizienz hier der spannende Punkt ist hab ich noch einen zweiten Plot angefertigt, bei dem die Effizienz Leistung/FPS im Fokus steht. Bezogen ist das auf 350W, da bis dahin die Skalierung halbwegs linear ist und der Vergleich zur 3080ti (?) naheliegt.
Man sieht sehr schön, dass ab den 350W jedes Prozent mehr FPS mit immer mehr Leistung erkauft werden muss - für die wenigsten hier eine Überraschung, aber hier meiner Ansicht nach sehr schön sichtbar.

WedgeAntilles
2022-03-30, 10:15:19
Das Wort "Praxisnähe" sagt dir vielleicht was?
Naja, glaubst du, dass User die dieses Case verwenden 2500 Euro für ne Graka raushauen?

In der breiten Masse haben viele das Gehäuse, was auch völlig ok ist.
Nur kauft die breite Masse keine GTX 3090TI.

Es stellt sich also eher die Frage, was für Gehäuse wohl Leute verwenden, die über 2000 Euro für eine GraKa ausgeben.

Wenn du daher (richtigerweise!) Praxisnähe forderst, sollten Gehäuse verwendet werden, die bei den potentiellen 3090TI Käufern im Einsatz sind.

Eine Karte die für 0,1% aller User (wenn überhaupt) interessant ist, kann nicht mit 08/15 Komponenten sinnvoll getestet werden.
Eine 3060 oder 3070 muss mit Massenkomponenten getestet werden, da hast du völlig recht.
Aber eben nicht eine Extremkarte wie die 3090TI.
Eine absolute High-End Karte muss mit High-End Komponenten getestet werden, da das die Komponenten sind die die potentiellen Käufer für das Ding verwenden.

Bevor hier wieder die Beschwerden losgehen - ich selber halte die Karte für blödsinnig. Ich würde mir nie im Leben so ein Teil kaufen.
(Ich würde mir schon keine 3090 kaufen.)
Das ist aber nicht das Thema, ob mich das Teil interessiert - wer will, soll sich das Ding kaufen, ist ja sein Geld.

GerryB
2022-03-30, 10:15:57
Da mir die Skalierung der Leistung (ungleiche Schritte - erst 25W, dann 50W) bei dem Bild nicht gefällt, da der visuelle Eindruck unnötig verzerrt wird, hab ich den Graph mal reproduziert und eine einheitliche x-Achse verwendet.

gute Übersicht

375W sieht ja noch ganz brauchbar aus

Kleebl00d
2022-03-30, 10:32:55
Und da ich grad dabei war, hier noch der Plot der Effizienz in FPS pro W. Der Sweetspot sitzt augescheinlich bei 350W, darüber fällt die Effizienz deutlich schneller ab als bei niedrigeren Leistungen.

Leonidas
2022-03-30, 10:36:26
Insofern die 3090Ti speziell nur in Midi-Towern ein Problem hat, was sich dann in Big-Towern nicht ergibt - das wäre es wert, herausgearbeitet werden. Über den Sommer ist viel Zeit (und Wärme), um das anzugehen - um vor der Next-Gen dann in dieser Frage gerüstet zu sein.

Geldmann3
2022-03-30, 10:44:51
Und da ich grad dabei war, hier noch der Plot der Effizienz in FPS pro W. Der Sweetspot sitzt augescheinlich bei 350W, darüber fällt die Effizienz deutlich schneller ab als bei niedrigeren Leistungen.

Sehr interessant, dass auch die Effizienz/FPS hier bei 350 Watt am höchsten ist.

GerryB
2022-03-30, 11:23:15
Insofern die 3090Ti speziell nur in Midi-Towern ein Problem hat, was sich dann in Big-Towern nicht ergibt - das wäre es wert, herausgearbeitet werden. Über den Sommer ist viel Zeit (und Wärme), um das anzugehen - um vor der Next-Gen dann in dieser Frage gerüstet zu sein.
und
Net zu vergessen, das PCGH auf dem Benchtable unterwegs ist.
Normalerweise regelt der NV-Treiber in 15MHz-Steps runter wenns wärmer wird.

das
CB das Throttle der XFX XTXH net angepasst hat ist eeh schon Murks in so nem hitzigen Case.
(gut man könnte sagen ist Schuld von XFX, aber CB hatte ja mal ein OCing-Review gemacht, wo man hätte drüber nachdenken sollen,
man ist ja schließlich noch weit unter der offiziellen AMD-Grenze vom Hotspot unterwegs)

Gast
2022-03-30, 11:43:06
Ein "Phanteks Enthoo Evolv X Midi Tower".


Ja, mit ganzen 3 Lüftern für eine 450W Grafikkarte und vielleicht noch ~100W der CPU oben drauf. 🤣🤣🤣🤣

Das ist ungefähr als würde man einen Ferrari Motor in einen Golf einbauen und sich wundern dass das Getriebe nicht mitmacht.

Gast
2022-03-30, 12:03:40
Und da ich grad dabei war, hier noch der Plot der Effizienz in FPS pro W. Der Sweetspot sitzt augescheinlich bei 350W, darüber fällt die Effizienz deutlich schneller ab als bei niedrigeren Leistungen.

Gar nicht mal schlimm, man verliert gerade mal 15% Effizienz von 350 auf 450W

MD_Enigma
2022-03-30, 12:31:46
Ich finde das Rumhacken auf Testern und ihnen Dunstlosigkeit vorzuwerfen nicht gut. Computerbase hat sich bewusst das Case entschieden. Ergo gegen einen synthetischen Test und für einen praxisnahen Test. Das finde ich eine gute Entscheidung, wenn man die Zielgruppe betrachtet.

Converible
2022-03-30, 12:45:43
Ich würde mal sagen, CB-Wolfgang hat eeh keinen Dunst wie ein Highend-Gehäuse mit Airflow aussehen sollte, ... hat wohl nur eine Silent-Werbegeschenk in Nutzung.

Hättest du den Test richtig gelesen, hättest du gewusst, dass CB vorhat das Gehäuse umzustellen und dazu eben noch ein Gehäusetest plannt.


Abgesehen davon finde ich gut, dass CB auf solche Probleme, die mit einem Gehäuse auftretten können, hinweisen kann, weil sie im Gehäuse testen. Außerdem ist das die erste monolitische GPU mit mehr als 400W. Bisher war das Testsystem ja in Ordnung für bisherige Grafikkarten.


Da sind mir die anderen Tester, die auf offener Testplattform testen eher die jenigen die kritisiert werden müssten, denn die merken nichts und können den Leser auch nicht warnen, beim Gehäuse zwei mal hinzuschauen, wenn man so ein innifizientes 450W Monster reinbaut...

basix
2022-03-30, 13:02:33
Da mir die Skalierung der Leistung (ungleiche Schritte - erst 25W, dann 50W) bei dem Bild nicht gefällt, da der visuelle Eindruck unnötig verzerrt wird, hab ich den Graph mal reproduziert und eine einheitliche x-Achse verwendet.

Und da die Effizienz hier der spannende Punkt ist hab ich noch einen zweiten Plot angefertigt, bei dem die Effizienz Leistung/FPS im Fokus steht. Bezogen ist das auf 350W, da bis dahin die Skalierung halbwegs linear ist und der Vergleich zur 3080ti (?) naheliegt.
Man sieht sehr schön, dass ab den 350W jedes Prozent mehr FPS mit immer mehr Leistung erkauft werden muss - für die wenigsten hier eine Überraschung, aber hier meiner Ansicht nach sehr schön sichtbar.

Und da ich grad dabei war, hier noch der Plot der Effizienz in FPS pro W. Der Sweetspot sitzt augescheinlich bei 350W, darüber fällt die Effizienz deutlich schneller ab als bei niedrigeren Leistungen.

Danke, endlich mal einer der Plots richtig skaliert. Das ist richtg wohltuend :D

Ich hätte gesagt, dass 375W noch OK ist bezüglich Perf/Watt. Da verliert man noch nicht viel. Aber interessant ist es allemal, dass der Sweetspot (!) bei 350W liegt.

Ich denke aber, wenn man mit dem Curve Editor (Spannung vs. Frequenz Kurve) und dem Ramtakt spielt, das Optimum deutlich unter 350W liegt.

Gast
2022-03-30, 13:46:43
Danke, endlich mal einer der Plots richtig skaliert. Das ist richtg wohltuend :D
Naja, kommt auf die Perspektive an. Ich hätte den Verbrauch eher positiv aufgetragen. So sieht es so aus, als wäre 200W das Minimum, aber es wurde halt nicht darunter gemessen. Aber ich verstehe, worauf du hinaus willst.

Gast
2022-03-30, 14:10:14
Da mir die Skalierung der Leistung (ungleiche Schritte - erst 25W, dann 50W) bei dem Bild nicht gefällt, ...

Wenn die X-Achse jetzt noch aufsteigend beschriftet wäre, wie es üblich ist, würde mir das noch mehr gefallen ;)

Crazy_Borg
2022-03-30, 14:24:51
N
...
Es stellt sich also eher die Frage, was für Gehäuse wohl Leute verwenden, die über 2000 Euro für eine GraKa ausgeben.
...
Kaufen sich echt High-End Grafikkartennutzer für jeden Grafikkarte auch ein neues Case?
Frage mal so in die Runde.

Ich kenne eher das Gegenteil, die welche zwar ein gutes Gehäuse haben, dies aber bereits seit Jahren.
Insofern finde ich den Test auch eher mit dem Case von CB angemessen anstatt mit dem Topmodell.

Wenn man das weiterspinnt kann man auch behaupten Luftkühlungstest bei den Karten sind eh unnötig, die High-End Fraktion welche die kauft nutzt eh auschliesslich Wasserkühlung.

Ansonsten kann nvidia ja gern Kompatitbilitätslisten zu ihren Grafikkarten rausgeben, welche Gehäuse geeignet sind. Sowohl von den Dimensionen als auch der Abluftfähigkeit. :freak:

Fragman
2022-03-30, 14:33:46
Ich hätte gesagt, dass 375W noch OK ist bezüglich Perf/Watt. Da verliert man noch nicht viel.


Ja, daher könnte man sich die 75 Watt mehr sparen.

Lehdro
2022-03-30, 15:10:56
Naja, glaubst du, dass User die dieses Case verwenden 2500 Euro für ne Graka raushauen?

In der breiten Masse haben viele das Gehäuse, was auch völlig ok ist.
Nur kauft die breite Masse keine GTX 3090TI.

Es stellt sich also eher die Frage, was für Gehäuse wohl Leute verwenden, die über 2000 Euro für eine GraKa ausgeben.

Wenn du daher (richtigerweise!) Praxisnähe forderst, sollten Gehäuse verwendet werden, die bei den potentiellen 3090TI Käufern im Einsatz sind.

Eine Karte die für 0,1% aller User (wenn überhaupt) interessant ist, kann nicht mit 08/15 Komponenten sinnvoll getestet werden.
Eine 3060 oder 3070 muss mit Massenkomponenten getestet werden, da hast du völlig recht.
Aber eben nicht eine Extremkarte wie die 3090TI.
Eine absolute High-End Karte muss mit High-End Komponenten getestet werden, da das die Komponenten sind die die potentiellen Käufer für das Ding verwenden.
Jop, ganz ehrlich: Wer für eine 2500€ 450W+ Karte mit solch einer Lukü hantiert, gibt das Geld am falschen Ende aus. Eine 3090 + Custom Wakü ist sicherlich mit etwas händischem Tuning ähnlich schnell wie eine 3090 Ti und billiger noch dazu (~600€ Budget nur für die Differenz zwischen beiden).

Die Frage ist nicht welches Gehäuse man für eine 3090 Ti kauft, sondern warum man generell bei der Karte protzt und bei der Kühlung (Gehäuse/Belüftung/Karte an sich) spart. Es gibt 3090 Tis die sind schon ab Werk deutlich besser (vor allem leiser) gekühlt (siehe hier (https://youtu.be/CE8ssnSqgZg?t=606)), von der eigentlich fast schon notwendigen Wakü (zumindest wenn es wirklich leise sein soll) mal ganz zu schweigen. Die Mehrkosten dafür gehen ja vollends unter...
Ist ungefähr so sinnvoll wie ein Rennwagen mit Straßenreifen. CB hat das Thema da verfehlt, da stimme ich mit dir definitiv überein. Wobei ich davon ausgehe, das für solche Karten eigentlich noch ein Schritt mehr nötig ist. CB kann sich immerhin auf die Banner schreiben im Rahmen der Vergleichbarkeit mit anderen Karten und der "praxisnähe" das Testsetup identisch gelassen zu haben - und zudem ein potentielles Problem aufgezeigt. Aber als einen Fingerzeig auf ein eventuell besser belüftetes Gehäuse können sie das auf jeden Fall für RDNA3 und Lovelace mitnehmen.

Gast
2022-03-30, 15:13:03
Kaufen sich echt High-End Grafikkartennutzer für jeden Grafikkarte auch ein neues Case?
Frage mal so in die Runde.

Nein, die haben meistens schon was passendes.

Legendenkiller
2022-03-30, 15:14:05
Man sieht sehr schön warum die Karte auf 350W limitert war.

PS: wer kauft denn jetzt überhaupt noch eine 3090ti ?!
Ich mein kommt die nicht zu spät, jetzt warten doch alle die 2500€ ausgeben wollen auf die 4090.

Leonidas
2022-03-30, 15:23:43
Da sind mir die anderen Tester, die auf offener Testplattform testen eher die jenigen die kritisiert werden müssten, denn die merken nichts und können den Leser auch nicht warnen, beim Gehäuse zwei mal hinzuschauen, wenn man so ein innifizientes 450W Monster reinbaut...

EXAKT. Die sollten nun wirklich aufwachen und diese Problematik beachten.

Kleebl00d
2022-03-30, 16:00:41
Wenn die X-Achse jetzt noch aufsteigend beschriftet wäre, wie es üblich ist, würde mir das noch mehr gefallen ;)

Dann wäre es aber nicht mehr das, was ich machen wollte - die reproduzierte Grafik aus dem Artikel ;)
Ich hoffe, es tröstet, dass die selbsterstellten Plots ordnungsgemäß sind.

Gast
2022-03-30, 16:59:33
ASML hat Backlog. Und selbst Probleme. Mit zeitnaher Überproduktion ist nicjt zu rechnen.

Gast
2022-03-30, 17:05:31
Zu dem Test der CB könnte man einiges an wenig schleichelhaftem schreiben. Ich lass es, weil es nichts bringt. Die anderen sind halt zumeist keinen Deut besser.
Es gab Initiativen GPU-Kühlung generell zu verbessern - am Markt gescheitert. Es gibt bzgl Kühlung bessere und schlechtere Gehäuse. Peilung davon haben viele Testers nicht. Wer soviel abführen muss, kauft auch entsprechendes Gehäuse. Viele solcher Systeme haben WaKü. Und so weiter

Gast
2022-03-30, 17:09:57
Ich sehe das Problem nicht. 3090Ti ist Leistungsspitze. Da spielt Effizienz weder absolut noch relativ eine Rolle.
Eher hat 3090 jetzt ein Problem, dass sie viel schärfer bewertet wird/werden sollte, weil sie den Bonus nicht mehr hat.

GerryB
2022-03-30, 21:10:11
Weil Einige net so richtig meine Idee verstanden haben.

CB hat ein 220€ SchickiMicki Gehäuse verwendet = sinnlos teuer.
Ein Pro 2 für 150€ wäre viiiiel besser gewesen.

iamthebear
2022-03-30, 22:27:33
Ich habe einmal einen Versuch unternommen die Tests zur RTX 3090 Skalierung zu erklären.

Fangen wir einmal mit den Werten von Geldmann3 zur RTX 3090 an (siehe https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12963231&postcount=2833)

Meine Annahmen:
.) Der Verbrauch folgt die der Formel: Verbrauch ist Grundlast + Takt * Spannung²
Die Grundlast ergibt sich dabei durch sämtliche Komponenten wie z.B. VRAM, Speicherinterface etc., die nicht an den GPU Takt bzw. dessen Spannung gebunden sind
.) Die FPS skalieren linear mit dem GPU Takt (stimmt vielleicht oben nicht ganz, im interessanteren Bereich unten aber sicher fast zu 100%.
.) Beim maximalen Verbrauch liegt ein Takt von 1850 MHz an bei ca. 0.95V (basierend auf den Werten von anderen Reviews

Daraus folgen lässt sich die verwendete Spannung ableiten:
Spannung=WURZEL((Verbrauch-Grundlast)/(FPS*K1)/K2)

Wobei die Konstante K1 die MHz/FPS angibt, was sich anhand des 375W Wertes mit 1854/111 = 16,7MHz/FPS berechnen lässt
K2 gibt den Verbrauch in 0,16W/MHz bei einer Spannung von 1V an. Diese wurde so gewählt, dass ich bei 375W auf die oben genannten 0,95V komme.

Bei der Grundlast habe ich nun verschiedene Werte probiert und habe versucht dabei annähernd folgende bekannte Spannungskurve zu erreichen:
.) von 0,95V bis 0,7V in Kurvenform leicht abfallend
.) Ab 0,7V keine Absenkung der Spannung mehr. Ab da reduziert sich der Stromverbrauch nur mehr über die Taktsenkung

Hier bin ich auf 109W gekommen.

Und siehe da etwas verwackelt aber:
https://i.imgur.com/J3sOnjg.png



So nun dasselbe Spiel mit der 3090 Ti:
.) Als Grundlast habe ich wieder 109W angenommen
.) Die W/MHz bei 1V müssten um ca. 2% höher sein auf Grund von mehr Shadern
.) Die FPS/MHz sind natürlich deutlich anders da anderes Spiel aber die kann man sich ja leicht errechnen basierend auf 2050MHz Maximaltakt

Und irgendetwas stimmt hier absolut nicht:
https://i.imgur.com/W3V2GwF.png

Mit den maximalen V liege ich noch richtig.
Aber dann sieht man, dass der Takt schon ab ca. 0,9V extrem abfällt. Aber wieso? Es ist doch derselbe Chip.

Was ist wenn die Grundlast etwas höher ist (z.B. 120W), bei mehr Speichertakt wäre dies ja möglich:
https://i.imgur.com/Uo2NNuK.png

Nope da wird die Kurve immer flacher statt steiler. Das kann nicht die Antwort sein.

Was ist wenn die Grundlast geringer ist (z.B. weil weniger Chips verbaut wurden):
https://i.imgur.com/q1r6dxI.png

Damit sieht die Kurve zwar grundsätzlich etwas realistischer aus, jedoch liegt der Punkt ab dem es steil bergab geht schon bei 0.9V

Kann es sein, dass sich Nvidia hier gar nicht die Mühe gemacht hat Spannungen unter 0,9V in die Kurve einzutragen? Das wäre aber schon echt daneben.

Mit MSI Afterburner würde sich dies einfach überprüfen lassen (Strg+L) aber wer hat hier schon eine 3090 Ti...

Update:
Igor hat angedeutet, dass die Boostlogik bei der 3090 Ti deutlich anders funktioniert als noch bei der 3090 als Vorbereitung zur neuen Generation. Kurzfristige Stromspitzen werden nun deutlich besser limitiert.
Eventuell ist hier die Ursache zu suchen. Spikes werden schön gecapped aber das mit dem Reduzieren der Spannung und damit auch Leistungsaufnahme bei niedrigeren Taktraten klappt nicht so recht.

Gast
2022-03-31, 20:02:10
Eine Grafikkarte testet man ohne Gehäuse, denn es heißt "Grafikkarten-Test" und nicht "Grafikkarten-Gehäuse-Test".

Wer nach dem Grafikkarten-Test mit offenem Aufbau dann wissen möchte wie ein Gehäuse x bezüglich Kühlung/Lautstärke abschneidet, bzw. mit dieser bestimmten Grafikkarte y, der schaut sich dann einen Gehäuse-Test an.

So; ist so einfach zu verstehen, leider schnallen es einige Tester nicht bzw. halten an ihren falschen Argumenten bzw. gesponserten Gehäuse fest.
Die Argumentation "es ist realitätsnäher" ändert an dem beschriebenen unlösbaren Dilemma nichts, und an den Problemen.

Einfach ein besser belüftetes Gehäuse nehmen verschiebt das Problem:
- man kühlt nun die 450 W Grafikkarte ausreichend, aber im gleichem Atemzug repräsentiert man die anderen weniger gut belüfteten Gehäuse nicht
- man behandelt die Grafikkarte NICHT gleich: Eine Grafikkartenmodell kann konstruiert worden sein um mit mehr Luftstrom überproportional besser zu kühlen (z.B. XFX Speedster MERC 319), ein anderes vice versa (z.B. AMD sapphire RX 6000 Nitro).
Kann man dies wissen? Nein.

Also: Ohne Gehäuse testen.
Problem: Alle Gehäuse-Tests testen nicht ausreichend; Tester/Reviewer packen nur eine Grafikkarte, z.B. 200 W Stromverbrauch rein, und testen.
Man bräuchte da aber z.B. mindestens drei: 150 W, 300 W und nun 400 W.

Leonidas
2022-04-01, 01:23:58
Wer nach dem Grafikkarten-Test mit offenem Aufbau dann wissen möchte wie ein Gehäuse x bezüglich Kühlung/Lautstärke abschneidet, bzw. mit dieser bestimmten Grafikkarte y, der schaut sich dann einen Gehäuse-Test an.

Ok. Aber was ist, wenn bei einer bestimmten Grafikkarte mehr oder weniger alle Gehäuse einen relevanten Unterschied zur Teststation zeigen - und zwar nicht nur bei Kühlung/Lautstärke, sondern bei der Performance?!

Deine Rede vergisst Temperatur-geregelte Taktraten-Boosts.

Denniss
2022-04-01, 02:02:06
idealerweise teste man beides - offener Testaufbau und zur Kontrolle ein gut belüftetes Gehäuse.
Die Masochisten nehmen auch noch einen Backofen für Tests - entweder Glaskästen oder "Silent"-Gehäuse.
Die wenigsten Nutzer betreiben eine Rechner komplett ohne Gehäuse also ist so ein offener Testaufbau etwas weltfremd, sollte aber maximale Leistung bei bester Kühlung darstellen.

Gast
2022-04-01, 07:25:36
Ok. Aber was ist, wenn bei einer bestimmten Grafikkarte mehr oder weniger alle Gehäuse einen relevanten Unterschied zur Teststation zeigen - und zwar nicht nur bei Kühlung/Lautstärke, sondern bei der Performance?!

Alle Grafikkarten werden Unterschiede von offenem Testaufbau zu Gehäusen zeigen, normalerweise zwar nicht bei der Performance, weil die Grafikkartentemperaturen werden ja auch geregelt, aber bei der Lautstärke.

Da es unzählige unterschiedliche Gehäuse gibt, die man auch noch auf verschiedene Weise mit Lüftern ausstatten kann man unmöglich ein realistisches Ergebnis erreichen, egal welches Gehäuse man verwendet.

Wenn man eine Komponente testet sollte nach Möglichkeit die zu testende Komponente die einzige Variable sein. Die einzige sinnvolle Möglichkeit für einen Grafikkartentest ist daher eine offene Teststation zu verwenden, alleine auch um unterschiedliche Tests einigermaßen sinnvoll vergleichen zu können.

Dein 3Dcenter-Index wäre beispielsweise vollkommener Schwachsinn, wenn du hier Tests mit deutlich unterschiedlichen Rahmenbedingungen verrechnen würdest.

Es ist übrigens nicht immer für alles vorteilhaft ohne Gehäuse zu testen, Komponenten die nicht im direkten Luftstrom der dort verbauten Lüfter liegen werden in der Regel schlechter als in einem Gehäuse mit vernünftiger Belüftung gekühlt. Das kann auch für die Kartenrückseite gelten.

Leonidas
2022-04-01, 08:19:07
Du hast Recht: Zu viele Klein-Differenzen sind nicht zu schultern, dass kann niemand alles detailliert austesten.

Meine Fragestellung war aber: Was ist, wenn es eine große, markante Performance-Differenz zwischen mit/ohne Gehäuse gibt?

Gast
2022-04-02, 02:14:46
Du hast Recht: Zu viele Klein-Differenzen sind nicht zu schultern, dass kann niemand alles detailliert austesten.

Meine Fragestellung war aber: Was ist, wenn es eine große, markante Performance-Differenz zwischen mit/ohne Gehäuse gibt?
Was soll dann sein? Dann ist es halt so.

Für dieses Szenario sind die beiden Vorgehensweisen da:
1) Jede Grafikkarte einmal im Gehäuse und einmal im offenen Aufbau testen
2) Gehäusetests nicht nur mit einer Grafikkarte, sondern mit z.B. drei (150, 300, 450 W).

Die "Temperatur-geregelte Taktraten-Boosts." hätte man so mit abgedeckt.
Der Vergleich im gleichen Gehäusetest zwischen 150, 300 und 450 W würde zeigen, wo mehr Takt erreicht wird.

So hätte man die meisten Szenarien abgedeckt.
Die Probleme haben die Tester/Reviewer selber heraufbeschworen, in dem sie Grafikkartentest bezüglich Leistung/Kühlung/Lautstärke teils verfälschen, in dem sie im Gehäuse testen.
Andersausgedrückt: Der zu viele Aufwand den sie scheuen und folglich so testen (bei hwluxx hat man sogar erst seit kurzem die 150 W Grafikkarte gegen die 180 W Gigabyte AORUS GeForce GTX 1080 8G getauscht.)
An Beispiel Hluxx sieht man dass alle deren Gehäusetest genau Null Aussagekraft zeigen, ob jene Gehäuse für eine 450 W Grafikkarte geeignet wären oder nicht.
Selbst mit einer 300 W Grafikkarte weiß man es nicht.

Folglich: Wenn man denn Aufwand scheut und nicht alles abdecken kann, ist "Die einzige sinnvolle Möglichkeit für einen Grafikkartentest ist daher eine offene Teststation zu verwenden, alleine auch um unterschiedliche Tests einigermaßen sinnvoll vergleichen zu können".

Egal, die von Computerbase und andere Tester wollen es nicht verstehen. Schon selber einige mal angeschrieben. Deren Fehlschluss in der Argumentationskette "Wollen im Gehäuse testen für ein realistischeres Alltagsszenario" peilen die nicht.

Leonidas
2022-04-02, 04:19:59
Du hast in allem Recht - bezogen auf Gehäuse-Tests. Genauso muß man das machen.

Mich interessiert eher die Frage von Grafikkarten-Tests. Da steht weiter im Raum: Darf man ganz ohne Gehäuse testen? Das erleichert vieles, aber es könnte bei Grafikkarten mit hohen Temps * auch zu fps-Verfälschungen kommen.

* "hohe Temps" im Sinne von: Nahe am Grenzwert liegend und damit in Gefahr, die Temperatur-Regelung auszulösen.

Gast
2022-04-02, 16:20:47
Meine Fragestellung war aber: Was ist, wenn es eine große, markante Performance-Differenz zwischen mit/ohne Gehäuse gibt?

Dann wurde das falsche Gehäuse verwendet.

Gast
2022-04-03, 18:52:47
+3fps für 75-100 Watt mehr, komplett bescheuert. Wer braucht sowas? Nach Fermi der schlimmste Launch whatever. Komplette Nonsenskarte. Preistreiberei.

Gast
2022-04-04, 00:00:42
Denke das wurde schon erwähnt: Das rtx 3090 Ti Modell ist im Endeffekt eine Test- und Spielwiese für RTX 4000 und AMD RX 7000 für die custom-Grafikkartenhersteller.

Die bei AMD können sich bei Nvidia bedanken ;)

Schlussendlich weiß man nun auch was Luftkühlung im Extrem (hier Giggabyte das 2,1 kg Aorus Modell) leisten kann. Darüber hinaus wird keiner mehr gehen:
- der Aufwand und die Kosten für diese 2 kg Kühlkörper werden zu groß
- die Verbraucher möchten dass nicht mehr mitgehen
- da werden PCIe-Stecker abbrechen
- verwenden die Verbrauche jene 400 W Grafikkarten in min. einem top luftgekühlten Gehäuse mit x5 140 mm Lüftern/200 mm, im offenen Aufbau oder Wassergekühlt? Nein.

Auch weiß man dass die ganzen Gerüchte um "durchschnittlich 600/850 W für rtx 4090 Ti" falsch und erfunden sind.

Denke persönlich jenes
1) Nvidia die eigene Standard rtx 4090 (Ti) bei 400 W ansetzen wird (eine Nvidia Version der RTX 3090 Ti gibt es ja nicht?). Ist deren jetziger rtx 3090 Kühler, etwas aufgebohrt, im Stande 450 W abzuführen?
2) Den custom-Herstellern wird dann halt "bis 500 W" erlaubt.
3) Ich denke es es somit nahezu 100 % gegeben, dass - jedenfalls bei Nvidias Karten - alle Modelle beim Stromverbrauch eine Stufe steigen;
rtx 4060 verbraucht wie die jetzige rtx 3070, rtx 4070 wie rtx 3080 usw.

Gast
2022-04-06, 02:37:44
Kleebl00d hat schön ausgeführt, warum sich Hardwareluxx mit der Grafik - schon wieder - keine Gefallen getan hat. Außer bei der Zielgruppe, denn die ist zu blöd den Manipulationsversuch zu erkennen.