PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Boost bei aktuellen Grafikkarten


Armaq
2013-11-05, 14:34:23
Wie bereits von einigen Diskussionsteilnehmern spekuliert, führt der Takt "Boost" bei aktuellen Grafikkarten zu wenig vorhersagbaren Ergebnissen. Je nach Belüftung, Alter, Gute, Verarbeitung und Verstaubung bekommt man eine sehr gute oder sehr schlechte Grafikkarte.

Meine Forderung:
Die Hersteller sollten einen Mindest-Takt bei den Karten garantieren!

Iruwen
2013-11-05, 14:36:22
Tut NV das nicht? Der Basistakt wird doch nur unterschritten, wenn das PT überschritten wird. Einen Schutz gegen das Abrauchen meiner Karte hab ich schon ganz gerne.

Eggcake
2013-11-05, 14:40:16
Ein Basistakt sollte schon gewährleistet werden. Das ist aber nur bei AMD nicht der Fall.

Grundsätzlich ist's halt zum einen positiv, zum anderen negativ. Denn eine Alternative wäre gewesen, dass die Karte z.B. mit 800MHz Takt released worden wäre. Bei einigen wäre eine Übertaktung auf 1GHz möglich, bei anderen wiederum nicht. Mittels "Boost" kann man einfach jeder Karte soviel Dampf geben, wie eben geht.
Das wäre ähnlich, wie wenn z.B. ein 4770K bei den einen bis 4.2GHz, bei den anderen nur bis 3.7GHz boosten würde. Die Alternative ist, dass alle bis 3.7GHz boosten und bei einigen der Takt ohne Probleme bis 4.2GHz angehoben werden kann, bei anderen halt nicht.

Man kann's natürlich auch so sehen. Ohne Boost "verschleiert" man die schlechtere Qualität des Die ganz einfach, indem man allen denselben Baseclock ohne Boost gibt und die Übertaktung komplett dem User überlässt.
Aber: Mindestakt muss sein, imho.

Gipsel
2013-11-05, 14:47:31
Ein Basistakt sollte schon gewährleistet werden. Das ist aber nur bei AMD nicht der Fall.Den gibt es auch bei AMD, nur liegt der recht niedrig (727MHz für die 290X, 662MHz für die 290).

Eggcake
2013-11-05, 14:51:33
Stimmt, hast Recht - halt einfach nicht offiziell.

TobiWahnKenobi
2013-11-05, 14:53:14
boost, wie nvidia oder intel es umsetzen, ist für mich als kunde völlig in ordnung. was amd da gerade abliefert (wenn man z.b. geizhals bemüht) mit den "up to.. xyz MHz" ist imho völligST daneben.

http://www.abload.de/img/unbenanntupucr.png

ich würde mich gern mal in die situation eines potenziellen kunden versetzen können, der auf derartige angaben oder reviews im netz angewiesen ist. leider ist mir das nicht möglich.
dass da hier und da ne herbe enttäuschung einsetzt, würde ich aber nicht ausschliessen.


(..)

mfg
tobi

Armaq
2013-11-05, 14:53:58
Den gibt es auch bei AMD, nur liegt der recht niedrig (727MHz für die 290X, 662MHz für die 290).
Wie sehen die Benchmarks mit dem Takt aus? Kann ich da gleich ne 7970 Ghz nehmen?

Raff
2013-11-05, 14:55:26
Mit 662/2.500 MHz liegt eine 290 (ohne X) im Mittel ziemlich genau auf einer 280X.

MfG,
Raff

Armaq
2013-11-05, 14:58:05
Mit 662/2.500 MHz liegt eine 290 (ohne X) im Mittel ziemlich genau auf einer 280X.

MfG,
Raff
D.h. im Worst Case ist meine Karte für 100 € mehr mit 0 % Mehrperformance ausgestattet?

captain_drink
2013-11-05, 15:42:37
AMD ist durchaus clever. Es gibt zwar einen Baseclock, der aber so niedrig liegt, dass er selten bis nie erreicht wird. Also wird "normal" gebencht, was Ergebnisse nach dem Zufallsprinzip hervorbringt. Da kann man dann auch mal gute Samples an die Redaktionen schicken, die man so im Handel vielleicht gar nicht bekommt.

Wenn AMD schon nicht bereit ist, einen praxisnahen Baseclock zu nennen, so sollten die Hardwareredaktionen handelsübliche Karten auf ihren durchschnittlichen Takt testen und mitteln. Dass das letztlich viel zu aufwändig ist und von niemandem so gehandhabt werden wird, weiß allerdings auch AMD. Der Verlierer ist letztlich der Kunde, der erst nach dem Einbau weiß, was der Neuerwerb unter Realbedingungen zu leisten vermag.

Armaq
2013-11-05, 16:10:51
Mir geht es hier auch nicht nur um AMD/Nvidia, aber wenn sich das durchsetzt, zahlen wir den "Durchschnittspreis" im Laden von ca. 350 €, bekommen aber nur Güte iHv. 250€, weil das Silizium totaler Mist ist. Haswell hat ggf. auch so eine Steuerung.

Loeschzwerg
2013-11-06, 08:03:01
THG liefert ja bereits einen kleinen Ausblick bezüglich Güte :( Das sollte unbedingt weiter verfolgt werden.

Ein Fan vom NV Boost / PT1.0 bin ich auch nicht, aber beides ist besser als PT2.0. Man kann wenigstens mit einer bestimmten Leistung rechnen, bei der 290/290X ist es aktuell ein Glücksspiel ohne alternativer Kühllösung.

V2.0
2013-11-06, 08:07:46
http://www.hwupgrade.it/articoli/skvideo/3822/amd-radeon-r9-290-la-seconda-scheda-che-viene-dalle-hawaii_3.html

Mal ansehen. Hier sieht man, dass AMD den Boost konstanter hält als NV.

Rancor
2013-11-06, 08:10:45
Also meine GTX 780 hält Ihren maximalen Boost immer.

Loeschzwerg
2013-11-06, 08:13:59
http://www.hwupgrade.it/articoli/skvideo/3822/amd-radeon-r9-290-la-seconda-scheda-che-viene-dalle-hawaii_3.html

Mal ansehen. Hier sieht man, dass AMD den Boost konstanter hält als NV.

Der Test ist bullshit weil die Sequenzen zu kurz sind um auch nur annähernd ins Templimit zu kommen...

V2.0
2013-11-06, 08:39:00
Was ich sehe ist, dass die Gefroces gute 2FPS im Loop 5 verlieren, die AMD 0,3. Für mich liegt AMD klar besser.

Sven77
2013-11-06, 08:41:11
Also meine GTX 780 hält Ihren maximalen Boost immer.

Meine Titan auch (1045Mhz bei 106%PT). Und wird dabei nichtmal laut.. die ganze Boostgeschichte war bisher weitgehend ärgerlich, meine HD7950 hält Standardboost auch nur wenn man das PT weit nach oben schraubt.. aber mit Volcanic Islands schiesst AMD den Vogel ab ;D

StefanV
2013-11-06, 08:43:47
Der Test ist bullshit weil die Sequenzen zu kurz sind um auch nur annähernd ins Templimit zu kommen...
...weil nV benachteiligt wird und AMD besser steht als nV??

boxleitnerb
2013-11-06, 08:46:58
Hast du irgendwann mal auch Argumente oder willst du nur provozieren? Sind die Tests bei Computerbase, hardware.fr und HT4U dann nicht gültig, nur weil eine italienische Seite in einem Benchmark was anderes rausgefunden hat?

Loeschzwerg
2013-11-06, 08:59:25
@StefanV und V2.0: Ein Loop dauert 2min, danach gibt es eine kurze Pause in der die temp um ein paar °C absackt. Das sind absolut keine Gaming Bedingungen! Macht ihr alle 2min Pause? Also echt, schaut euch doch bitte die Diagramme richtig an... ihr seit beide schon lange hier unterwegs und solltest es eigentlich besser wissen wie Dinge zu bewerten sind.

V2.0
2013-11-06, 09:07:49
Ich sehe, dass NV in der kurzen Zeit schon abfällt, AMD nicht.

gedi
2013-11-06, 09:16:22
Also, der Boost bei einer Sapphire R9 280X ist temporär gesehen schrott. Sie hält den OC-Takt von 1190 Mhz in eigentlich jedem Spiel (sogar in BF4), allerdings taktet die Graka in C3 praktisch jede Sekunde von 1190 Mhz auf 870 Mhz und wieder zurück. Dabei ist es unerheblich, ob die GPU übertaktet ist, denn das gleiche passiert auch unter Default-Clockspeed. Das Spielvergnügen bleibt dabei völlig auf der Strecke.

Loeschzwerg
2013-11-06, 09:34:39
Ich sehe, dass NV in der kurzen Zeit schon abfällt, AMD nicht.

Der Takt bleibt immer über 900MHz (GTX 780), also sogar über den offiziellen NV Angaben... Lediglich die Titan ist hier etwas an der Grenze, aber immer noch über min Takt (auf die 40MHz zwischen Base und Boost ist eh geschissen).

TheCounter
2013-11-06, 09:43:03
Wenn man den Boost nicht mag kann man ihn per Bios Mod ja einfach deaktivieren ;)

Loeschzwerg
2013-11-06, 09:46:40
Hab ich bei mir gemacht :)

Sven77
2013-11-06, 09:50:53
Wenn man den Boost nicht mag kann man ihn per Bios Mod ja einfach deaktivieren ;)

geht nicht bei allen Karten

TheCounter
2013-11-06, 10:01:15
geht nicht bei allen Karten

AMD weis ich nicht, aber bei NVIDIA sollte das kein Problem sein.

Armaq
2013-11-06, 11:34:56
Wer macht bitte ein BIOS Update?

Nochmal, die Entwicklung macht mMn. den Markt komplett intransparent. Ich brauche eine 290X doch nicht kaufen, denn im Optimalfall habe ich eine Titan, im schlechtesten Fall habe die PErformance der Vorgängergeneration.

Bei Nvidia wird es sicherlich genauso weitergehen.

Botcruscher
2013-11-06, 11:55:25
Beim Thema Boost irgendwie Richtung Hersteller zu diskutieren bringt nichts. Der Zug ist abgefahren und wir werden in Zukunft nur noch dynamische Taktraten sehen. Einer der Gründe sind schon mal die miesen Herstellungsprozesse. Danach kommen Powerlimit usw. Die Vergleichbarkeit wird komplett unter die Räder kommen. 10-20% Leistungsdifferenz kann man als normal ansehen.
Der marketingsprech Boost ist nichts weiter als eine Temperatur/Verbrauchsdrossel.

uweskw
2013-11-06, 12:07:28
@StefanV und V2.0: Ein Loop dauert 2min, danach gibt es eine kurze Pause in der die temp um ein paar °C absackt. Das sind absolut keine Gaming Bedingungen! Macht ihr alle 2min Pause? Also echt, schaut euch doch bitte die Diagramme richtig an... ihr seit beide schon lange hier unterwegs und solltest es eigentlich besser wissen wie Dinge zu bewerten sind.

Aber dennoch so fordernd, dass die 780er schon im ersten Loop mehr als 10% runtertaktet und durch den gesamten Test nicht mehr auf volle Taktfrequenz kommt. Haben die in einem passiven Gehäuse getestet?

Greetz
U.S.

Armaq
2013-11-06, 12:07:31
Beim Thema Boost irgendwie Richtung Hersteller zu diskutieren bringt nichts. Der Zug ist abgefahren und wir werden in Zukunft nur noch dynamische Taktraten sehen. Einer der Gründe sind schon mal die miesen Herstellungsprozesse. Danach kommen Powerlimit usw. Die Vergleichbarkeit wird komplett unter die Räder kommen. 10-20% Leistungsdifferenz kann man als normal ansehen.
Der marketingsprech Boost ist nichts weiter als eine Temperatur/Verbrauchsdrossel.
Es sei denn, man kauft die Scheiße nicht.

Loeschzwerg
2013-11-06, 12:22:01
Aber dennoch so fordernd, dass die 780er schon im ersten Loop mehr als 10% runtertaktet und durch den gesamten Test nicht mehr auf volle Taktfrequenz kommt. Haben die in einem passiven Gehäuse getestet?

Greetz
U.S.

Schon, weil hier ein powertarget überschritten wird. Die Karte bleibt trotzdem über dem offiziellem Boost von 900MHz. Alles was über 900MHz geht errechnet sich über freie Ressourcen der GPU, diese werden von NV aber nicht explizit angegeben.

Botcruscher
2013-11-06, 12:24:30
Solche Aufrufe funktionieren ja immer bestens...

HT4U und andere machen doch schon Boostbetrachtungen. Da greift man eben zum besten Design. Oder man ist ein Mann und nutzt WaKü.

(del676)
2013-11-06, 14:04:30
Boost geht mir aufn Senkel. Egal ob bei Ati/Nv oder Intel/Amd.
Nur weil sie mit allen Mitteln tricksen muessen, um noch Performancespruenge bieten zu koennen.
Was nuetzt mit 25% mehr Geschwindigkeit, wenn die genau dann wegfallen, wenn die GPU unter starker Last ist?

Ich persoenlich habe Boost ueberall deaktiviert. Der 3570K laeuft mit allen Kernen immer auf 4,8GHz, und die 7950s immer auf 1100MHz.

Botcruscher
2013-11-06, 14:37:57
Das killt aber meist auch gleich alle Stromsparmechanismen.

Eggcake
2013-11-06, 14:48:03
Also bei Grafikkarten weiss ich's nicht (obwohl das ja eigentlich das Thema ist), aber zumindest beim Haswell kann man alle Cores auf einen Takt + Spannung fixieren (unter Last) und trotzdem noch alle Stromsparfeatures aktivieren (EIST, C-States). Der taktet im idle dann brav auf seine 800MHz runter, inkl. Spannungsabsenkung.

(del676)
2013-11-06, 14:59:05
Also ich hab keine Probleme mit Stromsparmechanismen. Beide Karten takten sauber runter, und auch die Voltage ist gesenkt. Die CPU geht im idle auch auf 1600MHz.

Armaq
2013-11-06, 15:03:45
Ja, mein i5 läuft auch auf den üblichen 3800 oder 4200 Mhz mit allem aktiv. Da ist Intel wirklich gut aufgestellt. Die 7970 geht auch immer auf 1050 Mhz ohne Murren und taktet auch wieder runter. Ist ja nur eine Frage des Wollens.

boxleitnerb
2013-11-06, 15:08:01
Ich finde den Boost insofern gut, als dass es für fast jeden Taktschritt eine entsprechende Spannung gibt, es also viele Arbeitspunkte zwischen Maximaltakt und den bisher üblichen P-States gibt. Das spart Energie. Es ist natürlich nur logisch, dass der Boost nur dann funktionieren kann, wenn er Spielraum hat, insofern geht es gar nicht, dass in den forderndsten Situationen überhaupt (viel) geboostet wird, falls die Grenzen recht eng gesetzt sind (Temperatur und Leistungsaufnahme).

Was ich sinnvoller fände, und das habe ich glaube ich schonmal angesprochen:

Ein Boost innerhalb der GPU. In einer GPU limitiert ja immer irgendeine Einheit(engruppe), völlig ausbalanciert ist die Last wohl selten bis nie. Man könnte bei hoher Shaderlast die SMX/CUs höher takten lassen auf Kosten der restlichen Einheitenblöcke. Das könnte gar so weit gehen, dass einzelne SMX/CUs, die gerade besonders zeitkritische Arbeiten ausführen, vor ihren "Kollegen" bevorzugt werden. Dasselbe mit ROPs, TMUs usw.
Das wäre analog zu den CPUs, wo man auch unterschiedliche Lastszenarien hat (Singlethreaded, Multithreaded) und wo diese dann auch richtig profitieren, eben wenn ein Kern um z.B. 20% übertaktet wird, der Rest aber nicht oder gar runtertakten darf.

Der Boost hat in seiner aktuellen Form ist nicht ganz so flexibel bzw. granular, wie ich ihn mir wünschen würde. Es sollte darum gehen, das TDP-Budget dort zur Verfügung zu stellen, wo es innerhalb der GPU gerade gebraucht wird, statt einfach das ganze Ding hochzutakten.

Blediator16
2013-11-06, 15:25:36
Nachdem nvidia mit diesen benchmark cheats angefangen hat musste amd wohl oder übel nachziehen. ich sehe in den temp. abhändigen boost nichts gutes für benchmarks und reviews denn um diesen mist streiten sich immer alle.

Armaq
2013-11-06, 15:27:45
Dynamische Last/Taktverteilung auf einzelne Units ist ein anderes Thema.

Es ist wesentlich interessanter, aber auch hier gilt, woher wissen, welche Units ausgelastet werden, ohne die Berechnung durchzuführen? Das Pferd per Erfahrungswert aufzäumen?

Es müsste ja mindestens eine großer Zettel in der Box liegen - unter nicht optimalen Verhältnissen erreicht diese Karte nur 50% ihrer Optimalperformance.

boxleitnerb
2013-11-06, 15:34:54
Bei den bisherigen Boost-Geschichten fließt doch auch die Auslastung mit ein, zumindest teilweise. Die Auslastung wird sich ja wohl kaum alle 2 Takte verändern, von daher könnte man z.B. beobachten, ob die TMUs xyz gerade nicht viel zu tun hatten und sie für die nächsten paar Mikro- oder Millisekunden runtertakten, bis wieder mehr Arbeit anliegt.

Die Auslastung der ganzen GPU kann doch schon seit Jahren gemessen werden, Programme wie GPU-Z oder EVGA Precision können diese anzeigen. Bei CPUs geht es doch auch. Es ist halt die Frage, ob man diese Messung zeitlich deutlich besser auflösen und auf einzelne Einheiten(blöcke) übertragen kann.

StefanV
2013-11-06, 15:39:48
Ich finde den Boost insofern gut
...weil nVidia damit angefangen hat?!

Anyway: Ich find diese Boost Geschichte auch nicht besonders toll. Hat eigentlich NUR NAchteile...

Das Argument mit der 'nicht ausgenutzten TDP/Leistung' lasse ich nicht gelten, da das 1. nicht soo viel bringt und 2. man mit der nicht ausgenutzten Leistung mehr Luft für eine Optimierung der Lüfterkurve hätte. Sprich: eine leisere Karte.

So bringt dieser ganze Boost Mist dem Endkunden einfach mal rein gar nix, insbesondere bei Grafikkarten, die in einem Spiel eigentlich immer recht konstant ausgelastet sind.

Insbesondere nVs Benchmark Cheat ist da verdammt übel, da diese Karte relativ schnell vom max. Boost runter geht und irgendwo Richtung Base Takt tendiert...

AMDs Implementierung dieses Käses ist da doch 'nen ganzes Stück besser, da hier erst einmal versucht wird den Boost zu halten. Dennoch wäre es auch hier wohl besser, wenn man nicht so hoch boosten würde bzw wenn man das ganze auch deaktivieren könnte.

boxleitnerb
2013-11-06, 15:48:20
...weil nVidia damit angefangen hat?!

Anyway: Ich find diese Boost Geschichte auch nicht besonders toll. Hat eigentlich NUR NAchteile...

Das Argument mit der 'nicht ausgenutzten TDP/Leistung' lasse ich nicht gelten, da das 1. nicht soo viel bringt und 2. man mit der nicht ausgenutzten Leistung mehr Luft für eine Optimierung der Lüfterkurve hätte. Sprich: eine leisere Karte.

So bringt dieser ganze Boost Mist dem Endkunden einfach mal rein gar nix, insbesondere bei Grafikkarten, die in einem Spiel eigentlich immer recht konstant ausgelastet sind.

Insbesondere nVs Benchmark Cheat ist da verdammt übel, da diese Karte relativ schnell vom max. Boost runter geht und irgendwo Richtung Base Takt tendiert...

AMDs Implementierung dieses Käses ist da doch 'nen ganzes Stück besser, da hier erst einmal versucht wird den Boost zu halten. Dennoch wäre es auch hier wohl besser, wenn man nicht so hoch boosten würde bzw wenn man das ganze auch deaktivieren könnte.

Und wieder trollst du nur. Wird ja fast zur Gewohnheit bei dir. Ich habe begründet, warum, du musst nur lesen!

Und nein, Nvidias Lösung ist nicht schlechter wie AMDs Lösung. Bei längerer Last verlieren beide massiv Takt und Performance - so im Bereich um die 10% wie Computerbase und HT4U über viele viele Benchmarks hinweg ermittelt haben. Was du da also behauptest, stimmt so nicht.

Wer die TDP nicht ausnutzen will, kann sie ja zurückfahren. Das ist ja das Gute - man kann sich die Karten so einstellen, wie man will.

Iruwen
2013-11-06, 15:49:19
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9990213#post9990213
Ich frag mich auch wann ihm das zu langweilig wird. Vor allem wo er selbst so sehr unter selektiver Wahrnehmung (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9990786#post9990786) leidet.

Loeschzwerg
2013-11-06, 16:52:42
Insbesondere nVs Benchmark Cheat ist da verdammt übel, da diese Karte relativ schnell vom max. Boost runter geht und irgendwo Richtung Base Takt tendiert...

AMDs Implementierung dieses Käses ist da doch 'nen ganzes Stück besser, da hier erst einmal versucht wird den Boost zu halten. Dennoch wäre es auch hier wohl besser, wenn man nicht so hoch boosten würde bzw wenn man das ganze auch deaktivieren könnte.

Wir reden hier doch von ganz anderen Welten!

Titan von 837MHz auf 876MHz; GTX 780 von 863MHz auf 902MHz

R9 290 von 662MHz (inoffiziell) bis zu 947MHz; R9 290X von 727MHz (inoffiziell) bis zu 1000MHz

Bei NV kann ich mit einer Leistung in einem recht eng gesteckten Rahmen rechnen, dagegen sind die möglichen Leistungseinbußen einer 290/290X wesentlich höher.
Freies PT/TT münzt NV in mehr Takt um, sehe ich wie du als Cheat an. In den Tests wird aber darauf geachtet und wie schon geschrieben kann man dann immer mit der Leistung der offiziellen Angaben rechnen.

Bei R9 heißt es dagegen nur "bis zu". Mit was kann ich als Kunde nun im Endeffekt rechnen? Je nach System und Umgebung kann sich die Leistung beim Kunden deutlich von den Testwerten unterscheiden.

Was gefällt dir nun besser? Kurzfristig geschenkte Mehrleistung die NV offiziell nicht angibt oder ein theoretisches AMD Limit mit ständiger Gefahr auf Leistungsverlust?

Schnitzl
2013-11-06, 17:31:02
Ja, ... NV hat mit "Scheisse" (Boost) angefangen, AMD mit "Gülle" (Boost) nachgezogen
Nur jetzt hat AMD nachgelegt auf "Drecks-Gülle" (kein offizieller Base-Takt)

tut mir leid für die harten Worte aber ich finds in letzter Zeit einfach zum Kotzen, ständig werden Dinge eingeführt die dem Kunden nix bringen und dann noch diese Hochpreispolitik sowie langweiliges Portfolio :mad:

Man sollte denen mal sagen dass sie sich ihre "bis zu" Angaben sonstwo hinschieben können

TobiWahnKenobi
2013-11-06, 17:38:34
ja, aber wenn die jungs bei AMD jetzt 666MHz garantieren würden, wäre das die hausnummer von der jeder ausgeht - und AFAIR kann man dann auch gleich bei der 7970 bleiben.

mehr zu bekommen als erwartet ist immer besser als eine enttäuschte erwartungshaltung, wenn das gegenteil der fall ist.



(..)

mfg
tobi

StefanV
2013-11-06, 19:51:10
Wir reden hier doch von ganz anderen Welten!
Ach, tun wir das wirklich?!


Titan von 837MHz auf 876MHz; GTX 780 von 863MHz auf 902MHz
Wenn das wirklich so wenig ist, wie du sagst, warum hat man dann überhaupt den Boost eingeführt?! Für mich schauen die paar MHz, die man hier raus holt, wenig sinnvoll aus.



R9 290 von 662MHz (inoffiziell) bis zu 947MHz; R9 290X von 727MHz (inoffiziell) bis zu 1000MHz
Und woher weißt du, dass es 662MHz bzw 727MHz sind?!
Ist es nicht eher so, dass 1000MHz der Basistakt bei AMD ist?! Und man nicht boostet sondern throttelt?! Ich glaub, das hat auch Peter G. so beschrieben...

So gesehen ist es doch was ganz anderes. Bisserl besser als das, was nV verbrochen hat, abre nicht viel. Und den Stein geschmissen hat ja wohl eindeutig nVidia...


Bei NV kann ich mit einer Leistung in einem recht eng gesteckten Rahmen rechnen, dagegen sind die möglichen Leistungseinbußen einer 290/290X wesentlich höher.
Ahjo und was hält denn die AMD Karte davon ab?! Oh wait: Das ist einzig und allein, ausschließlich die Temperatur der GPU...
Also entweder Silent Mode (der durchaus 'nen bisserl dämlicz implementiert ist) oder halt den 'Performance Mode'...
Wobei letzteres der Standard sein sollte und im 'Silent Mode' mit anderen Werten gearbeitet werden sollte...

Doch letztendlich limitiert bei AMD nur der Kühler. Und der wird in den nächsten Wochen komplett entsorgt werden, in 3-6 Monaten wirst du diesen Kühler neu nicht mehr bekommen können!
Wie auch bei der 7970. Also zeig mal bitte 'ne 7970, die man noch mit Referenzkühler kaufen kann...
Maximal eine wirst finden...


Bei R9 heißt es dagegen nur "bis zu". Mit was kann ich als Kunde nun im Endeffekt rechnen? Je nach System und Umgebung kann sich die Leistung beim Kunden deutlich von den Testwerten unterscheiden.
Tjo, ist auch nicht (soo viel) anders als bei 'ner modernen CPU mit einem grotten schlechten Kühler bzw völlig verdrecktem Kühler. Da wird dann so lange runter getaktet, bis die Temperatur gehalten werden kann - genau das macht AMD mit der 290X auch. Nichts anderes tut man...

Daher kann man wohl auch keinen 'mindesttakt' garantieren, da es den einfach nicht gibt....
Sprich wenn die Karte völlig zu ist, wird so lange runter getaktet, bis die Temperatur gehalten werden kann. PCGH hat das ja auch recht kurz geschrieben.
An dieser Stelle erlaube ich mir, den entsprechenden Text zu borgen:


Radeon R9 290 im Test: Benchmark-Boost

Mit Hawaii, also der R9 290 und R9 290X, haben die Radeon-Schöpfer den automatischen Boost renoviert. Offiziell ist AMDs Radeon R9 290X die erste "taktlose" Grafikkarte der Firma, die R9 290 tut es ihr gleich. Es gibt keine offiziell kommunizierten Basistaktraten für die GPU, nur eine Maximaltaktung von 1.000 (R9 290X) respektive 947 MHz (R9 290) und den Speichertakt von 2.500 MHz. Solange Temperatur, Leistungsaufnahme und Lüfterdrehzahl mitspielen, kann Hawaii seinen Maximaltakt erreichen. Es gibt allerdings Einschränkungen. Kurz zusammengefasst haben wir AMDs Hawaii-Powertune-Parameter wie folgt charakterisiert::

1. Versorge die GPU maximal mit 208 Watt (inklusive Wandlerverlusten, Speicher und Platine läuft das auf 300 Watt Gesamtverbrauch hinaus).
2. Versuche, 1.000 (R9 290X) bzw. 947 MHz (R9 290) GPU-Takt zu erreichen
3. Erlaube nicht mehr als 95 °C Chiptemperatur
4. Halte die PWM-Impulsstärke von 40/55 (290X) bzw. 47 % (290) ein
5. Sind diese Temperatur- und Lüfterdrehzahl-Limits ausgereizt, senke die Taktrate auf minimal 727 bzw. 662 MHz
6. Wenn das nichts bringt, also die Temperatur immer noch am Limit ist, ignoriere die PWM-Grenze.
7. Wenn die Temperatur immer noch nicht sinkt, reduziere Takt/Spannung bis hinab auf 300 MHz
8. Wenn alles versagt, schalte nach mehr als einer Sekunde bei 100 Grad Celsius ab. (http://www.pcgameshardware.de/Geforce-GTX-780-Grafikkarte-257241/Tests/Radeon-R9-290-im-Test-1095627/)

Was gefällt dir nun besser? Kurzfristig geschenkte Mehrleistung die NV offiziell nicht angibt oder ein theoretisches AMD Limit mit ständiger Gefahr auf Leistungsverlust?
Pest und Cholera, irgendwie. Wobei das ganze bei AMD nachvollziehbarer ist und auch besser funktioniert.

Dort ist hauptsächlich die Temperatur das, was das boosten verhindert. Und das wird sich in ein paar Tagen, wenn die Custom Karten mit (hoffentlich) gescheitem Kühler kommen, zeigen...

Schau dir auch mal die ganzen Tests mit dem Accelero Xtreme III an...

samm
2013-11-06, 20:38:27
Boost ist eine absolute Seuche.

Objektiv gesehen macht es das Verhalten der Hardware unberechenbar - will man eine gewisse Konstanz und/oder Nachvollziehbarkeit in der Performance erreichen, muss man die ganzen Einflussfaktoren günstig dafür auslegen (Powertune/Powertarget, Kühlung). Wenigstens in diesem Punkt war PT1 noch i.O., da jede Karte mit gleichem Chip bei gleichem PT-Regler in der gleichen Einheitenauslastung die gleiche Performance zeigte.

Subjektiv gesehen fördert es die nervenden Auseinandersetzungen zwischen Fans der einen oder andern Marke nun um so mehr, wo Performance mehr und mehr eine schwammige "Gefühlssache" wird.


Das einzig Positive am Boost ist das Skalieren nach unten: Will ich die Performance (speziell auf nVidia-Karten) oder die Abwärme (speziell auf AMD-Karten mit dem neuen Powertune) meiner Karte auf einen bestimmten Wert beschränken, sorgen die Lösung von nVidia und die neue von AMD dafür, dass das bei Einhaltung der minimal möglichen Energieeinsatzes geschieht.

Loeschzwerg
2013-11-06, 20:45:18
Ach, tun wir das wirklich?!

Im Hinblick auf was der Kunde erwarten kann ja :tongue:


Wenn das wirklich so wenig ist, wie du sagst, warum hat man dann überhaupt den Boost eingeführt?! Für mich schauen die paar MHz, die man hier raus holt, wenig sinnvoll aus.

Marketing...


Und woher weißt du, dass es 662MHz bzw 727MHz sind?!
Ist es nicht eher so, dass 1000MHz der Basistakt bei AMD ist?! Und man nicht boostet sondern throttelt?! Ich glaub, das hat auch Peter G. so beschrieben...


Die min Takte ergeben sich aus den PT2.0 Status, siehe hierzu auch PCGH.
Den höchsten Power State kannst du nennen wie du willst, spielt letzendlich keine Rolle. Und ja, AMD throttelt, aber eben beim Ref Kühler sehr extrem je nach Umgebung. Da muss ich im schlimmsten Fall mit einer total miesen Performance rechnen. Kann dir bei NV nicht so extrem passieren, die boostet halt nicht mehr.


So gesehen ist es doch was ganz anderes. Bisserl besser als das, was nV verbrochen hat, abre nicht viel. Und den Stein geschmissen hat ja wohl eindeutig nVidia...

Das bissl besser konntest du immer noch nicht erklären.


Ahjo und was hält denn die AMD Karte davon ab?! Oh wait: Das ist einzig und allein, ausschließlich die Temperatur der GPU...
Also entweder Silent Mode (der durchaus 'nen bisserl dämlicz implementiert ist) oder halt den 'Performance Mode'...
Wobei letzteres der Standard sein sollte und im 'Silent Mode' mit anderen Werten gearbeitet werden sollte...

Doch letztendlich limitiert bei AMD nur der Kühler. Und der wird in den nächsten Wochen komplett entsorgt werden, in 3-6 Monaten wirst du diesen Kühler neu nicht mehr bekommen können!
Wie auch bei der 7970. Also zeig mal bitte 'ne 7970, die man noch mit Referenzkühler kaufen kann...
Maximal eine wirst finden...

Stimme ich dir absolut zu, die Temp limitiert beim Ref Design und damit hat der Launch, genauso wie bei der HD7970, einen sehr sehr negativen PR Effekt, dem schlechten Kühler geschuldet. Dieser Schaden wirkt sich auch auf die nachkommenden Custom Karten aus.


Tjo, ist auch nicht (soo viel) anders als bei 'ner modernen CPU mit einem grotten schlechten Kühler bzw völlig verdrecktem Kühler. Da wird dann so lange runter getaktet, bis die Temperatur gehalten werden kann - genau das macht AMD mit der 290X auch. Nichts anderes tut man...

Daher kann man wohl auch keinen 'mindesttakt' garantieren, da es den einfach nicht gibt....
Sprich wenn die Karte völlig zu ist, wird so lange runter getaktet, bis die Temperatur gehalten werden kann. PCGH hat das ja auch recht kurz geschrieben.


Im Grunde ist es so, ja. Ändert aber nix daran dass es NV besser gelöst hat weil man eben einen passablen min Takt liefert. Absoluter Worst Case (40°C im Sommer und das System total verstaubt) kann immer eintreten und dafür sollte die "Throttelung" eigentlich da sein.
Warum wird der - nach deinen Worten - Basistakt nicht geringer gesetzt wenn dieser eh nicht gehalten werden kann im Ref Design? Die Boardpartner können immer noch OC Lösungen bringen


Pest und Cholera, irgendwie. Wobei das ganze bei AMD nachvollziehbarer ist und auch besser funktioniert.

Dort ist hauptsächlich die Temperatur das, was das boosten verhindert. Und das wird sich in ein paar Tagen, wenn die Custom Karten mit (hoffentlich) gescheitem Kühler kommen, zeigen...

Schau dir auch mal die ganzen Tests mit dem Accelero Xtreme III an...

Will ich dir auch nicht unbedingt widersprechen, aber es gibt momentan einfach nur das Ref Design und nach diesem wird gemessen. Das PT2.0 Konzept geht da leider nicht gut auf.

Badner1972
2013-11-06, 21:17:15
Ach was würden wir nur tun,wenn es AMD schaffen würde,einen guten Kühler zu verbauen...
dann wäre hier nix los!
Bei aller Kritik,eines ist absolut positiv,seit dem Erscheinen der 290(X) fallen die Preise!
Und das sollte für alle positv sein,egal ob nun rote oder grüne "Brille

TheCounter
2013-11-06, 21:36:40
Alles was über 900MHz geht errechnet sich über freie Ressourcen der GPU, diese werden von NV aber nicht explizit angegeben.

Die Boost Angaben bei NVIDIA sind ja gemittelt, es wird kein maximaler Boost angegeben. Dieser ist von der Kühlung etc. abhängig.

Meine GTX 780 hat mit Stock-Bios auf knapp 1000MHz getaktet und diesen Wert auch gehalten, allerdings hab ich auch ne WaKü ;)

Selbst mit dem Bios der FTW (1162MHz) komm ich beim Power-Target gerade mal auf 85% (bzw. 46°C), das maximale ist aber 106%.

Das wichtigste bei solchen GPUs mit Boost ist also ein guter Kühler ;)

Loeschzwerg
2013-11-06, 21:44:00
Ah ok, thx für die Erläuterung. Also Lotterie mit Mindestleistung :smile:

Diese Takterei ist einfach für'n Arsch und mir tut der normale Kunde nur noch leid :freak:

Edit: Meine GTX 670 läuft mit fest eingestellten 1097MHz, PT/TT ebenfalls im Bios auf Max. Jetzt kommt es, Referenz Kühler :D Bleibt aber angenehm leise, dank PC-Q08 mit ordentlichem Frontlüfter/Durchzug.

TheCounter
2013-11-06, 21:48:52
Diese Takterei ist einfach für'n Arsch und mir tut der normale Kunde nur noch leid :freak:

IMO sollte man es wenn dann wie NVIDIA machen, die geben zumindest den garantierten* Basistakt an.

Bei den AMD Karten ließt man nur z. B. "bis 1000MHz", vom Basistakt (662MHz) steht nirgends was.

Der Basistakt sollte schon eine Pflichtangabe sein.

* außer bei >105°C/Fehlfunktionen

Gipsel
2013-11-06, 22:01:16
Bei den AMD Karten ließt man nur z. B. "bis 1000MHz", vom Basistakt (662MHz) steht nirgends was.Kleine Korrektur:
Zu den 1000MHz maximal passen 727MHz Basistakt bei der 290X, die 662MHz Basistakt gehören zur 290 mit maximal 947MHz.

captain_drink
2013-11-06, 22:17:34
Und woher weißt du, dass es 662MHz bzw 727MHz sind?!
Ist es nicht eher so, dass 1000MHz der Basistakt bei AMD ist?! Und man nicht boostet sondern throttelt?! Ich glaub, das hat auch Peter G. so beschrieben...

Ob eine Karte mit einem gewissen Takt beginnt und diesen dann reduziert, oder mit einem gewissen Takt beginnt und diesen dann erhöht, ist in der Sache völlig unerheblich, da nur die Richtung, nicht aber die Funktionsweise der Taktanpassung verschieden ist. Entscheidend ist das Delta zwischen dem maximal und dem minimal möglichen Takt, welches bei PT 2.0 höher ist als bei jedem Boost von Nvidia. Je größer der Abstand zwischen beiden Werten, desto höher sind die Leistungsschwankungen. Diese Varianz hat man bei Nvidia nicht, was eine Einschätzung der Realleistung dort erheblich erleichtert.

gnahr
2013-11-06, 22:29:34
Ist es nicht eher so, dass 1000MHz der Basistakt bei AMD ist?! Und man nicht boostet sondern throttelt?!
soso, die radeons throtteln also ab werk um 33%. DAS nenn ich mal "unfixable broken".
diese kreative auslegung des beworbenen oberen ende des möglichen hat in der realität eigentlich nix zu suchen. wär ja so als würden die kfz-hersteller maximal-geschwindigkeit-1 beim standverbrauch bewerben mit der begründung "so schnell kann man sich ja rollen lassen!"

TheCounter
2013-11-06, 22:54:17
Kleine Korrektur:
Zu den 1000MHz maximal passen 727MHz Basistakt bei der 290X, die 662MHz Basistakt gehören zur 290 mit maximal 947MHz.

Dank dir für die Korrektur :)

Hab gedacht die haben beide den selben Basistakt. Sowas kommt dabei raus, AMD :freak:

V2.0
2013-11-07, 07:06:17
Was ist daran falsch? Mit einem guten Kühler halten beide Karten locker ihren Boost. Ihr diskutiert den Kühler nicht den Chip. AMD hat das System imho vorbildlich integriert.

TheCounter
2013-11-07, 07:40:24
Wäre der Basistakt um ca 200MHz höher, könnte man das so sagen. Aber der Kühler von AMD zeugt schon irgendwie von Unfähigkeit.

StefanV
2013-11-07, 08:23:57
Aber der Kühler von AMD zeugt schon irgendwie von Unfähigkeit.
Blabla.
Entwickel doch mal 'nen Kühler, der besser ist als das, was AMD gerad verbaut, wenn die Vorgabe DHE ist.

Im THG Frage-Antwort Spiel hat doch einer der AMD Leute zugegeben, dass DHE eine Bedingung für OEMs/Systemintegratoren ist...

Wenn du drüber nachdenkst, dann machts auch Sinn. So sparen sich die Pfeifen 'nen Lüfter...

Loeschzwerg
2013-11-07, 08:36:11
Im THG Frage-Antwort Spiel hat doch einer der AMD Leute zugegeben, dass DHE eine Bedingung für OEMs/Systemintegratoren ist...

Billige Ausrede und Marketing Gesabbere! ;)

Von der HD2900XT gab es eine OEM Fassung mit anderem Kühler/Lüfter als Retail, nur so als Beispiel.

Man kann hier durchaus trennen, wenn man nur will.

gnahr
2013-11-07, 08:58:55
erst war der kühler um die aibs nicht zu überfordern,
jetzt ist es für oem (was die sperre an anderen designs nicht erklärt),
mal sehen was als nächstes kommt.
dass sie das ding sehenden auges (fan-update in letzter minute...) gegen die wand gefahren haben wird einfach bestritten und auf zwänge verwiesen, denen auch alle anderen unterliegen. seltsamer weise hört man wenig beschwerden der partner über nvidias ref-design obwohl hier die lautstärke ja angeblich nur mit dem minimal größeren chip und damit temp-target errungen wurde, also wenig platz für modifikation bietet.

Sven77
2013-11-07, 09:15:39
Man kann bestimmt auch einen anständigen DHE-Kühler verbauen... aber daran hatte ATI/AMD noch nie Interesse, ich denke da an meine X850XT im Referenzdesign *grusel*.. so ist das halt wenn man nur über Preis konkurrieren kann

Rancor
2013-11-07, 09:22:25
Also über die Leistung der Karten müssen wir doch nicht diskutieren.

Der Kühler ist einfach schrott, sobald Custom Karten verfügbar sind wird da kein Hahn mehr nach krähen.

uweskw
2013-11-07, 09:25:33
.....

Im THG Frage-Antwort Spiel hat doch einer der AMD Leute zugegeben, dass DHE eine Bedingung für OEMs/Systemintegratoren ist...
...

Wieviele OEM-PCs mit 290/290x werden denn verkauft? Die haben fast immer die kleineren Karten an Bord. Oder läuft sowas wie die PCGH-Ultimate-PC GTX780-Edition als OEM-PC?
Nein, die Entscheider bei AMD haben es mal wieder richtig versiebt. Mit toller Hardware mal wieder den schlechtmöglichsten Launch hingelegt. Da steckt doch schon System dahinter.

Greetz
U.S.

Pirx
2013-11-07, 09:35:03
Man kann bestimmt auch einen anständigen DHE-Kühler verbauen... aber daran hatte ATI/AMD noch nie Interesse, ich denke da an meine X850XT im Referenzdesign *grusel*.. so ist das halt wenn man nur über Preis konkurrieren kann
So ein Blödsinn, danach kam z.B. die X1950XTX mit einem wesentlich besseren Kühler.

Sven77
2013-11-07, 09:47:03
So ein Blödsinn, danach kam z.B. die X1950XTX mit einem wesentlich besseren Kühler.

Die mit der 7900GTX konkurrierte, die praktisch unhörbar war ;)

Pirx
2013-11-07, 09:56:19
Die mit der 7900GTX konkurrierte, die praktisch unhörbar war ;)
kA, unhörbar wohl kaum:rolleyes:, jedenfalls ist deine Aussage widerlegt, daß "Man kann bestimmt auch einen anständigen DHE-Kühler verbauen... aber daran hatte ATI/AMD noch nie Interesse":rolleyes:

V2.0
2013-11-07, 10:14:13
Der Kühler ist eigentlich ziemlich gut. Steckt mal ne Titan in ein Gehäuse ohne Belüftung und mit nur einer Ansaugöffnung für den Radiallüfter. Die schaltet ab. Eine 290X drosselt zwar aber läuft.

Loeschzwerg
2013-11-07, 10:24:27
Der Kühler ist eigentlich ziemlich gut. Steckt mal ne Titan in ein Gehäuse ohne Belüftung und mit nur einer Ansaugöffnung für den Radiallüfter. Die schaltet ab. Eine 290X drosselt zwar aber läuft.

Quelle? Die Titan throttelt nämlich auch wenn Schwellwerte überschritten werden.

Eggcake
2013-11-07, 10:37:20
Der Kühler ist eigentlich ziemlich gut. Steckt mal ne Titan in ein Gehäuse ohne Belüftung und mit nur einer Ansaugöffnung für den Radiallüfter. Die schaltet ab. Eine 290X drosselt zwar aber läuft.
Genau - deshalb steckt eine Titan auch in der vorgestellten Steambox ;D

phoenix887
2013-11-07, 11:49:44
Habe auch ne GTX Titan. Vorne wird Luft angesaugt und hinten geht sie wieder raus auf der Rückseite.

Bei mir hat sie sich noch nie abgeschaltet. Weder mit Nvidia Kühler noch mit dem Arctic Accerleo Extreme III den ich mir drauf gebastelt habe.

Selbst mit Modbios 1110/3500mhz bin ich so im 70er Bereich was die Temperaturen betrifft. Mit dem Standard-Kühler war ich dann immer im 80er Bereich.
Warum sollte sich da eine Karte auschalten?

Also ohne Quelle halte ich das für ein Gerücht.

Eggcake
2013-11-07, 11:54:16
Wieso sollte die Titan auch abschalten, wenn sie deutlich kühler bleibt mit Stockkühler als die 290X?! kA warum man so etwas annehmen sollte...

Und wie gesagt: sie wird in einer Steam Box (http://www.computerbase.de/news/2013-11/valve-zeigt-erste-prototypen-der-steam-box/) verwendet.

phoenix887
2013-11-07, 12:04:08
Ich auch nicht, wollte es einfach auch sagen, wie es bei mir ist unter normalen Bedienungen.

Iruwen
2013-11-07, 12:39:00
V2 trollt nur :wink:

Knuddelbearli
2014-10-13, 21:30:00
Frage:
habe ein spiel wo ich im großen und ganzen 40 min fps habe und 50 max fps wenn ich jetzt den fps limiter auf 45 setze müsste ich doch mehr fps ( Schwung holen ), besseres Spielgefühl ( geringere schwankungen ) und weniger verbrauch haben oder?

Knuddelbearli
2014-10-15, 20:03:24
Na dann mal was anderes

Ist diese Feststellung richtig oder?

wenn man die Frequenz erhöht greift die neue Frequenz bei der Spannung der alten zB zuerst 1,2GHz bei 1,1V sind es bei +200 Offset 1,4GHz bei 1,1V, Leistungsaufnahme steigt weniger als Linear da die GPU nicht der einzige Vebrraucher ist = das erste mal ein wenig Leistung gewonnen
jetzt greift aber das PT ein und du wirst auf 1,3GHz gesenkt, das bedeutet aber auch das die Spannung sinkt und zwar auf den Wert der für 1,1GHz vorgesehen wäre was zB 1,05V wäre. Da Spannung exponentiell eingeht Frequenz aber nur linear verbraucht sie so mit 1,3GHZ weniger als vorher mit 1,2GHz und man hat auch wenn Powerlimit knallhart limitiert am ende mehr Leistung
Hoffe ist verständlich geschrieben ^^