PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: nVidias GPU Boost auf der GeForce GTX Titan: Gut für Benchmarks ...


Leonidas
2013-05-13, 15:54:47
Link zum Artikel:
http://www.3dcenter.org/artikel/nvidias-gpu-boost-auf-der-geforce-gtx-titan-gut-fuer-benchmarks-aber-ohne-bedeutung-fuer-die

MadManniMan
2013-05-13, 16:37:26
Schöne Zusammenfassung!

Da capo, HT4U!

BlacKi
2013-05-13, 16:42:49
warum wird die titan nicht unter wasserkühlungsbedingungen getestet?

ich meine wir sind hier highend bereich, und nirgends wird die titan wassergekühlt.

dank boost 2.0 können hier wassergekühlte lösungen endlich richtig heftige performance sprünge machen, ohne die grafikkarte überhaupt zu übertakten.

meine wassergekühlte gtx670 wurde um satte 30 grad kühler durch wasserkühlung...

foenfrisur
2013-05-13, 17:13:04
am ende ist "GPU-Boost" eher "E-Save" ;)

also zum energie sparen.
verkauft wird es als "boost" bei der performance. lol

mfg

Knuddelbearli
2013-05-13, 17:14:49
weill WAKÜ außerhalb solcher NERD Foren ein extremes Schattendasein frist. Außerdem gibt es nur eine einzige Wasser gekühlte Titan zu kaufen, und der großteil der AIBs verbietet Kühlertausch.

EVGA erlaubt es offiziell bei Palit und Asus ist es eine stillschweigende Übereinkunft.

Und der Test beweisst nun endlich genau das was ich von Anfang an vermutet / behauptet habe.
GPU Boost bringt im echten leben sogut wie nichts und wenn dann nur in Situationen wo man eh schon genug FPS hat.
Da könnte NV statt dem Boost ebenso einen Button einführen der bei Erhalt der Garantie die Grafikkarte um 150Mhz übertaktet. ( gabs sowas nicht schonmal? )

Thunder99
2013-05-13, 17:16:14
Es würde schon langen wenn es keine Limitierung der Temperatur geben würde.

Der Artikel + die Zusammenfassung hier zeigen schön das beim Boost 1.0 dieser nützlich sein kann und bei boost 2.0 es total sinnlos ist.

Super gemacht :up:

Knuddelbearli
2013-05-13, 17:17:30
am ende ist "GPU-Boost" eher "E-Save" ;)

also zum energie sparen.
verkauft wird es als "boost" bei der performance. lol

mfg

Wo spart man Strom? es hängt ja immer am temperaturlimit nicht am Leistungsaufnahmelimit

Rente
2013-05-13, 17:20:12
Die Karte kostet 900 Euro und mehr, da ist Wakü sicherlich keine so große Nische mehr.
Mir geht der Beitrag ehrlich gesagt zu sehr gegen nV, der Boost (und damit auch PT und TT) hat unter optimalen Voraussetzungen mehr Vor- als Nachteile.

Knuddelbearli
2013-05-13, 17:25:02
optimale Voraussetzungen kommen wie oft vor? und wie oft der ganze Rest? ;-)
Und bei 900+ €uro auf die Garantie verzichten?

Edit gerade nachgeguckt. Die EVGA Wakü Titan ist nirgendwo verfügbar

LSSJBroly
2013-05-13, 17:55:08
Quinzessens aus dem Artikel: Man stellt das Temp-Target auf 90°C und erfreut sich über sogut wie immer voll anliegendem GPU-Takt.

Ich verstehe nicht, wieso das so negativ angesehen wird. Gut, Nvidia drosselt hat die Titan stock, aber jeder hat die möglichkeiten innerhalb der vorgegebenen Spezifikationen ohne Garantieverlust die Karte so zu optimeiren wie man es will. Schlimmer wäre es, wenn man das Temp-Target überhaupt nicht verstellen könnte.

der Boost (und damit auch PT und TT) hat unter optimalen Voraussetzungen mehr Vor- als Nachteile.
Sehe ich genauso. Optimieren war noch nie so einfach.

Knuddelbearli
2013-05-13, 17:59:50
wie gesagt dazu brauche ich aber dann keinen Boost. da kann Nv ebenso gut einen Button integrieren die den Takt automatisch um 150Mhz anhebt

foenfrisur
2013-05-13, 18:14:09
so siehts aus, dann aber auch mehr verbrauch und heißere karte in kauf nehmen ;)
und vom stock-treiber her kann schonmal gar nichts einstellen.
über dritt-tools geht immer vieles.

und natürlich spart man energie, wenn die graka kühler ist ;)

mfg

boxleitnerb
2013-05-13, 18:16:35
Wo spart man Strom? es hängt ja immer am temperaturlimit nicht am Leistungsaufnahmelimit

Falsch. Weil die Karte durch das Temperaturlimit am Hochtakten gehindert wird, gibt es niedrigere Taktraten und Spannungen -> weniger Stromverbrauch.

MadManniMan
2013-05-13, 18:35:14
Mir geht der Beitrag ehrlich gesagt zu sehr gegen nV (...)

Warum? Es ist der erste solche Test. Wen es dabei erwischt ist völlig einerlei.

Lowkey
2013-05-13, 18:35:17
Ist die Titan ein Luxusprodukt (Einbauen und freuen) oder ein Bastlerexperiment (Wasserkühlung drauf samt Garantieverlust)?

LSSJBroly
2013-05-13, 18:38:34
Was vllt noch vergessen wurde ist die genaue betrachtung der spannungen. Zurzeit die Titans haben relative unterschiedliche Güteklassen. Einige takten nur mit max. 980MHz, andere gleich mit 1032Mhz.
Man müsste das mal so vergleichen:
http://www.abload.de/img/boosttitanvergleich2hcp04.png

Im vergleich: Die GTX Titan mit dem höheren max. Boost benötigt für die gleiche Taktrate teils deutlich weniger Spannung und würde auch nicht so warm werden und somit einen höheren Takt halten. Bsp.: Die GTX Titan von HT4u macht z.b. nach 15min nur noch 837MHz, während eine "bessere" Titan gleich 876 oder sogar noch 889MHz mitmachen würde...

Das heißt: Man braucht nun also auch glück beim Kauf, damit man eine Karte erwischt, die höher taktet xD

Knuddelbearli
2013-05-13, 18:40:38
sollte ersteres sein ist aber leider zweiteres ( Flashen hast du noch vergessen ^^ )

Rente
2013-05-13, 18:50:57
Warum? Es ist der erste solche Test. Wen es dabei erwischt ist völlig einerlei.
Es ist der erste Test mit großem Anteil für Boost 2.0 (die PCGH hat es in geringerem Umfang auch schon getestet), das ist richtig.
Letztendlich deckt der Test allerdings nur eine Schwäche auf die eigentlich vollkommen irrelevant bei diesem 889€-Monster ist, weil eh jeder, der soviel Geld ausgibt (und ein bisschen Grips hat) das PT und TT nach oben zieht oder direkt bessere Kühlmöglichkeiten nutzt...

Wer soviel ausgibt und nicht zu mindestens ersteres tut, der ist letztendlich selber Schuld.
wie gesagt dazu brauche ich aber dann keinen Boost. da kann Nv ebenso gut einen Button integrieren die den Takt automatisch um 150Mhz anhebt
Du hast scheinbar noch nicht mal Boost 1.0 verstanden...
Was ist wenn 100 Karten nur 100 MHz mit machen? Soll nVidia dann alle anderen ausbremsen die 150 MHz und mehr ohne Probleme mit machen würden?
Genau die Dynamik daran ist doch der große Vorteil, nVidia kann quasi OC-Karten bieten ohne vorher zu stark selektieren zu müssen (ob man das natürlich als Käufer eben so sieht ist natürlich eine andere Sache).

Wenn es wirklich nur darum geht, dass sich nVidia u.U. 6-7% mehr Balkenlänge "ercheatet" liegt es eher an den Testern die damit nicht umgehen können bzw. es einfach nicht angeben.
Meinetwegen sollen sie mit festem Takt testen und ein "Bis zu" in den Diagrammen oder dem Fazit hinterlegen, vielleicht schafft man den Boost dann auch wieder ab, auch wenn ich ihn eigentlich gut finde...

€: Optimale Voraussetzungen sind btw. kein Hexenwerk, aus meiner Sicht ist z.B. die Ansaugtemperatur bei HT4u bereits zu hoch (31°C bzw. 36°C).

Knuddelbearli
2013-05-13, 19:05:27
Du hast scheinbar noch nicht mal Boost 1.0 verstanden...
Was ist wenn 100 Karten nur 100 MHz mit machen? Soll nVidia dann alle anderen ausbremsen die 150 MHz und mehr ohne Probleme mit machen würden?
Genau die Dynamik daran ist doch der große Vorteil, nVidia kann quasi OC-Karten bieten ohne vorher zu stark selektieren zu müssen (ob man das natürlich als Käufer eben so sieht ist natürlich eine andere Sache).

Wenn es wirklich nur darum geht, dass sich nVidia u.U. 6-7% mehr Balkenlänge "ercheatet" liegt es eher an den Testern die damit nicht umgehen können bzw. es einfach nicht angeben.
Meinetwegen sollen sie mit festem Takt testen und ein "Bis zu" in den Diagrammen oder dem Fazit hinterlegen, vielleicht schafft man den Boost dann auch wieder ab, auch wenn ich ihn eigentlich gut finde...

1.) hat man die Mehrleistung dann in jeder Situation
2.) ist das egal. Power und Temperaturtarget ändert nichts daran welche Spannung man bei welcher Frequenz benötigt.

Wenn Karte A bei Standarttakt 1,1V hat und Karte B 1,2V hat halt Karte A bei +150Mhz 1,2V und Karte B 1,3V. Ist beim aktuellen Boost doch nicht anders siehe LSSJBroly's Tabelle.
Dafür hat dann auch jede Karte die selbe Leistung!
Pressesamples und co lässt grüßen.


3.) hast du mal ausgerechnet was das für ein Zeitbedarf beim testen ist? 5 benchmarks pro Test um das Benchmark Ergebnis zu mitteln.
3 Auflösungen.
3 AA Modi, dazu noch eventuell SSAA und oder DS.
10 Spieltitel.

5*3*4*10=600 Einzelergebnisse
sind 9000 Minuten oder 150 Stunden vorwärmen und Seiten die so Kritisch testen dürfen sich diese 1k€ Grafikkarten auch noch selber kaufen ...

Schaffe89
2013-05-13, 19:15:29
dank boost 2.0 können hier wassergekühlte lösungen endlich richtig heftige performance sprünge machen, ohne die grafikkarte überhaupt zu übertakten.

Das galt auch vorher schon so, mit Wasserkühlung ging immer mehr.
Boost ist ein nutzloses Feature und bringt keinen Vorteil in der Praxis, als eine Karte ohne den automatischen Taktkram, das war aber auch schon klar als CB den Test herausgebracht hat.

Mir geht der Beitrag ehrlich gesagt zu sehr gegen nV, der Boost (und damit auch PT und TT) hat unter optimalen Voraussetzungen mehr Vor- als Nachteile.

Für mich ist der Beitrag genau sachlich und neutral. Endlich wird mal der Fakt festgehalten dass Boost sinnfrei ist und zwar in der Praxis. Vorteilig ist er beim OC innerhalb der Garantie, weil dies möglich ist, das hat aber nix mitm Boost zu tun, man könnte genausogut innerhalb der garantie ohne Spannungserhöhung die Taktraten anheben lassen.

Ich verstehe nicht, wieso das so negativ angesehen wird.

Weil du außerhalb des Sachverhaltes argumentierst. Hier geht es um default Werte und bei dir geht es um Modifikationen.
Das eine hat mit dem anderen nichts zu tun. Dass man Karten mit eingriffen schneller machen kann, gilt überall, unabhänigg davon ob nun per Hand OC oder über Temp und Verbrauchstarget.

Sehe ich genauso. Optimieren war noch nie so einfach.

Warum ist das einfach?

Falsch. Weil die Karte durch das Temperaturlimit am Hochtakten gehindert wird, gibt es niedrigere Taktraten und Spannungen -> weniger Stromverbrauch.

Das sind doch alles Alibiargumente, angeblich kann man jetzt einfacher übertakten und auf der anderen Seite spart man jetzt auf einmal Strom und hat aber dafür auch weniger Performance, wo daran der Sinn sein soll, erschließt sich mir einfach nicht.

Nvidia verkauft für mich meiner Meinung nach das Boost Feature als toll und in Wirklichkeit ist es + -0, heißt bringt gar nichts außer nen feuchten Händedruck und dieselbe Propaganda wird wohl AMD auch jetzt bieten wollen.

gnahr
2013-05-13, 19:20:46
1.) hat man die Mehrleistung dann in jeder Situation
Pressesamples und co lässt grüßen.
genau, fickt den fortschritt, die zahlenneurotiker kommen damit nicht klar. :rolleyes:

immer wieder der gleiche unsinn: den boost gibt es oben drauf und nicht "öh, mir fehlen 5mhz zum maximal möglichen obertakt, jetzt ruckelt der dreck".
lieber alle karten auf 500mhz einnorden und dann still stehen lassen, das wär natürlich die viel bessere lösung weil wegen "vergleichbar"... die chips waren schon immer einzelstücke. wollt ihr dass bei jedem technischen gerät die toleranzen auf 0 gesetzt werden "wegen der vergleichbarkeit"? viel spaß beim versuch dann noch gleich starke produkte zu finden und vor allem zu bezahlen, was sich früher im mittel so über die serienstreuung ergeben hat.

dem test kann man was abgewinnen, aber nicht der polemik.

LSSJBroly
2013-05-13, 19:25:38
Weil du außerhalb des Sachverhaltes argumentierst. Hier geht es um default Werte und bei dir geht es um Modifikationen.
Das eine hat mit dem anderen nichts zu tun. Dass man Karten mit eingriffen schneller machen kann, gilt überall, unabhänigg davon ob nun per Hand OC oder über Temp und Verbrauchstarget.

Das mag zwar sein, was ich auch nie abgestritten habe:wink: Stock läuft die Titan halt mit angezogener Handbremse, mir aber egal, da ich sowieso meine Hardware an meinen ansprüchen anpasse.


Warum ist das einfach?

Weil man durch zwei Schieberegler die Karte schneller oder langsamer, leiser oder lauter und/oder stromsparender oder fressender gestalten kann, ganz wie man will. Und das beste: Man muss die Taktraten oder Spannungen nichmal anrühren:rolleyes:


immer wieder der gleiche unsinn: den boost gibt es oben drauf und nicht "öh, mir fehlen 5mhz zum maximal möglichen obertakt, jetzt ruckelt der dreck".

Sehe ich genauso...

Knuddelbearli
2013-05-13, 19:42:39
immer wieder der gleiche unsinn: den boost gibt es oben drauf und nicht "öh, mir fehlen 5mhz zum maximal möglichen obertakt, jetzt ruckelt der dreck".

merkst du in dem Satz nicht die Ironie die darin liegt?
du meckerst weil du dann paar Mhz weniger hast ( wobei das nicht mal gesagt wäre, eher wird der Verbrauch um paar Watt erhöht bei einem schlechten Chip ) die du eh niemals bemerken wirst . Dafür sind Vergleichsbenchmarks von Redakteuren wo es manchmal um die Kommastelle hinter dem 0 verfälscht.

Dazu wirkten sich Pressesample bisher maximal auf Verbrauch und Lautstärke aus, also eher sekundäre Attribute, trotzdem wurde das teilweise öfters gemacht.
Jetzt wirkt es sich aber auf die Wurst aus und zwar auf die Performance, also das Attribut schlechthin bei einer Grafikkarte ( außer es ist gerade die falsche Marke vorne ^^ )

Das kritische Seiten wie HT4u nicht mehr beliefert werden spricht ja Bände. Und ich verneige mich vor Peter dafür das er da trotzdem am Ball bleibt.

und was ist mit Punkt 2+3?

Godmode
2013-05-13, 19:42:51
Das mag zwar sein, was ich auch nie abgestritten habe:wink: Stock läuft die Titan halt mit angezogener Handbremse, mir aber egal, da ich sowieso meine Hardware an meinen ansprüchen anpasse.


Weil man durch zwei Schieberegler die Karte schneller oder langsamer, leiser oder lauter und/oder stromsparender oder fressender gestalten kann, ganz wie man will. Und das beste: Man muss die Taktraten oder Spannungen nichmal anrühren:rolleyes:


Sehe ich genauso...

Handbremse ist das richtige Stichwort. Ich hab zb. die Lüfterkurve angepasst und den Offset um 130 MHz erhöht. Meine Karten laufen nun mit ca. 1150 MHz und das dauerhaft. Natürlich ist die Karte dann nicht mehr so schön leise aber die Leistung passt.

Out of the box ist Titan langweilig, aber mit ein paar kleinen Änderungen geht die Karte richtig ab.

gnahr
2013-05-13, 19:52:11
und das du nur eines der Argumente von mir aufgreifst ( das wiederum sich auch wieder nur auf eines von viele Argumenten bezieht ) ist ja bezeichnend.
ja, für meine abfällige meinung über dein tierisches gebärden. sternzeichen "ein carnivorer drehwurm", er muss sich alle indizien in sein weltbild reinwurschteln.

merkst du in dem Satz nicht die Ironie die darin liegt?
du meckerst weil du dann paar Mhz weniger hast die du eh niemals bemerken wirst . Dafür sind Vergleichsbenchmarks von Redakteuren wo es manchmal um die Kommastelle hinter dem 0 verfälscht.
merkst du nicht, dass du es nicht begreifen willst und als bonus die anführungszeichen als indiz auf meinen duktus in dem halbsatz nicht geschnallt hast?
die karten boosten individuel. würde man den boost abschaffen müsste man den in der anspruchsvollsten situation maximalen takt einer der schlechtesten karten (auf jeden fall weit schlechter als durchschnitt oder median der verkauften karten) als referenz her nehmen. wer will das, außer arbeitsscheuen redakteuren?
sagt doch niemand, dass die boosterei der weisheit letzter schuss ist, aber diese "verfälschungen"... schonmal was vom frame target gehört? das in verbindung mit dem boost2.0 ist genau das, was auch bei spielen was bringen kann, weil last in den anwendungen eben nix statisches ist. klar ist der einfluss auf nen endlich langen benchmark nochmal größer, aber nur weil der einfluss n-fach größer ist hebt das nicht die korrelation in der umgekehrten richtung auf.

Knuddelbearli
2013-05-13, 19:56:33
ja unter vsynch hat es Vorteile ( wobei auch da bei weitem nicht immer meistens wechselt der Leistungsanspruch an die Szene für längere zeit nicht nur für paar Sekunden ) , ebenso zum Energiesparen in oldie games ( oder indi games ).

gerade Aufgrund letzterem habe ich mich ursprünglich die Titan gekauft ( mom regle ich das über Profile die ich aber immer mal wieder vergesse zu aktivieren / deaktivieren ) aber das war mir der ganze Mist dann nicht wert.

aber das wiegt nicht annähernd die ganzen Nachteile auf.

MadManniMan
2013-05-13, 20:10:13
du meckerst weil du dann paar Mhz weniger hast ( wobei das nicht mal gesagt wäre, eher wird der Verbrauch um paar Watt erhöht bei einem schlechten Chip ) die du eh niemals bemerken wirst . Dafür sind Vergleichsbenchmarks von Redakteuren wo es manchmal um die Kommastelle hinter dem 0 verfälscht.

Exakt.

Boost bringt vor allem in kurzen Anwendungen etwas. Und wo sind diese relevant? Genau, vor allem bei Vergleichen. Die an einer Hand abzählbaren Leute, die generell weniger als 15 Minuten spielen, bin ich gern geneigt außen vor zu lassen.

Rente
2013-05-13, 20:18:54
Wenn die Temperatur/der Strom das Target nicht erreicht hält die Karte den Boost fast zu 100%, der ist nicht einfach nach 5 Minuten vorbei, es stimmt also so nicht wirklich.
Das eigentliche Problem ist die Karte so gut es geht zu kühlen, so dass sie das TT gar nicht erst erreicht. Schafft man das nicht, ist es in der Tat nur etwas für kurze (Bench-)-Sessions oder Spiele mit stark wechselnden Belastungen/Pausen.

Das ist btw. bereits bei Boost 1.0 so, ist dort allerdings weit weniger relevant weil die entsprechenden Karten einfach nicht so heiß werden.

foenfrisur
2013-05-13, 20:28:29
boost ist von der idee und sache her erstmal ein nettes gimmick.
nur sollte man im treiber jedem die wahl lassen, wo seine prioritäten liegen.

mfg

Knuddelbearli
2013-05-13, 20:35:48
der größte witz ist aber ja eh das 109% PT

LSSJBroly
2013-05-13, 20:46:59
der größte witz ist aber ja eh das 109% PT

Richtig, das bei einem Verbrauch von 200 Watt! einer Titan sogarnicht von Bedeutung ist...
Das PT war bei der Titan noch nie das Problem...

Knuddelbearli
2013-05-13, 20:48:39
kommt drauf an wie weit man es treiben will 1200Mhz wäre eigentlich wohl noch lange nicht das limit mit ordentlicher Kühlung.

+50% OC war früher ja eigentlich normal ...

und nicht umsonst flashen auch hier im forum einige ihre Titan für ein höheres PT obwohl das heißt bei einer 1k€ Karte auf die Garantie zu pfeifen

Peter Gräber
2013-05-13, 20:48:42
Wenn die Temperatur/der Strom das Target nicht erreicht hält die Karte den Boost fast zu 100%, der ist nicht einfach nach 5 Minuten vorbei, es stimmt also so nicht wirklich.
Das eigentliche Problem ist die Karte so gut es geht zu kühlen, so dass sie das TT gar nicht erst erreicht. Schafft man das nicht, ist es in der Tat nur etwas für kurze (Bench-)-Sessions oder Spiele mit stark wechselnden Belastungen/Pausen.

Das ist btw. bereits bei Boost 1.0 so, ist dort allerdings weit weniger relevant weil die entsprechenden Karten einfach nicht so heiß werden.

Ich werde den dummen Eindruck nicht los, dass du von modifzierten Titan-Grafikkarten (andere Kühler) sprichst. Getestet wurde die NVIDIA GeForce GTX Titan (gleich zwei davon aus dem Handel, die sich fast komplett identisch verhielten). Und klar ist das Temp-Target ein Problem und ja, ich kann manuell in die Lüftersteuerung eingreifen und den Lüfter am Anschlag laufen lassen - Lärm lässt grüßen.

Dieses Produkt, so haben wir das in unserem Fazit auch klar herausgestellt, richtet sich an versierte Anwender, welche auch gewillt sind sich mit der Materie zu beschäftigen und auch in Limitationen händisch einzugreifen.

Der Boost ist aber allenfalls für manche versierten Anwender ein Segen (und auch dort bezweifele ich die neue Wegrichtung). Für die gezeigte Umsetzung bei einer Default-Karte ist er allenfalls ein Marketing-Instrument, dass längere Balken zeichnet. Und wenn ein Hersteller bei seinem Top-Produkt die deutlich längeren Balken hat, dann legt der 08/15-Anwender so etwas natürlich auch auf den Rest der Grafikkarten-Serie aus. So funktioniert das Geschäft und darum verkauft sich auch eine GT 640 DDR3.

Und deine Anmerkungen zu Boost 1.0: Bei Boost 1.0 hat nichts, aber auch gar nichts außer dem Power Target gegriffen (und technisch erklärbare Zusammenhänge). Als Lektüre empfehle ich dir unseren passenden Artikel vor einem Jahr. Und während NVIDIA der Presse gegenüber zu diesem Zeitpunkt noch von 12 bis 15 Faktoren sprach, die dort hineinspielen, stellt man zum Launch der Titan der Presse nun klar, dass es vorher nur das Power Target war. Soviel zum Thema Verständnis des Boost.

Man sollte immer unterscheiden, was ein Produkt könnte (das haben wir herausgestellt) und was ein Produkt in seiner Auslieferung kann (und auch das herauszustellen war unser Ziel). Dazu haben wir versucht zu ergründen und zu belegen, warum es im Auslieferungszustand diese Beschränkungen hat.

Dessen ungeachtet: ich halte Titan für ein sehr gutes Produkt in sich - in der Auslieferungsform ist es allerdings ein Benchmark-Blender.

P.S.: @ Bärli: Niemand hat gesagt, dass NVIDIA uns keine Muster mehr gibt. Zumindest bislang ist das noch nicht der Fall. GTX 680 bekamen wir trotz Zusage nicht, weil wir nicht zum kurzfristig anberaumten Event in den USA erschienen sind (exakt zum Zeitpunkt der Cebit) und Titan bekamen wir nicht, weil es wohl nur reichte um 5 oder 6 Redaktionen in Deutschland mit insgesamt 3 Titanen auszustatten. Die Auswahl wen und warum man bemustert, trifft im Prinzip (und zurecht) immer der Hersteller.

Schaffe89
2013-05-13, 20:50:48
Weil man durch zwei Schieberegler die Karte schneller oder langsamer, leiser oder lauter und/oder stromsparender oder fressender gestalten kann, ganz wie man will.

Das kann man bei AMD auch mit einem Regler machen, nämlich den ChipTakt raufdrehen, dann erhöht sich die Lautstärke und der Verbrauch. Dreh ich den Regler runter sinkt der Verbrauch, oder ich schalte Powertune auf -20%.

Beim Boost sind die Übergänge deutlich feiner, bzw die Spannung wird noch angepasst.
Ich bin allerdings der Meinung dass mir so etwas nicht weiterhilft als Übertakter, ergo finde ich den Boost weder hilfreich, noch sinnvoll.

MadManniMan
2013-05-13, 21:15:12
Rente,

all die Theorie nützt letztlich nichts, wenn sich niemand die Praxis anschaut. Peter hat das nun gemacht und vorgelegt, wie es passieren sollte und bis nicht durch vergleichbare Artikel gezeigt wurde, dass es auch anders geht, wird den Titans immer dieser Praxismakel anhaften.

Versteh mich nicht falsch, in meinem Rechner ist alles übertaktet, was irgendwie einen Regler hat. Das aber hat nichts mit einem solchen Produkt zu tun, das nV uns da unterjubeln will.

Rente
2013-05-13, 21:21:12
Ich werde den dummen Eindruck nicht los, dass du von modifzierten Titan-Grafikkarten (andere Kühler) sprichst. Getestet wurde die NVIDIA GeForce GTX Titan (gleich zwei davon aus dem Handel, die sich fast komplett identisch verhielten). Und klar ist das Temp-Target ein Problem und ja, ich kann manuell in die Lüftersteuerung eingreifen und den Lüfter am Anschlag laufen lassen - Lärm lässt grüßen.Das ist richtig, schnell heißt mit dem Standardkühler auch gleichzeitig relativ laut. Will man die Garantie behalten (bzw. hat man die Karte von einem Hersteller bei welchem man nicht wechseln darf), stellt dies in der Tat die einzige Möglichkeit dar ohne Customdesigns zu nutzen, die es bisher ja nicht einmal gibt.
Ist einem das egal -> Wakü und damit stärkeren und konstanteren Boost (solang das PT nicht zuschlägt).

Dieses Produkt, so haben wir das in unserem Fazit auch klar herausgestellt, richtet sich an versierte Anwender, welche auch gewillt sind sich mit der Materie zu beschäftigen und auch in Limitationen händisch einzugreifen.Sehe ich absolut genauso, hier wird des öfteren aber das Gegenteil behauptet bzw. man geht quasi davon aus das Titan nur von "Vollidioten" gekauft wird, der Boost absoluter Unsinn und reines Marketing ist.

Der Boost ist aber allenfalls für manche versierten Anwender ein Segen (und auch dort bezweifele ich die neue Wegrichtung). Für die gezeigte Umsetzung bei einer Default-Karte ist er allenfalls ein Marketing-Instrument, dass längere Balken zeichnet. Und wenn ein Hersteller bei seinem Top-Produkt die deutlich längeren Balken hat, dann legt der 08/15-Anwender so etwas natürlich auch auf den Rest der Grafikkarten-Serie aus. So funktioniert das Geschäft und darum verkauft sich auch eine GT 640 DDR3.
Das ist wie gesagt der Punkt mit den miesen Tests. Das finde ich auch nicht gut, ein Hinweis, gerne auch Balken mit minimalen oder gar keinem Boost + Hinweisen fände ich auch deutlich sinnvoller (und zu mindestens bei 1-2 Spielen einen Vergleich halte ich nicht für unschaffbar).
Und deine Anmerkungen zu Boost 1.0: Bei Boost 1.0 hat nichts, aber auch gar nichts außer dem Power Target gegriffen (und technisch erklärbare Zusammenhänge). Als Lektüre empfehle ich dir unseren passenden Artikel vor einem Jahr. Und während NVIDIA der Presse gegenüber zu diesem Zeitpunkt noch von 12 bis 15 Faktoren sprach, die dort hineinspielen, stellt man zum Launch der Titan der Presse nun klar, dass es vorher nur das Power Target war. Soviel zum Thema Verständnis des Boost.
Ich hab mir den Artikel jetzt noch mal zu Gemüte geführt und ich habe u.U. wirklich falsch aus meiner Gigabyte GTX670 geschlossen.
Die erreicht, anders als z.B. die Standard-680 in eurem Artikel, die 112% PT quasi nie und vor allem nicht dauerhaft bzw. es gibt bei einem entsprechend hohem Takt-Offset vorher schon Bildfehler und einen Treiberreset.
Darüber hinaus hat die Temperatur schon eine Auswirkung, allerdings hast du schon Recht, das passiert auch durch das PT.

Man sollte immer unterscheiden, was ein Produkt könnte (das haben wir herausgestellt) und was ein Produkt in seiner Auslieferung kann (und auch das herauszustellen war unser Ziel). Dazu haben wir versucht zu ergründen und zu belegen, warum es im Auslieferungszustand diese Beschränkungen hat.

Dessen ungeachtet: ich halte Titan für ein sehr gutes Produkt in sich - in der Auslieferungsform ist es allerdings ein Benchmark-Blender.

Absolute Zustimmung, letztendlich stört mich wie gesagt nur, dass in Leos Artikel der negative Teil deutlich größer ist, nicht euer Test.
[...]

Knuddelbearli
2013-05-13, 21:51:53
Absolute Zustimmung, letztendlich stört mich wie gesagt nur, dass in Leos Artikel der negative Teil deutlich größer ist, nicht euer Test.

das genau umgekehrte könnte ich über alle bisherigen Titan Posts von Leonidas sagen, da es keine zuverlässigen Test dazu gab hat er das immer ausgelassen weshalb eigentlich nur positives über geblieben ist.

jetzt da es einen test als Beweis gibt kam halt mal das ganze negative raus.

Leonidas
2013-05-13, 22:06:39
So könnte man das sagen .... und als Begründung: Ich schreib ungern etwas über Sache, wo Faktenbeweise gebraucht werden und diese einfach nicht da sind. Deswegen wurde das im Titan-Artikel nur eher angedeutet (obwohl die Ahnung seit diesen Tagen existiert) - und nun liegt es schwarz auf weiss vor, also hört sich das auch gleich wie eine Abwatschn an, nur weil es eben konzentriert nur um das Feature geht.

Aber ich denke, jeder kann sich Anhand der Fakten seine eigene Meinung bilden. Dafür werden die Fakten schließlich aufgezählt.

Peter Gräber
2013-05-13, 22:11:26
Sehe ich absolut genauso, hier wird des öfteren aber das Gegenteil behauptet bzw. man geht quasi davon aus das Titan nur von "Vollidioten" gekauft wird, der Boost absoluter Unsinn und reines Marketing ist
[...]

Also irgendwie hab ich den Eindruck, dass wir zwar möglicherweise auf einer Wellenlänge sind, du aber etwas verteidigen möchtest, was man nicht verteidigen sollte. Titan wird nur von Leuten mit großem Geldbeutel gekauft und wenn die damit nicht umzugehen wissen, dann ist das Geld das Fenster rausgeworfen.

Aber der Boost ist absoluter Unsinn und ein Marketing-Instrument. Wünscht du dir nicht auch schlicht ne Graka zurück, die das erlaubt, was maximal möglich ist, wenn du schon ein mündiger, versierter Anwender bist (mit dickem Geldbeutel)?

Willst du tatsächlich etwas haben, was mit maximalen Taktraten startet und nach 60 Sekunden beginnt die Taktraten zu senken und das dann Boost nennt? Da boostet nix, da wird auf Maximum gestartet und dann runtergetaktet, wenn die Algorithmen das so vorsehen. AMD nannte das Powertune und nicht Boost. NVIDIA nennt es Boost und ich nenne es Marketing.

In beiden Fällen - AMD wie NVIDIA - werden vermutlich lustige Zeiten auf uns Tester zukommen, wollen wir tatsächlich nicht nur die schnellen Balken innerhalb von wenigen Tagen zeigen, sondern was sich wirklich dahinter verbirgt. Der eingeschlagene Weg ist aus meiner Sicht für die wenigsten versierten Anwender befriedigend.

Lass den Mist weg, lass doch einfach wieder Grafikkarten her, die sich auf eigene Verantwortung übertakten lassen, bis zu dem Punkt wo sie ausgereizt sind. Lass dann Waküs und Spannungserhöhungen zum Einsatz kommen und ich verspreche dir, dass gerade Du mit solchen Möglichkeiten aus einer Titan-Karte mehr herausholen könntest, als es dir derzeit gelingt.

samm
2013-05-13, 23:25:42
In beiden Fällen - AMD wie NVIDIA - werden vermutlich lustige Zeiten auf uns Tester zukommen, wollen wir tatsächlich nicht nur die schnellen Balken innerhalb von wenigen Tagen zeigen, sondern was sich wirklich dahinter verbirgt. Der eingeschlagene Weg ist aus meiner Sicht für die wenigsten versierten Anwender befriedigend.Sehe ich genauso. Und AMDs Powertune ist seit der 7790 auch nicht mehr deterministisch - da hilft auch nicht, dass der Takt in diesem spezifischen Fall meist hoch bleibt, "Fortschritt" sind diese Features nur aus Marketingsicht.

Rente
2013-05-13, 23:41:07
[...]
Wir schwimmen nicht ganz auf der gleichen Wellenlänge

Aus meiner Sicht sind die beiden Varianten nicht sinnlos, bringt doch Boost 1.0 zu mindestens bei Custom-Karten (eben nur 680 und kleiner) durchaus auch länger anhaltende/gleichbleibende Boostwerte und Boost 2.0 bei Titan mit Handarbeit/Leidensfähigkeit (Stichwort Lüfter) auch Mehrperformance über längere Zeiträume bei vielen Anwendungen (soweit man Blaire, Godmode usw. hört/liest).

Natürlich wären mir "die guten alten Zeiten" auch lieber.
Alternativ wäre ein per Hand festlegbarer Turbo der bei 100% Auslastung auch zu 100% anliegt (wie bei Intels CPUs möglich) und unabhängig von Powertargets, nur durch Qualität und Temperatur begrenzt wird klasse - ob das umsetzbar wäre ist natürlich eine andere Sache - aber ich seh' die Boost-Geschichte eher als "besser als nichts", immerhin verliert man dabei die Garantie nicht.

€: Letztendlich ist es aber für mich eh nicht wirklich relevant, ich würde mir Titan für den aktuellen Preis nicht kaufen. Darüber hinaus war mir die Garantie bei PC-Komponenten bisher meist egal, so dass mir sowieso OC-Möglichkeiten eher passen die so viel wie möglich Freiraum lassen, auch wenn die Hardware dann Hops gehen kann.

G3cko
2013-05-14, 10:46:11
Die Karte kostet 900 Euro und mehr, da ist Wakü sicherlich keine so große Nische mehr.
Mir geht der Beitrag ehrlich gesagt zu sehr gegen nV, der Boost (und damit auch PT und TT) hat unter optimalen Voraussetzungen mehr Vor- als Nachteile.

Wo sind denn das Vorteile wenn die Karte durch das Feature in Benchmarks besser abschneidet als im normalen Spielebetrieb?

11% über einer 7970Ghz, also für den 3 fachen Preis und dann soll man sich noch eine WaKü kaufen damit das Produkt "perfekt" ist?! Garantie verlieren, Risiko, etc

keine persönliche Angriffe, bitte!

Cyphermaster
2013-05-14, 12:32:59
Aus meiner Sicht sind die beiden Varianten nicht sinnlos, bringt doch Boost 1.0 zu mindestens bei Custom-Karten (eben nur 680 und kleiner) durchaus auch länger anhaltende/gleichbleibende Boostwerte und Boost 2.0 bei Titan mit Handarbeit/Leidensfähigkeit (Stichwort Lüfter) auch Mehrperformance über längere Zeiträume bei vielen Anwendungen (soweit man Blaire, Godmode usw. hört/liest).Wo ist denn bitte der Vorteil? Boost bringt im Standard ganz offensichtlich nichts außer einem längeren Benchmark-Balken, und unter optimierten Bedingungen genau das, was man ohne Boost eben durch die Optimierungen auch manuell erreicht. Der von dir beschriebene positive Effekt kommt also ursächlich gar nicht durch das "Feature" zustande, sondern durch die anderen Modifikationen.
aber ich seh' die Boost-Geschichte eher als "besser als nichts", immerhin verliert man dabei die Garantie nicht.Die Garantie würde beibehalten, wenn man nichts dran fummelt. Solange aber keine "fummelfreien" Custom-Designs existieren und im Standard nichts rauszuholen ist, bleibt es beim Konjunktiv.

So, wie es aktuell ist, ist es ein Feature wie ein Sportauspuff. Klingt gut, sieht gut aus, läßt sich gut vermarkten - aber mehr PS unter der Haube hat man damit nicht automatisch.

Peter Gräber
2013-05-17, 22:40:12
Mal ne doofe Frage in den Raum geworfen, die sich mir aktuell stellt. Die Boost-Geschichte blickt übel nach Marketing. AMD zieht nach und man wird offenbar gleiche Dinge (in absehbarer Zeit oder schon mit 7790) erfahren dürfen.

Wenn man schlicht die Base-Clocks zu Rate zieht für Benchmarks? Also ne AMD 7970 GHz Edition lediglich mit 1000 MHz, ne Titan eben mit 836 MHz. Das ist natürlich abhängig davon, welchen Weg AMD da gehen wird.

Es wäre vielleicht ein vergleichbarer Ansatz darüber, was der Hersteller tatsächlich garantiert. Die Partnerkarten - schaue ich jetzt mal auf beispielsweise GTX 660 mit eigenen Designs, die Verhalten sich ja wieder komplett anders. Die müsste man dann auch anders betrachten. Aber für den direkten Vergleich wäre das doch eigentlich ein vernünftiger Weg? Oder überseh ich gerade was?

Gast
2013-05-17, 23:52:40
Was vllt noch vergessen wurde ist die genaue betrachtung der spannungen. Zurzeit die Titans haben relative unterschiedliche Güteklassen. Einige takten nur mit max. 980MHz, andere gleich mit 1032Mhz.
Man müsste das mal so vergleichen:
http://www.abload.de/img/boosttitanvergleich2hcp04.png

Im vergleich: Die GTX Titan mit dem höheren max. Boost benötigt für die gleiche Taktrate teils deutlich weniger Spannung und würde auch nicht so warm werden und somit einen höheren Takt halten. Bsp.: Die GTX Titan von HT4u macht z.b. nach 15min nur noch 837MHz, während eine "bessere" Titan gleich 876 oder sogar noch 889MHz mitmachen würde...

Das heißt: Man braucht nun also auch glück beim Kauf, damit man eine Karte erwischt, die höher taktet xD

es gibt immer eine Tahiti die einem Titan nicht min. ebenbürtig ist.
Sie überflügelt ihn.

Peter Graeber
2013-05-18, 20:18:24
es gibt immer eine Tahiti die einem Titan nicht min. ebenbürtig ist.
Sie überflügelt ihn.

Das, als auch der zitierte Beitrag ist aus meiner Sicht Käse.

Tahiti läuft am Anschlag. Da ist nicht mehr viel zu reißen. Und wenn NVIDIA Titan nicht so drosseln würde, dann kommt die 7970 GHz da gar nicht mehr ran. Aber es gibt ja offensichtlich Gründe, warum NVIDIA das nicht tut.

elianda
2013-05-19, 18:43:35
IMHO muesste eine sinnvolle Strategie fuer einen BOOST-Modus ganz anders aussehen.
Abgesehen von Berechnungen auf der Grafikkarte will man gerade bei Grafik, dass insbesondere Szenen mit geringen fps ge-boosted werden. Dafuer benoetigt man vor der Szene einen Temperaturbuffer.
Das koennte man damit erreichen, dass die Karte zunaechst ohne Boost laeuft, solange die fps ausreichend hoch sind. Wenn die Frame-Times nun eine Schwelle uebersteigen, wird der Boost hinzugeschaltet und auch wieder abgeschaltet sobald wieder hohe fps erreicht werden.

Die aktuelle Implementierung des Boost-Modus scheint ausser fuer Benchmarks keinen praktischen Sinn zu haben.

Das ist nicht vergleichbar mit dem Turbo Mode einer CPU, da man dort sofort die hohe Leistung haben will. Bei einer GPU will man aber konstant hohe fps, also benoetigt man dort die Mehrleistung erst, wenn der low-fps Fall eintritt.

Gast
2013-05-19, 18:59:39
Das, als auch der zitierte Beitrag ist aus meiner Sicht Käse.

Tahiti läuft am Anschlag. Da ist nicht mehr viel zu reißen. Und wenn NVIDIA Titan nicht so drosseln würde, dann kommt die 7970 GHz da gar nicht mehr ran. Aber es gibt ja offensichtlich Gründe, warum NVIDIA das nicht tut.

Das kommt auf die Anwendung an. ;) Bei GPGPU-Zeugs sieht eine Titan kein Land, dazu kommt das eine Titan einen viel zu hohen Anschaffungspreis hat.

Peter Gräber
2013-05-21, 22:48:51
Das kommt auf die Anwendung an. ;) Bei GPGPU-Zeugs sieht eine Titan kein Land, dazu kommt das eine Titan einen viel zu hohen Anschaffungspreis hat.

Cherry Picking - sorry. Da geh ich nicht weiter darauf ein. Meine Frage war eine andere und leider geht sie hier komplett unter. Ich tu also, was ich für richtig halte.

Black-Scorpion
2013-05-22, 19:46:53
Dann macht es doch in Zukunft einfach mal. Da musst du nicht fragen. Ob das allerdings gefällt ist die andere Seite. Denen das Ergebnis dann nicht passt rennen dann eben auf Seiten wo OC Karten von Nvidia gegen Standardtakt von AMD getestet wird. :biggrin:

MadManniMan
2013-05-22, 20:24:37
Wenn man schlicht die Base-Clocks zu Rate zieht für Benchmarks? Also ne AMD 7970 GHz Edition lediglich mit 1000 MHz, ne Titan eben mit 836 MHz. Das ist natürlich abhängig davon, welchen Weg AMD da gehen wird.

Absolut dafür! Einzeltests können dann die potentiellen Steigerungen aufzeigen, aber man hätte wenigstens was Handfestes.