PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Boost 2.0 und Titan


Seiten : [1] 2

Knuddelbearli
2013-02-21, 15:46:09
Moin,

leider hat das bisher keine Seite genau getestet. Ein Vergleich zwischen PCGH udn CB liefert aber denke ich mal bereits gute Anhaltspunkte.

CB hat mir vorheizen + Case ( nur 2 Lüfter dafür ist es aktuell Winter und damit wohl maximal 20C° im Gebäude ) festgestellt das in realitätsnahen Benchmarks der maximal takt ziemlich genau der garantierte Boost beträgt teilweise sogar minimal weniger.

http://www.computerbase.de/artikel/grafikkarten/2013/test-nvidia-geforce-gtx-titan/19/

PCGH wiederum hat auch mit ganz normalen Boost und fixierter garantierter Boostfrequenz getestet.

http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Test-Geforce-GTX-Titan-1056659/6/

Und zumindest ich finde das Ergebniss ist erschrecken. Teilweise unterscheiden sich die FPS um fast 15%!

Das verlinkte Metro2033 stellt gleich mal das extrembeispiel dar.

Ist sowas noch tolerierbar oder soll / muss man sowas knallhart als Cheaterei abtun?

Knuddelbearli
2013-02-21, 15:53:35
Das schlimme ist das es vermutlich außerhalb des deutschen Raumes vermutlich niemand interessieren wird ... Sind ja alles BQ Nazis usw ^^

Ich hoffe mal auf einen ausführlichen HT4U Test und hoffe das Metro2033 wirklich ein einzelner Extremausreißer ist und Rest zumindest unter 10% beträgt

G 80
2013-02-21, 16:27:11
[x] cheating.

Va wehret den Anfängen. Am Ende kann man sich 1 Woche nach Launch die Reviews zusammensuchen denen man halbwegs vertraut um sich _ein_ Bild zu machen. Es ist ja jetzt schon ein Elend.

Vergleiche mit alten/anderen Karten sind dann so genau wie ne Parallax Messung von nem Stern aus Andromeda.

fondness
2013-02-21, 16:36:14
Ich finde das auch bedenklich, da die Reviews eben nicht die Leistung im Spielebetrieb darstellen wenn die Karte und das Gehäuse aufgeheizt sind. Klar kann man mit dem Power-Target dem ein wenig entgegen wirken, dann sind allerdings die Verbrauchs-/Lautstärkenwerte nicht mehr so rosig.

gedi
2013-02-21, 16:36:57
nette Karte. klar schnellste s-gpu (auch wenn nicht so schnell wie von mir erwartet), relativ leise, in anbetracht der leistung sehr gute leistungsaufnahme. aaaaaber - der preis :freak: hierfür ist die leistung dann doch dürftig

M4xw0lf
2013-02-21, 16:46:40
"Cheating" finde ich jetzt nicht, der Boost hat schließlich einen Nutzen für den Alltagsgebrauch. Im normalen Testszenario mit kurzen Benchmarks statt langen Zocksessions verzerrt er zwar die Ergebnisse, aber da ist dann eben der seriöse Tester gefragt, um das im Test entsprechend herauszuarbeiten - wird ja auch gemacht, siehe PCGH, CB und andere.

Knuddelbearli
2013-02-21, 16:53:04
also bei CB habe ich außer dem extra unterpunkt Boost 2.0 nichts dazu gefunden

Gehäuse schön und gut aber Vorheizen ist noch wichtiger

Und die meisten Seiten werden niemals so testen da ja mehr Aufwand ...

M4xw0lf
2013-02-21, 17:01:49
Denen glaubt man ja auch aus Prinzip nicht ^^

Blediator16
2013-02-21, 17:20:40
Cheating

http://forum.beyond3d.com/showpost.php?p=1710978&postcount=1193

Scheint beim Titan besonders schlimm zu sein. Im Moment haben wir keine besonders warmen Temperaturen, aber sobald es wärmer wird, sieht das wieder anders aus.

Der boost ist reines marketing oder möchte mir einer der Fanboys erzählen NV hält seine Enthusiasten für selten dämlich?

M4xw0lf
2013-02-21, 17:27:59
Der Drop den Hardware.fr da sieht ist schon krass: von 75 auf 63 FPS in Anno 2070.

LSSJBroly
2013-02-21, 17:33:52
Cheating nenne ich das auch nicht. Der Basistakt ist ja vorgegeben und wird auch immer eingehalten. Alles was darauf kommt ist ein nettes Plus.

Knuddelbearli
2013-02-21, 17:35:27
noch schlimmer als Metro ...
und wenn man ne std spielt dürften da nochmal einige %te dazukommen ...

Knuddelbearli
2013-02-21, 17:38:00
Cheating nenne ich das auch nicht. Der Basistakt ist ja vorgegeben und wird auch immer eingehalten. Alles was darauf kommt ist ein nettes Plus.

nur in Benchmarks sieht die Grafikkarte bis zu 25% besser als als sie danach bei dir ist ;-)

das sehe ich schon als Cheating, spätestens mit der Aufforderung die Karte möglichst kühl beim testen zu halten zeigt das NV dem Umstand beim testen sogar ausnutzt, spätestens ab da sehe ich es nicht merh als Begleiterscheinung des Boostes sondern als knallharten Betrug / Verarsche

maximus_hertus
2013-02-21, 17:42:03
Nope, Cheating ist es nicht. Aber es erschwert die Vergleichbarkeit und bei der Titan scheint es eher schlimmer denn besser zu sein (Vergleichbarkeit).

Am besten eine Testreiher komplett ohne Boost (quasi garantierte "Basis"leistung) und einmal mit Boost (da auch gerne unter optimalen Bedingungen, ergo max Performance ohne Garantieverlust).

Bei der Titan also einmal den Test mit festgepinnten 837 MHz und einmal mit "freiem" (Max) Boost.

LSSJBroly
2013-02-21, 17:44:51
nur in Benchmarks sieht die Grafikkarte bis zu 25% besser als als sie danach bei dir ist ;-)


Wieso? Alle guten reviewer benchen die Karte mit dem Basis oder voreingestellten Boost-Takt. Zu hause können die ergebnisse also nur besser werden, aber nicht schlechter...:wink:
Siehe PCGh review und CB review.

Knuddelbearli
2013-02-21, 17:45:51
und freien max Boost dann nur im Winter und im Sommer nur im Keller ? ;-)

sofern die Problematik von allen Testern aufgegriffen würde hätte ich da nichtmal was dagegen nur wird das niemals passieren


Sieht man ja was NV mit Kritischen Seiten wie HT4U macht ..

Knuddelbearli
2013-02-21, 17:46:46
Wieso? Alle guten reviewer benchen die Karte mit dem Basis oder voreingestellten Boost-Takt. Zu hause können die ergebnisse also nur besser werden, aber nicht schlechter...:wink:
Siehe PCGh review und CB review.


Wo testet CB mit Basistakt ? ...


die testen nur mit normalen Boost und Maximum Boost

LSSJBroly
2013-02-21, 17:50:19
Wo testet CB mit Basistakt ? ...



Siehe hier: meist einen GPU-Takt zwischen 836 und 876 MHz
http://www.computerbase.de/artikel/grafikkarten/2013/test-nvidia-geforce-gtx-titan/19/

Zwischen dem normalen Boost und dem Basis-Takt liegen nur knapp 5%, also nicht allzuviel.

(del676)
2013-02-21, 19:18:55
Cheating nicht unbedingt, aber auf alle Faelle ein Verhalten, das ich als User NICHT haben will. Die Karte soll mit einer Frequenz laufen, und wenn sie zu heiss wird throtteln damit sie nicht verreckt. Aber hey, nvidia GPU Launches ab jetzt nur noch im Winter. ;)

Godmode
2013-02-21, 19:53:31
Also prinzipiell finde ich es gut wenn sich eine Karter selber hoch/runter regelt. Für die Vergleichbarkeit mit andere Karten natürlich der absolute Horror.

PCGH_Carsten
2013-02-21, 22:47:19
PCGH wiederum hat mit ganz normalen Boost und fixierter garantierter Boostfrequenz getestet.

http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Test-Geforce-GTX-Titan-1056659/6/


Nö. Das heißt doch, aber nicht nur.
http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Test-Geforce-GTX-Titan-1056659/4/
Da bei der GTX Titan der Temperatur eine zentrale Rolle zufällt, haben wir für den Test einen großen Aufwand getrieben und die erreichten Taktraten bei 28° C warmer Ansaugluft für jedes einzelne Benchmarkspiel in jeder Auflösung separat protokolliert und für einen der Benchmarkdurchläufe per Nvidia Inspector konstant erzwungen. Denn ein weiterer Punkt kommt hinzu:
Übliche Benchmarksequenzen sind 30 bis 60 Sekunden lange Gameplay-Schnipsel, denen in der Regel ein Ladevorgang vorausgeht. Hier kann eine GPU mit Boost-2.0-Technik sozusagen für den Benchmark "Schwung holen" und dank der durch die Leerlauf-Ladephase kühleren GPU einen Teil des Tests mit höheren Taktraten fahren. Das entspricht jedoch nicht dem, was der Spieler im Alltag erleben wird, da hier längere Spielphasen anfallen, in denen die Temperatur stärker ansteigt und der Takt entsprechend weiter absinkt. Daher würde ein solcher "Standard-Test" unserem Anspruch kaum gerecht werden, aussagekräftige Spiele-Benchmarks zu liefern.

edit:
Da es weiter unten (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9675314#post9675314) explizit noch einmal mißverstanden wurde:
Wir haben circa 30 Minuten pro Setting bei konstanter Spielelast (also ohne Ladebildschirme etc.) "einwirken" lassen und dazwischen die Karte auf Leerlauftemp unter 40°C kühlen lassen. Dass die 2560er i.d.R. die niedrigsten Takte erzielt, ist mMn naheliegend: Höchste Last, höchster Energieumsatz, höchste Temperatur, niedrigerer Takt.

samm
2013-02-21, 23:22:11
Unberechenbares Verhalten je nach individuellem Systemkomponenten des Käufers --> nogo und reine Benchmarkverschönerung (Winterlaunch und im Optimalfall offene Teststände). Plus: Jeder Approach verursacht schwankende Framerates...

StefanV
2013-02-22, 00:13:25
Gegen einen Boost ist grundsätzlich nichts einzuwenden. AUhc wenn die Karte im Sommer bzw bei hohen Außentemperaturen nicht soo hoch boostet.

Wenns aber bei normaler Raumtemperatur nicht maximal boostet, ist das schon ziemlich dreist/frech...

Angiesan
2013-02-22, 00:25:04
Der Boost ist eine der sinnvollsten Neuerungen für mich bei Grafikkarten, bei den Benchmarks müssen die Tester das spezielle Verhalten eben berücksichtigen.

Wie man gut sehen kann haben dies PCGH und CB auch getan und damit sicherlich nicht den Sympathiepreis von NV bekommen. Darum gucken wir ja auch alle auf die da man sich da schon oft drauf verlassen kann was die Jungs da so messen.

Godmode
2013-02-22, 00:33:10
Der Boost ist eine der sinnvollsten Neuerungen für mich bei Grafikkarten, bei den Benchmarks müssen die Tester das spezielle Verhalten eben berücksichtigen.

Wie man gut sehen kann haben dies PCGH und CB auch getan und damit sicherlich nicht den Sympathiepreis von NV bekommen. Darum gucken wir ja auch alle auf die da man sich da schon oft drauf verlassen kann was die Jungs da so messen.

Ich hab immer nur auf den Worst-Case bei CB und PCGH geschaut, daher war mein Ersteindruck extrem schlecht von dieser Karte. Wenn man von einem sehr gut belüftetem Gehäuse ausgeht, wird der Boost hoffentlich oben bleiben. Bei mir werden die GPUs über 5 Lüfter mit Frischluft versorgt, daher sollte das alles kein Problem sein. Ich hoffe die Karten fällt bald auf einen anständigen Preis, damit ich das selber testen kann.

Knuddelbearli
2013-02-22, 03:27:01
Nö. Das heißt doch, aber nicht nur.
http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Test-Geforce-GTX-Titan-1056659/4/


ja sorry ändere ich gleich ^^

Knuddelbearli
2013-02-22, 03:29:02
So habe mal die Ergebnisse von PCGH verwurstelt
Quelle: http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Test-Geforce-GTX-Titan-1056659/5/
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=45069&stc=1&d=1361500126

Konami
2013-02-22, 05:30:21
Naja was heißt da "tolerierbar", "Cheating"...

nVidia hat diese Funktionalität wohl nicht allein zum Betrügen in Benchmarks eingeführt, daher ist es auch kein "Cheating". Und es ist ja auch an sich ein nettes Feature.
Andererseits sollte der Boost natürlich in Tests ausgeschaltet sein, bzw. der Standard-Boosttakt festgenagelt wie bei der PCGH. Muss man halt wissen. Empört bin ich nicht.

Schrotti
2013-02-22, 05:48:42
Das ist doch weinen auf hohem Niveau.

Wer 950€ für eine Grafikkarte ausgeben kann der sollte in eine Wakü investieren denn die macht den Luftkühler obsolet.

Mir ist es egal und dafür habe ich auch gevotet.

G3cko
2013-02-22, 08:45:38
Was bleibt dann noch wenn der tolle Kühler ersetzt wird?

cR@b
2013-02-22, 08:57:59
Also Cheating ist es nicht aber dennoch sollte man einfach wissen, dass sich die Perfomance in warmer Umgebung schnell nach unten ändern kann. Am Schluss bleibt einem nur der manuelle Eingriff, sofern man ein Problem damit hat.
Gut dass es auch Reviews gibt, die das entsprechend darstellen.
Nvidias Absicht war sicherlich die Effizienz im Mix zu steigern, was ihnen ja auch teilweise damit gelingt. Allerdings hat eben alles Gute auch eine Kehrseite...

Grestorn
2013-02-22, 09:03:47
Für Anwender, die ihre Kühlung optimieren - z.B. mit einer WaKü oder einem speziell gut designten Luftgekühlten Case - hat Boost 2.0 doch nur echte Vorteile. Und genau das ist doch auch der Zielkundenkreis für die Titan.

Für Benchmark-Boosting eignet sich Boost2 doch wie man sieht kaum, da die meisten Review-Seiten mit Standard-Takt testen und die Boost2 Werte extra ausweisen.

Das ist doch optimale Transparenz... ich sehe nicht, wie man da von Cheating sprechen kann.

MadManniMan
2013-02-22, 09:08:45
Es ist halt von dem Zustand abweichendes Verhalten, dass die Szene über viele Jahre hinweg gewohnt war und erschwert einfache Antworten auf die Fragen, was wann besser, was wann schlechter ist.

fondness
2013-02-22, 09:10:25
Für Benchmark-Boosting eignet sich Boost2 doch wie man sieht kaum, da die meisten Review-Seiten mit Standard-Takt testen und die Boost2 Werte extra ausweisen.

Das ist doch optimale Transparenz... ich sehe nicht, wie man da von Cheating sprechen kann.

Naja, eigentlich sucht man das mit Ausnahme des deutschsprachigen Raumes häufig vergeblich mit den mehrmaligen testen. Solche Aussagen finde ich jedenfalls schon bedenklich:

He also found that repeating the same benchmark twice tends to lead to lower scores on Titan, because its Boost is temperature-dependent. For example: in Anno 2070: 75 FPS on the first run, 63 FPS with a warm card. That's a pretty massive difference, and I wonder how many reviewers even noticed.

http://forum.beyond3d.com/showpost.php?p=1710978&postcount=1193

Kurze Benchmarks in denen die Karte noch kalt ist führen zum Maximalboost, ist die Karte warm liegt im Extremfalls nur noch der Standardtakt an. Im Spielebetrieb ist die Karte allerdings die meiste Zeit warm, somit zeigen die Benchmarks u.U. andere Werte als der Käufer dann tatsächlich dauerhaft erwarten kann.

Grestorn
2013-02-22, 09:11:37
Es ist halt von dem Zustand abweichendes Verhalten, dass die Szene über viele Jahre hinweg gewohnt war und erschwert einfache Antworten auf die Fragen, was wann besser, was wann schlechter ist.
Sicher, aber nur weil etwas anders ist, kann man doch nicht von Cheating sprechen. Es ist die natürliche Weiterentwicklung vom bisherigen Boosting, was für den Kunden noch undurchschaubarer war - da das PowerTarget eher abstrakt ist.

Ein "Temperatur-Target" ist doch viel greifbarer und für den Anwender auch leichter zu beeinflussen.

boxleitnerb
2013-02-22, 09:13:13
Gibt es außer dem beyond3d Forumpost die Ergebnisse von hardware.fr zu den beiden Durchläufen auch irgendwo direkt zum Ansehen? Würde mal gerne draufschauen.

Grestorn
2013-02-22, 09:14:02
Kurze Benchmarks in denen die Karte noch kalt ist führen zum Maximalboost, ist die Karte warm liegt im Extremfalls nur noch der Standardtakt an. Im Spielebetrieb ist die Karte allerdings die meiste Zeit warm, somit zeigen die Benchmarks u.U. andere Werte als der Käufer dann tatsächlich dauerhaft erwarten kann.

Die Temperaturen eines Rechners ist normalerweise in wenigen Minuten auf einem stabilen Wert. Ich denke, das wird überbewertet.

Da macht die Außentemperatur schon mehr aus, speziell wenn man schlecht kühlt. Mit einer Wakü spielt die dann aber auch kaum eine Rolle mehr.

fondness
2013-02-22, 09:16:58
Gibt es außer dem beyond3d Forumpost die Ergebnisse von hardware.fr zu den beiden Durchläufen auch irgendwo direkt zum Ansehen? Würde mal gerne draufschauen.

AFAIK nein, hardware.fr hat immer nur die Werte des zweiten runs genommen, deshalb wohl auch die verhältnismäßig geringen Unterschiede zur 7970Ghz.

Edit: Hier gibt es was dazu: http://www.hardware.fr/articles/887-10/gpu-boost-tests.html

MadManniMan
2013-02-22, 09:29:04
Sicher, aber nur weil etwas anders ist, kann man doch nicht von Cheating sprechen. Es ist die natürliche Weiterentwicklung vom bisherigen Boosting, was für den Kunden noch undurchschaubarer war - da das PowerTarget eher abstrakt ist.

Ein "Temperatur-Target" ist doch viel greifbarer und für den Anwender auch leichter zu beeinflussen.

Wenn es auch bisher schon massive Abweichungen zwischen den Leistungsaufnahmen und Temperaturen der Tester- und der Benutzersysteme ergeben hatten, waren diese doch noch immer eher "weiche" Werte. Auch die sich direkt daraus entwickelnde Lautstärke war noch einer eher subjektive Begebenheit, hat doch kaum jemand ein Schalldruckmessgerät neben seinem Rechner stehen.

Eine derartig "weiche" Leistungsfähigkeit hingegen greift auf einmal die Framerate an, kommt also direkter im Bewusstsein des Käufers an. Das gibt erstmal Verunsicherung und könnte sich als Negativum herumsprechen.

Mein persönliches Problem ist eher, dass NV hiermit die Unreflektiertheit der Reviewer ausnutzen wird. Ja, wer halbwegs informiert ist, bencht mit warmem Gerät. Aber wenn ich an meine frühen Benchmark-Tage denke, dann werfe ich doch eher die Werte weg, die mir irgendwie anomal erscheinen ... im Zweifel frage ich mich dann, ob nicht inzwischen irgendein Hintergrundprozess angelaufen wäre, der meine Ergebnisse verfälscht, ja nach unten zieht.

Hm.

(del676)
2013-02-22, 09:59:59
AFAIK nein, hardware.fr hat immer nur die Werte des zweiten runs genommen, deshalb wohl auch die verhältnismäßig geringen Unterschiede zur 7970Ghz.

Edit: Hier gibt es was dazu: http://www.hardware.fr/articles/887-10/gpu-boost-tests.html

wow. also ist die Titan im "Echteinsatz" gerade mal 16% schneller als eine 7970 in Fullhd, und gar nur 12% in 2560x1600. Grandios. Da nehm ich doch gleich 2 von diesen guenstigen Rohrkrepierern. :lol:

fondness
2013-02-22, 10:02:42
wow. also ist die Titan im "Echteinsatz" gerade mal 16% schneller als eine 7970 in Fullhd, und gar nur 12% in 2560x1600. Grandios. Da nehm ich doch gleich 2 von diesen guenstigen Rohrkrepierern. :lol:

Naja man kann schon noch das Power- und Temperaturtarget entsprechend erhöhen und so mehr Takt und damit Leistung heraus holen. Allerdings ist es dann natürlich auch vorbei mit dem niedrigen Verbrauch/Lautstärke.

(del676)
2013-02-22, 10:19:06
Das kann ich bei jeder anderen Grafikkarte auch. Meine uralten 7950 laufen auch mit 1000Mhz statt 800 :rolleyes:
Als ob nvidia jetzt das Overclocking erfunden haette, nur weils einen anderen Namen hat und man das "Temperaturtarget" angeben kann ...

AffenJack
2013-02-22, 11:31:40
Als Cheating empfinde ich den Boost nicht, aber Nvidia hats bei Titan einfach verkackt, weil sie die eierlegende Wollmilchsau haben wollten. Hätten sie den Lüfter höher drehen lassen, würde Turbo öfter auch bei 80°C durchgehend anliegen und sie hätten bessere Ergebnisse, die schon eher mit der Realität übereinstimmen. Aber wie Fondness schon sagt, wäre dann hätte man sich die Lautstärkeergebnisse abschmieren können.
Denn eigentlich empfinde ich den Turbo schon als eine sinnvolle Neuerung zusammen mit den Einstellungsmöglichkeiten die es gibt. Die Intel Cpus haben mittlerweile doch auch nen Temperaturabhängigen Turbo oder soll das erst mit Haswell kommen?

Pirx
2013-02-22, 11:43:02
Naja, lass es mal sommer mir 30° im Schatten werden:ulol: andererseits spielt da ja eh keiner.

(del676)
2013-02-22, 11:56:57
Stimmt, da wird eher Ueberstunden geschoben um sich eine Wakue fuer die Titan zu leisten. :P

Iruwen
2013-02-22, 15:43:45
Das ist doch weinen auf hohem Niveau.

Wer 950€ für eine Grafikkarte ausgeben kann der sollte in eine Wakü investieren denn die macht den Luftkühler obsolet.

Mir ist es egal und dafür habe ich auch gevotet.

Seh ich genauso.

Botcruscher
2013-02-22, 15:52:56
Die Frage ist imo falsch gestellt. Sind die Ergebnisse mit B2 noch aussagekräftig und vergleichbar. Die Antwort ist klar nein. Mit Betrug hat das nichts gemein.
Bei den ganzen dynamischen Taktfrequenzen sind umfangreichere Test eh unerlässlich. Inzwischen taktet doch alles nach Gutdünken.

Iruwen
2013-02-22, 16:21:59
Wen sollte man damit auch betrügen? Diverse Reviews haben den Boost unter verschiedenen Bedingungen in die Tests einbezogen und ein 08/15 Casual kauft sich keine solche Karte.

Knuddelbearli
2013-02-23, 09:30:25
Für Anwender, die ihre Kühlung optimieren - z.B. mit einer WaKü oder einem speziell gut designten Luftgekühlten Case - hat Boost 2.0 doch nur echte Vorteile. Und genau das ist doch auch der Zielkundenkreis für die Titan.

Für Benchmark-Boosting eignet sich Boost2 doch wie man sieht kaum, da die meisten Review-Seiten mit Standard-Takt testen und die Boost2 Werte extra ausweisen.



Einer mit Wakü wird aber auch von selbst OCen wozu also den Boost ...

und auch hat außerhalbd es deutschen Raumes ( BQ Nazis wie wir sind ^^ ) kaum einer richtig getestet. Selbst bei CB bin ich mir da nicht sicher, ihmo haben sie den Boost 2.0 nur getestet aber danach ganz normal gebencht

bleibt also nur .fr und PCGH. Wobei man bei PCGH aufgrund der fehlenden Messung der anliegenden Taktraten nicht wissen kann welches nun eigentlich das richtige Ergebniss ist

boxleitnerb
2013-02-23, 09:35:34
Computerbase hat doch einmal mit Max Boost und einmal mit Standardbedingungen + Aufwärmen getestet. Ist doch super so.

chiller
2013-02-23, 09:54:29
Von der Titan müsste es extra eine "Wakü-Version", sprich als reine PCB Version ohne teuren Kühleraufbau geben. Die dürfte sich wie geschnitten Brot verkaufen^^

Aber als Betrügerei würde ich das ganze nicht ansehen. Eher als Sinnfrei.

GPU schonende Spiele laufen schneller, da die GPU weniger belastet wird. Unnötiger FPS Gewinn.

Spiele die bei maximaler GPU Last laufen werden ausgebremst.

Bleibt nur, per Hand nachzuregeln.

Knuddelbearli
2013-02-23, 13:46:46
Standardbedingungen + Aufwärmen getestet

Vielleicht bin ich ja blind aber wo steht das das sie auch so testen? Außerhalb des Boost 2.0 Menüpunktes

boxleitnerb
2013-02-23, 13:47:53
Unter den Ratings:

Um zu überprüfen, inwieweit die GeForce GTX Titan durch die Überwachung des Power Targets sowie der Temperatur gebremst wird, haben wir einen zusätzlichen Testlauf mit dem maximal möglichen Power Target (106 Prozent) sowie mit der Maximaltemperatur (95 Grad Celsius) durchgeführt. Diese Werte haben wir als „GeForce GTX Titan (Max)“ in die Diagramme eingetragen. Darüber hinaus haben wir die Grafikkarte vor jedem Testlauf einige Minuten „aufgewärmt“, damit die Temperatur auf ein realistisches Niveau ansteigt und der GPU-Boost die Taktraten entsprechend anpasst. Dies machen wir, da bei niedrigeren Temperaturen die GeForce GTX Titan höher taktet und damit bessere FPS-Werte liefert, die nach einigen Minuten aber nicht mehr reproduzierbar sind.

Iruwen
2013-02-23, 14:11:46
Von der Titan müsste es extra eine "Wakü-Version", sprich als reine PCB Version ohne teuren Kühleraufbau geben. Die dürfte sich wie geschnitten Brot verkaufen^^

Aber als Betrügerei würde ich das ganze nicht ansehen. Eher als Sinnfrei.

GPU schonende Spiele laufen schneller, da die GPU weniger belastet wird. Unnötiger FPS Gewinn.

Spiele die bei maximaler GPU Last laufen werden ausgebremst.

Bleibt nur, per Hand nachzuregeln.

Jo, fand ich bei Kepler auch schon Blödsinn, deshalb hab ich den Boost da erstmal per BIOS Mod gekillt. Zumal das nie ganz problemlos lief, vor allem mit OC wenn auch die Spannung abgesenkt wurde.
Schade dass EVGA immer solche Schweinepreise für die Hydro Karten nimmt. Für meine GTX 670 mit aquagrafx und Restgarantie würde ich jetzt vermutlich noch gut was bekommen.

Rente
2013-02-23, 14:23:14
Von der Titan müsste es extra eine "Wakü-Version", sprich als reine PCB Version ohne teuren Kühleraufbau geben. Die dürfte sich wie geschnitten Brot verkaufen^^

Aber als Betrügerei würde ich das ganze nicht ansehen. Eher als Sinnfrei.

GPU schonende Spiele laufen schneller, da die GPU weniger belastet wird. Unnötiger FPS Gewinn.

Spiele die bei maximaler GPU Last laufen werden ausgebremst.

Bleibt nur, per Hand nachzuregeln.
Das ist nur teilweise richtig, das tritt wohl nur auf wenn man ohne vSync oder Limiter spielt, ansonsten taktet die Karte nicht höher als nötig (Beispiel: Fifa13 in FHD läuft immer im Limit, meine Karte taktet nur knapp über Idle dabei - das wird bei Titan wohl genauso sein).

Spiele bei maximaler GPU-Last werden aus meiner Sicht nicht ausgebremst, sondern die GPU bleibt dabei in den (teilweise selbst vorgebbaren) Grenzen von PowerTarget und Temperatur, diese Grenzen schmecken nur nicht jedem.
Natürlich wäre es schön wenn man zu mindestens das PT beliebig nach oben korrigieren könnte, warum das Nvidia nicht mal bei Titan anbietet ist mir auch ein Rätsel.

Dural
2013-02-23, 15:10:30
wow. also ist die Titan im "Echteinsatz" gerade mal 16% schneller als eine 7970 in Fullhd, und gar nur 12% in 2560x1600. Grandios. Da nehm ich doch gleich 2 von diesen guenstigen Rohrkrepierern. :lol:


und das bei "deutlich" geringerem strom (45Watt!!!) verbrauch, titan ist echt ein rohrkrepierer. :freak:


titan ist einer der komplettesten grafikkarte die es jemals gab, eine wirkliche schwach stelle gibt es nicht, das lässt sich NV jedoch richtig teuer bezahlen.

Mr. Lolman
2013-02-23, 15:30:19
titan ist einer der komplettesten grafikkarte die es jemals gab, eine wirkliche schwach stelle gibt es nicht, das lässt sich NV jedoch richtig teuer bezahlen.
Naja, mit höherer Pixelfüllrate könnte sich Titan auch in Auflösungen >2560 ordentlich absetzen...

G3cko
2013-02-25, 15:02:58
und das bei "deutlich" geringerem strom (45Watt!!!) verbrauch, titan ist echt ein rohrkrepierer. :freak:

Ich glaube du hast keine Vorstellung davon was Strom kostet oder?

45 Watt bei 0,26€ je kWatt/h bei 2 Stunden Vollast täglich
pro Tag: 0,02 €
in der Woche (an 7 Tagen): 0,16 €
in 4 Wochen: 0,66 €
im Jahr: 8,52 €
in 5 Jahren: 42,59 €
in 10 Jahren: 85,18 €

Und jetzt halt dich fest, - nicht das du vom Stuhl fällst. Die 7970-OC-Karten sind nicht nur genauso schnell wie die GHz-Versionen sondern auch günstiger und sparsamer.

Eine 7970 OC mit 1Ghz kostet 320€. Geforce Titan ca 900€. Macht eine Differenz von 580€ für 20% Mehrleistung. Damit sich die Mehrkosten bei 2 Std Volllast amortisieren musst du fast 68 Jahre warten.

Und du willst mir jetzt bestimmt erzählen, dass die 20% in 68 Jahren noch relevant sind? Oder du die Karte noch aktiv verwendest? Wo hier jeder die Graka so häufig wechselt wie seine Unterhose. ;D

Nur der Idle-Verbrauch ist heute noch wichtig. Man lässt den Rechner auch mal an oder surft im Web. Da sind Karten aller GTX480, oder AMD4870 ein absolutes Nogo mit teilweise über 60Watt im Idle. Mit ZeroCore ist man daher nicht schlechter trotz höherem Lastverbauch.

Mein Q6600-System verbraucht 200Watt im Idle. Das sind 100€ im Jahr bei 6std. Das ist interessant, aber nicht 45Watt Vollast-Differenz... :freak:

Palpatin
2013-02-25, 15:35:02
Naja, lass es mal sommer mir 30° im Schatten werden:ulol: andererseits spielt da ja eh keiner.
Zummindest niemand der sich finanziell zwischen der Anschaffung einer Klimaanlage oder einer Titan entscheiden musste und Titan gewählt hat. :D

PCGH_Carsten
2013-02-28, 14:15:24
bleibt also nur .fr und PCGH. Wobei man bei PCGH aufgrund der fehlenden Messung der anliegenden Taktraten nicht wissen kann welches nun eigentlich das richtige Ergebniss ist

Versteh ich nicht. Welche Messung fehlt dir genau? Welche Taktraten bei 28 °C Ansaugtemperatur anlagen? Die sind von Spiel zu Spiel, ja von Auflösung zu Auflösung unterschiedlich.

fondness
2013-02-28, 14:22:31
Versteh ich nicht. Welche Messung fehlt dir genau? Welche Taktraten bei 28 °C Ansaugtemperatur anlagen? Die sind von Spiel zu Spiel, ja von Auflösung zu Auflösung unterschiedlich.

Wenn wir schon bei "wünsch dir was" sind: :D
Warum eigentlich genau 28°C? In einem geschlossenen Gehäuse kann es im Sommer schnell mal 40°C haben. Ist vielleicht auch ein Test mit unterschiedlichen Umgebungstemperaturen geplant?

G3cko
2013-02-28, 14:51:35
Oh ja ein Sommer spezial. Boostet er noch oder schläft er schon. ;D

Betriebsausflug in die Sahara, oder die nächste Trockensauna. Je nach Budget und Laune vom Chef. ;)

Knuddelbearli
2013-02-28, 15:29:18
Versteh ich nicht. Welche Messung fehlt dir genau? Welche Taktraten bei 28 °C Ansaugtemperatur anlagen? Die sind von Spiel zu Spiel, ja von Auflösung zu Auflösung unterschiedlich.

ebenso sind die fps in jedem speil unterschiedlich trotzdem misst man sie ^^

ist ja nicht so das man deshalb extra nochmal alles benchen muss das geht ja zugleich

PCGH_Carsten
2013-03-01, 08:40:15
Wenn wir schon bei "wünsch dir was" sind: :D
Warum eigentlich genau 28°C? In einem geschlossenen Gehäuse kann es im Sommer schnell mal 40°C haben. Ist vielleicht auch ein Test mit unterschiedlichen Umgebungstemperaturen geplant?

28 °C ist ein realistischer, aber kein Worst-Case-Wert. Um das Case-Wortspiel nicht verkommen zu lassen: Klar gibt's beengte Gehäuse voller Komponenten, viel Staub, wenigen Lüftern und so weiter, aber von einer "Enthusiastischen Zielgruppe", die die Titan allein schon aufgrund des Preises anpeilt, kann man schon annehmen, dass da ein frischer Wind im Gehäuse herrscht.

Ich habe derzeit keine weiteren Titan-Tests auf dem Plan.

ebenso sind die fps in jedem speil unterschiedlich trotzdem misst man sie ^^

ist ja nicht so das man deshalb extra nochmal alles benchen muss das geht ja zugleich
Andersrum wird ein Schuh draus: Erst messen, dann benchen. Aber das steht alles in unserem Test. Den hab ich glaube ich schonmal verlinkt, daher will ich euch nicht damit zuspammen.

Da bei der GTX Titan der Temperatur eine zentrale Rolle zufällt, haben wir für den Test einen großen Aufwand getrieben und die erreichten Taktraten bei 28° C warmer Ansaugluft für jedes einzelne Benchmarkspiel in jeder Auflösung separat protokolliert und für einen der Benchmarkdurchläufe per Nvidia Inspector konstant erzwungen. Denn ein weiterer Punkt kommt hinzu:
Übliche Benchmarksequenzen sind 30 bis 60 Sekunden lange Gameplay-Schnipsel, denen in der Regel ein Ladevorgang vorausgeht. Hier kann eine GPU mit Boost-2.0-Technik sozusagen für den Benchmark "Schwung holen" und dank der durch die Leerlauf-Ladephase kühleren GPU einen Teil des Tests mit höheren Taktraten fahren. Das entspricht jedoch nicht dem, was der Spieler im Alltag erleben wird, da hier längere Spielphasen anfallen, in denen die Temperatur stärker ansteigt und der Takt entsprechend weiter absinkt. Daher würde ein solcher "Standard-Test" unserem Anspruch kaum gerecht werden, aussagekräftige Spiele-Benchmarks zu liefern.

Die Takte (in 1680-1920-2560) auf die wir die "28 °C"-Benches fixiert haben sind nicht immer auf den korrekten 13er-Schritt gerundet, manchmal hab ich das beim GPU-z-Ablesen schlicht vergessen, kann also um 1 MHz nach oben oder unten abweichen:
Anno 849-849-836
Batman 953-953-927
Battlefield 953-943-862
Crysis 2 875-862-849
Crysis WH 901-888-888
Dirt Showdown 875-849-849
MP 3 927-914-888
Metro 927-914-914
SC2 875-927-888
Skyrim 927-914-849
Witcher2 927-927-914

(del676)
2013-03-01, 08:50:18
Die Werte lassen schliessen, dass ihr nicht lange genug erhitzen habt lassen. Bei der 3. Messung ist die Karte meist noch geringer getaktet. Was waere bei der 5. oder 10 Messung? Ich spiel ja nicht 2 Minuten am Stueck, sondern 60 und mehr. Und beim Gamen wird nicht nur die GPU warm, sondern auch die CPU, der Chipsatz, die Spannungswandler am Mobo. Und dann moecht ich nach ner Stunde Crysis im Sommer mal sehen, wie die Karte 28° IM GEHAEUSE(!) ansaugen soll, wenns im Raum schon 30 hat. Ich bin mir sicher, meine Karten saugen im Winter schon waerme Luft als 28° an, wenn ich laenger Arma2 spiele.

Grestorn
2013-03-01, 08:53:37
Bei der dritten Messung ist auch die Auflösung am höchsten (2560), also ist auch logisch, dass die Last steigt und damit die Temperatur - was wiederum zu einem Absinken des max. Takts führt.

(del676)
2013-03-01, 08:55:50
Trotzdem bringt ein Benchmark Run von 1-2 Minuten keine realistische Messung. Da gehoert mindestens 30 Minuten geloopt und das Ergebnis vom letzten Test genommen! Aber anscheinend ist es nicht mehr "in" Komponenten so zu testen, wie sie von den Kunden dann verwendet werden.

Grestorn
2013-03-01, 09:05:41
Woher weißt Du wie lange man das hat "einbrennen" lassen? Die Temperatur erreicht erfahrungsgemäß bei einer gegebenen Last sehr schnell einen bestimmten Level und bleibt dann recht konstant - das weiß eigentlich jeder, der selbst OC betreibt und die Temperaturen dabei überwacht.

Dein Posting klingt eher so, als wolltest um jeden Preis bashen - wobei mir nicht ganz klar ist, ob das gegen die PCGH oder gegen nVidia's Boost 2.0 gerichtet ist.

MadManniMan
2013-03-01, 09:09:39
Dennoch breche ich doch eine Messreihe nicht nach genau der Messung ab, die das erste Mal eine Veränderung aufweist. Eher führe ich die Messreiche so lange fort, bis ich mit einer gewissen festzulegenden Wahrscheinlichkeit über mehrere Messungen stabile Werte erhalte.

(del676)
2013-03-01, 09:11:20
Gegen beides. ;)
Ka was du uebertaktest, aber nach 2 Minuten ist da gar kein Maximum erreicht. :rolleyes:
Hoechstens eine Temperatur wird erreicht, die gehalten wird indem sich der Luefter immer schneller drehen - bis dann mal wirklich das Maximum erreicht wird. IM Gehaeuse wirds deshalb aber trotzdem waermer. Solltest mal einen Temperatursensor IN dein Gehause pflanzen, und eine Temperatur/Zeit Kurve aufnehmen. ;)
Prime95 laesst du ja auch nicht 2 Minuten laufen, und weisst dann, dass die CPU stabil ist.

PCGH_Carsten
2013-03-01, 09:11:33
Wir haben circa 30 Minuten pro Setting bei konstanter Spielelast (also ohne Ladebildschirme etc.) "einwirken" lassen und dazwischen die Karte auf Leerlauftemp unter 40°C kühlen lassen. Dass die 2560er i.d.R. die niedrigsten Takte erzielt, ist mMn naheliegend: Höchste Last, höchster Energieumsatz, höchste Temperatur, niedrigerer Takt.

Die Werte sind übrigens nicht die 1., 2. usw. Messung, sondern wie geschrieben die Endresultate in unserem Versuchsaufbau für die jeweiligen Auflösungen.

Danke, dass ihr uns so viel Kompetenz zutraut. ;)

(del676)
2013-03-01, 09:13:02
Warum schreibt ihr das dann nicht in euer Review? IMHO eine sehr sehr wichtige Information!!!

Grestorn
2013-03-01, 09:19:13
Gegen beides. ;)
Ka was du uebertaktest, aber nach 2 Minuten ist da gar kein Maximum erreicht. :rolleyes:
Hoechstens eine Temperatur wird erreicht, die gehalten wird indem sich der Luefter immer schneller drehen - bis dann mal wirklich das Maximum erreicht wird. IM Gehaeuse wirds deshalb aber trotzdem waermer. Solltest mal einen Temperatursensor IN dein Gehause pflanzen, und eine Temperatur/Zeit Kurve aufnehmen. ;)
Prime95 laesst du ja auch nicht 2 Minuten laufen, und weisst dann, dass die CPU stabil ist.

Stabilitätsmessungen haben auch nichts mit der Temperatur zu tun.

Sorry, wenn Du ein System hast, bei der trotz konstanter Last die Temperatur langsam immer weiter steigt, dann hast du ein echtes Kühlungsproblem. Bei einer Wakü könnte ich mir das vorstellen, wenn das Wasser immer weiter erhitzt, wenn Du also nicht genügend Kühlleistung in den Radiatoren hast. Bei einer Luftkühlung wirst Du die Endtemperatur in wenigen Sekunden haben, es sei denn, Du hast einen echten Wärmestau im Gehäuse. Das wäre aber extrem ungesund.

Oder der Raum in dem sich der Rechner befindet, ist so klein, dass sich die Temperatur der Luft im Raum durch den Rechner signifikant(!) erhöht. Aber auch das wäre ein anders gelagertes Problem :)

Grestorn
2013-03-01, 09:20:00
Warum schreibt ihr das dann nicht in euer Review? IMHO eine sehr sehr wichtige Information!!!

Das Magazin ist doch noch gar nicht raus?! Woher weißt du, was sie da schreiben und was nicht? Carsten hat hier doch nur einen kleinen Ausschnitt reingeschrieben.

(del676)
2013-03-01, 09:27:55
Ich glaub du versteht gewisse Zusammenhaenge einfach nicht, oder willst mich nur trollen. In beiden Faellen, mir egal. EOD.

Grestorn
2013-03-01, 09:30:33
Ich glaub du versteht gewisse Zusammenhaenge einfach nicht, oder willst mich nur trollen. In beiden Faellen, mir egal. EOD.

EOD entbindet einen ja wunderbar seine Beschuldigungen und Behauptungen begründen zu müssen. Sehr beeindruckende Argumentation :) Hat mich jedenfalls total überzeugt. :rolleyes:

Skysnake
2013-03-01, 09:44:06
Die Takte (in 1680-1920-2560) auf die wir die "28 °C"-Benches fixiert haben sind nicht immer auf den korrekten 13er-Schritt gerundet, manchmal hab ich das beim GPU-z-Ablesen schlicht vergessen, kann also um 1 MHz nach oben oder unten abweichen:
Anno 849-849-836
Batman 953-953-927
Battlefield 953-943-862
Crysis 2 875-862-849
Crysis WH 901-888-888
Dirt Showdown 875-849-849
MP 3 927-914-888
Metro 927-914-914
SC2 875-927-888
Skyrim 927-914-849
Witcher2 927-927-914
Also gerade da, wo man am meisten Leistung braucht, hohe Auflösung, bekommt man die geringste Leistung :ugly: YEHA! Wat ne Logik...

...QUOTE]
Boah, das sind unterschiedliche Auflösungen und keine direkten Messungen nacheinander... Les doch bitte erst richtig, bevor du die Keule auspackst. Carsten hats ja aber inzwischen klar gestellt.
[QUOTE=Grestorn;9675302]Bei der dritten Messung ist auch die Auflösung am höchsten (2560), also ist auch logisch, dass die Last steigt und damit die Temperatur - was wiederum zu einem Absinken des max. Takts führt.
Was so ziemlich das bescheuertste für den Kunden ist... Gerade DA, wo man so ne "Überkarte" haben will, also extreme Auflösung usw. bricht sie ein :ugly:

Das ist sowas von bescheuert... Für FullHD oder gar weniger! kauf ich mir keine solche Karte...

Damit kann man wohl wirklich festhalten, dass der Turbo einfach nur abartiges Gecheate ist :down:

Wir haben circa 30 Minuten pro Setting bei konstanter Spielelast (also ohne Ladebildschirme etc.) "einwirken" lassen und dazwischen die Karte auf Leerlauftemp unter 40°C kühlen lassen. Dass die 2560er i.d.R. die niedrigsten Takte erzielt, ist mMn naheliegend: Höchste Last, höchster Energieumsatz, höchste Temperatur, niedrigerer Takt.

Die Werte sind übrigens nicht die 1., 2. usw. Messung, sondern wie geschrieben die Endresultate in unserem Versuchsaufbau für die jeweiligen Auflösungen.

Danke, dass ihr uns so viel Kompetenz zutraut. ;)
Danke :up:

Das Ergebnis ist aber einfach desaströs in meinen Augen. Vor allem kann man damit eigentlich alle Tests so ziemlich in die Tonne treten. Insbesondere bzgl Zukunftsaussichten. Die Karte wird eher schlechter als besser, da Sie immer niedriger taktet je mehr Sie gefordert wird -..-

PCGH_Carsten
2013-03-01, 09:45:17
Das Magazin ist doch noch gar nicht raus?! Woher weißt du, was sie da schreiben und was nicht? Carsten hat hier doch nur einen kleinen Ausschnitt reingeschrieben.

:) Ich fürchte, auch im Heft steht es nicht so deutlich, wie es im Nachgang betrachtet offenbar nötig zu sein scheint. ;)

Grestorn
2013-03-01, 09:49:24
Also gerade da, wo man am meisten Leistung braucht, hohe Auflösung, bekommt man die geringste Leistung :ugly: YEHA! Wat ne Logik...
Man bekommt so viel Leistung, wie das Kühlsystem in der Lage ist, zu verkraften. Das ist sogar sehr logisch.

Wenn man mehr Leistung auch bei hoher Belastung will, muss man "nur" seine Kühlung verbessern.

Pirx
2013-03-01, 10:17:32
... Du die Endtemperatur in wenigen Sekunden haben, es sei denn, Du hast einen echten Wärmestau im Gehäuse. Das wäre aber extrem ungesund.
...
Wohl kaum, es heizt sich erstmal langsam alles immer weiter auf, Kühlkörper, Platinen Gehäuse usw.. - das heizt dann schon die Luft etwas vor, die bei der Graka ankommt und bei der CPU ankommt - und da würde ich auch schätzen daß man so 30 min warten sollte, bis sich das wirklich eingepegelt hat.

Knuddelbearli
2013-03-01, 10:21:48
Wir haben circa 30 Minuten pro Setting bei konstanter Spielelast (also ohne Ladebildschirme etc.) "einwirken" lassen und dazwischen die Karte auf Leerlauftemp unter 40°C kühlen lassen. Dass die 2560er i.d.R. die niedrigsten Takte erzielt, ist mMn naheliegend: Höchste Last, höchster Energieumsatz, höchste Temperatur, niedrigerer Takt.

Die Werte sind übrigens nicht die 1., 2. usw. Messung, sondern wie geschrieben die Endresultate in unserem Versuchsaufbau für die jeweiligen Auflösungen.

Danke, dass ihr uns so viel Kompetenz zutraut. ;)


Genau dort am schwächsten wo man die meiste Leistung benötigt, unter hohen Auflösungen ... Auch ein Fail von Boost 2.0 ...
in BF3 sind ja mal eben 10% weniger Takt unter 1920

Grestorn
2013-03-01, 10:23:19
Wohl kaum, es heizt sich erstmal langsam alles immer weiter auf, Kühlkörper, Platinen Gehäuse usw.. - das heizt dann schon die Luft etwas vor, die bei der Graka ankommt und bei der CPU ankommt - und da würde ich auch schätzen daß man so 30 min warten sollte, bis sich das wirklich eingepegelt hat.
Nun, das widerspricht eindeutig meinen Beobachtungen.

Die meisten Komponenten, die wärmetechnisch relevant sind, sind aus Metall. Und dieses erhitzt sich sehr schnell. Metall hat eine hohe Leitfähigkeit, was Wärme angeht, aber meist eine eher geringe Wärmekapazität, kommt also schnell auf Temperatur und kühlt auch wieder schnell ab (da gibt es Ausnahmen, z.B. Aluminium, Magnesium).

Grestorn
2013-03-01, 10:26:01
Genau dort am schwächsten wo man die meiste Leistung benötigt, unter hohen Auflösungen ... Auch ein Fail von Boost 2.0 ...
in BF3 sind ja mal eben 10% weniger Takt unter 1920

Erwartet ihr denn ernsthaft, dass der Maximale Takt bei hoher Belastung steigt? Das ist doch widersinnig.

Boost ist nichts anderes als ein automatisches Übertakten im Rahmen dessen, was Kühlung und Stromversorgung hergeben. Alles andere sind nur logische, phsyikalische Konsequenzen.

Das Wort "Fail" verwendet ihr ja nur zum provozieren. Alles, was der "Gegner" macht, muss am besten sofort zum "Fail" erklärt werden. Armselige Diskussionskultur.

Mr. Lolman
2013-03-01, 10:45:43
Nun, das wiederspricht eindeutig meinen Beobachtungen.

Die meisten Komponenten, die wärmetechnisch relevant sind, sind aus Metall. Und dieses erhitzt sich sehr schnell. Metall hat eine hohe Leitfähigkeit, was Wärme angeht, aber meist eine eher geringe Wärmekapazität, kommt also schnell auf Temperatur und kühlt auch wieder schnell ab (da gibt es Ausnahmen, z.B. Aluminium, Magnesium).

Es wird aber nicht Metall angesaugt, sondern Luft... ;)

robbitop
2013-03-01, 11:00:39
IMO ist es zumindest eine Verzerrung der Messergebnisse. Die meisten Benchmarks dauern nicht sehr lange. Eine kühle GPU holt sozusagen Schwung und zieht damit die fps nach oben. Wenn man hingegen Stundenlang (also realworld) spielt, fehlen einem dann ein Großteil der Mehr-FPS.
Das Wort "Cheat" ist IMO zu stark - aber verzerren tut es die Ergebnisse zu Gunsten für NV sicherlich schon.
Konsequenz ist, dass AMD dort gleichziehen muss, um den Nachteil wettzumachen.

Grestorn
2013-03-01, 11:11:41
Es wird aber nicht Metall angesaugt, sondern Luft... ;)

Und wodurch erwärmt sich die (aus der Umgebung angesaugte) Luft? Richtig: Durch die Metalle, über die sie streicht.

Wir sprechen ja nicht von einem statischen Luftraum. Wenn Du den hast, ist Deine Lüftung scheiße und dann gilt, was ich eingangs schrieb: Wenn sich die Temperatur langsam immer weiter erhöht, dann hast Du ein Problem mit Deiner Lüftung.

Angiesan
2013-03-01, 11:12:09
Damit kann man wohl wirklich festhalten, dass der Turbo einfach nur abartiges Gecheate ist :down:
Danke :up:
Das Ergebnis ist aber einfach desaströs in meinen Augen. Vor allem kann man damit eigentlich alle Tests so ziemlich in die Tonne treten. Insbesondere bzgl Zukunftsaussichten. Die Karte wird eher schlechter als besser, da Sie immer niedriger taktet je mehr Sie gefordert wird -..-
Nein ist es nicht! Nvidia spricht von 837 MHZ und dann von einem durchschnittlichen Boost. Das das Ergebnis nicht so ist wie viele es sich erhofft haben macht die Technik nicht schlecht und macht daraus auch kein Gecheate:wink: Es wird erst zu dem wenn man denn so will, wenn man falsch testet. Viele waren enttäuscht wie die ersten NV eigenen Tests zu Crysis 3 durchsickerten, die meisten Tests haben dann die Fanatiker und Fanboys wieder ruhig gestellt, und das Goldene Kalb konnte wieder gehuldigt werden.:wink:
Wir haben circa 30 Minuten pro Setting bei konstanter Spielelast (also ohne Ladebildschirme etc.) "einwirken" lassen und dazwischen die Karte auf Leerlauftemp unter 40°C kühlen lassen. Dass die 2560er i.d.R. die niedrigsten Takte erzielt, ist mMn naheliegend: Höchste Last, höchster Energieumsatz, höchste Temperatur, niedrigerer Takt.

Die Werte sind übrigens nicht die 1., 2. usw. Messung, sondern wie geschrieben die Endresultate in unserem Versuchsaufbau für die jeweiligen Auflösungen.

Danke, dass ihr uns so viel Kompetenz zutraut. ;)

Da kann ich nur mal sagen Daumen hoch, das mit den 30 Minuten habe ich entweder überlesen oder du hattest es nicht geschrieben, dass reicht auf alle Fälle in einem "normalen" Case. Ihr habt auch meinen Respekt für den Mut dies zu tun, denn andere Redaktionen haben es sich da etwas einfacher gemacht und nicht den Zorn der Verblendeten geerntet:freak:In einigen Foren ist es ja so, dass wenn man auf euren oder den Test der CB verweist der Blasphemie beschuldigt wird. Wenn wir 200 Jahre zurück wären, wäre die Redaktionen schon gestürmt und die armen Redakteure würden schon auf dem nvidianischen Scheiterhaufen brennen:biggrin:
Dank eurem Test auch bezüglich der MR habe ich mich trotz dieser Problematik für eine GTX 690 und gegen eine Titan entschieden.
Erwartet ihr denn ernsthaft, dass der Maximale Takt bei hoher Belastung steigt? Das ist doch widersinnig.

Boost ist nichts anderes als ein automatisches Übertakten im Rahmen dessen, was Kühlung und Stromversorgung hergeben. Alles andere sind nur logische, phsyikalische Konsequenzen.

Das Wort "Fail" verwendet ihr ja nur zum provozieren. Alles, was der "Gegner" macht, muss am besten sofort zum "Fail" erklärt werden. Armselige Diskussionskultur.
Ich kann das auch nicht mehr verstehen, NVidia gibt doch expliziet vor garantiert 837MHz und durchschnittlicher Boost xxxx MHz.
das sich Big Kepler etwas anders verhält wie GK104 ist doch nun bekannt, da der Temp-Faktor noch hinzugekommen ist. Bei GK 104 konnte es schon vorkommen, das mit fallenden FPS tatsächlich der Boost eine Spannungs und Takterhöhung zeigte, sehr gutes Beispiel wo man das beobachten kann ist Crysis 2 ich finde eher das verwunderlich und nicht das Verhalten von Titan mit Boost 2 denn das kann man erwarten wenn man verstehen will was es ist,eine automatische Übertaktung je nach Leistungs- und Temperatur Budget.
Vielleicht sollte Nvidia noch hinzuschreiben das dieser unter normalen Umständen bei einer Umgebungstemeperatur von xx erreicht wird wie es z.B. die Autohersteller auch machen, Leistung wird bei einer entsprechenden Luftdichte gemessen, damit später nicht ein Peruaner oder Össi kommen kann und sagen aber auf 2500 Mtr. über nn hat mein Auto nur noch xy KW:biggrin:

Grestorn
2013-03-01, 11:15:22
IMO ist es zumindest eine Verzerrung der Messergebnisse. Die meisten Benchmarks dauern nicht sehr lange. Eine kühle GPU holt sozusagen Schwung und zieht damit die fps nach oben. Wenn man hingegen Stundenlang (also realworld) spielt, fehlen einem dann ein Großteil der Mehr-FPS.
Das Wort "Cheat" ist IMO zu stark - aber verzerren tut es die Ergebnisse zu Gunsten für NV sicherlich schon.
Konsequenz ist, dass AMD dort gleichziehen muss, um den Nachteil wettzumachen.

Ich sehe den Cheatfaktor nicht, da die einzelnen Ergebnisse unter gleichen Bedingungen immer noch korrekt und auch zur Konkurenz vergleichbar bleiben. Dass man einen Bench nicht in den ersten 30 Sekunden nach dem ersten Kaltstart abliest, sollte eigentlich jedem Tester klar sein.

fondness
2013-03-01, 11:31:17
Ich sehe den Cheatfaktor nicht, da die einzelnen Ergebnisse unter gleichen Bedingungen immer noch korrekt und auch zur Konkurenz vergleichbar bleiben. Dass man einen Bench nicht in den ersten 30 Sekunden nach dem ersten Kaltstart abliest, sollte eigentlich jedem Tester klar sein.

Naja, nur sind die Bedingungen eben bei jedem anders. Schon ein andere Testsample kann andere Ergebnisse liefern, da Wärmeleitpaste und Kühler nicht immer exakt identisch aufgebracht sind. Dh man kann von den Ergebnisse nicht mehr auf seinen PC schließen. Ich stelle mir das auch problematisch bei SLI vor: Die obere Karte die kaum Luft bekommt taktet niedriger als die untere, was zu unsymmetrischem SLI und damit wohl zwangsläufig zu µRucklern führen muss. Von Cheat will ich nicht reden, aber ich finde dieses kaum mehr vorhersehbare Verhalten alles andere als gut. Ich will eine Leistung die unter allen Bedingungen Gültigkeit hat.

Grestorn
2013-03-01, 11:34:43
Naja, nur sind die Bedingungen eben bei jedem anders. Schon ein andere Testsample kann andere Ergebnisse liefern, da Wärmeleitpaste und Kühler nicht immer exakt identisch aufgebracht sind. Dh man kann von den Ergebnisse nicht mehr auf seinen PC schließen.Das kann man bei OC Ergebnissen doch nie?!

Deswegen können die Reviewern ja auch immer Boost disablen und mit dem garantierten Takt benchen.

Ich stelle mir das auch problematisch bei SLI vor: Die obere Karte die kaum Luft bekommt taktet niedriger als die untere, was zu unsymmetrischem SLI und damit wohl zwangsläufig zu µRucklern führen muss. Von Cheat will ich nicht reden, aber ich finde dieses kaum mehr vorhersehbare Verhalten alles andere als gut.
Aufgabe des Treibers, das auszugleichen. Die Speedunterschiede bewegen sich aber im einstelligen Prozentbereich. Gegen die Probleme, die CrossFire offenbar bei manchen Spielen zu haben scheint, ist das absolut zu vernachlässigen.

Skysnake
2013-03-01, 11:36:57
Dann will ich aber mal die Leute hoeren, wenn man nur mit 837MHz bencht....

Genau das muesste man aber fast schon machen...

Grestorn
2013-03-01, 11:39:04
Dann will ich aber mal die Leute hoeren, wenn man nur mit 837MHz bencht....

Genau das muesste man aber fast schon machen...

Als zusätzlichen Vergleichswert für den Worst-Case: Sicher. Denn das ist die zugesicherte Eigenschaft.

fondness
2013-03-01, 11:39:11
Das kann man bei OC Ergebnissen doch nie?!

Deswegen können die Reviewern ja auch immer Boost disablen und mit dem garantierten Takt benchen.

Was ist denn der garantierte Takt? Laut NV AFAIK 876Mhz. Wenn ich mir die Werte von "PCGH-Carsten" ansehen liegt zB bei Anno nur 836Mhz Takt an. Womöglich "boostet" die Karte in Extremsituationen sogar noch weiter runter.

Grestorn
2013-03-01, 11:41:55
Was ist denn der garantierte Takt? Laut NV AFAIK 876Mhz. Wenn ich mir die Werte von "PCGH-Carsten" ansehen liegt zB bei Anno nur 836Mhz Takt an. Womöglich "boostet" die Karte in Extremsituationen sogar noch weiter runter.

837 MHz.

fondness
2013-03-01, 11:43:30
837 MHz.

Hm, warum genau benchen dann PCGH und auch andere Seiten mit einem fixierten Takt von 876Mhz?

boxleitnerb
2013-03-01, 11:43:44
Laut Nvidia sorgt das Framemetering dafür, dass es zwischen leicht unterschiedlich taktenden Karten im SLI keine Probleme gibt. Wurde beim letzten PCGH Themenabend gefragt.

robbitop
2013-03-01, 11:44:02
Ich sehe den Cheatfaktor nicht, da die einzelnen Ergebnisse unter gleichen Bedingungen immer noch korrekt und auch zur Konkurenz vergleichbar bleiben. Dass man einen Bench nicht in den ersten 30 Sekunden nach dem ersten Kaltstart abliest, sollte eigentlich jedem Tester klar sein.
Allein die Wärmekapazität des Kühlers genügt, um diesen Schwung immer wieder zu holen. Dazu ist kein Kaltstart nötig. Die GPU wird nach Beendigung der Timedemo schlagartig kühler und die restliche Wärme ist auch sehr schnell wieder aus dem Kühler draussen. Das genügt sicher für eine Sekunden "Schwung" beim nächsten Run. Dort hat man dann vermutlich höhere FPS als Sekunden/Minuten später. Also praxisfern.

Es verkompliziert Vergleiche unnötig.

Wenn man jetzt eine längere Timedemo hätte (oder einen längeren Abschnitt in einem Savegame) und bei jedem Run erst nach ein paar Minuten mit der eigentlichen Messung beginnen würde, wäre es ok. Aber Benchmarks sind zeitaufwändig und deshalb kann man sich das kaum leisten.

Grestorn
2013-03-01, 11:44:02
Hm, warum genau benchen dann PCGH und auch andere Seiten mit einem fixierten Takt von 876Mhz?Das weiß ich nicht.

Grestorn
2013-03-01, 11:46:51
Allein die Wärmekapazität des Kühlers genügt, um diesen Schwung immer wieder zu holen. Die GPU wird nach beendigung der Timedemo schlagartig kühler und die restliche Wärme ist auch sehr schnell wieder aus dem Kühler draussen. Das genügt sicher für eine Sekunden "Schwung" beim nächsten Run. Dort hat man dann vermutlich höhere FPS als Sekunden/Minuten später. Also praxisfern.

Es verkompliziert Vergleiche unnötig.

Es macht das Leben des Testers nicht einfacher, korrekt.

Aber ehrlich: Lasst doch mal das Thema Benchmark außen vor. Für den ANWENDER, speziell dem Anwender, der auf Stabilität wert legt und nicht den längeren Benchmarkbalken zu liebe auch mal nen Crash in Kauf nimmt ("mein System ist 100% stable, es ist das Spiel, dass nicht OC kompatibel ist!!!!") hat Boost letztlich nur Vorteile.

Ich find's echt geil.

Angiesan
2013-03-01, 11:54:31
Mhhh kann ich jetzt nicht sagen, sicherlich ist der Puffer kleiner wie bei den kleinen Keplers aber ob man so restriktiv sein muss?
Wenn ich mit die Tests der CB und PCGH anschaue so kann man wenn man denn will und objektiv ist schon das herausziehen was man meint vorzufinden.

Die Bandbreite ist größer geworden, und nicht mehr so klar zu greifen wie noch zu Zeiten ohne Boost.

Ich glaube richtig interessant wird das dann wenn auch AMD das bei Ihren Produkten in so einer Art verwendet, da wird es mal richtig schlimm weil man dann immer Gründe finden wird warum ein Ergebnis nicht mehr richtig ist.

Die Aufgabe für die Redaktionen wird anspruchsvoller, irgendwann kommen die mit einer Klimakammer um nur gleiche Testbedingungen zu schaffen.
Bei den Typen im Luxx muss es dann aber eher ein Kühlhaus sein:biggrin:

@ PCGH Carsten mal mit Thilo reden und den Verlag schon mal eine Rückstellung bilden lassen für die Investition:biggrin:

MadManniMan
2013-03-01, 11:57:33
Die Werte sind übrigens nicht die 1., 2. usw. Messung, sondern wie geschrieben die Endresultate in unserem Versuchsaufbau für die jeweiligen Auflösungen.

Danke, dass ihr uns so viel Kompetenz zutraut. ;)

Sorry, das habe ich nirgends rausgelesen. ;(

robbitop
2013-03-01, 12:01:04
Es macht das Leben des Testers nicht einfacher, korrekt.

Aber ehrlich: Lasst doch mal das Thema Benchmark außen vor. Für den ANWENDER, speziell dem Anwender, der auf Stabilität wert legt und nicht den längeren Benchmarkbalken zu liebe auch mal nen Crash in Kauf nimmt ("mein System ist 100% stable, es ist das Spiel, dass nicht OC kompatibel ist!!!!") hat Boost letztlich nur Vorteile.

Ich find's echt geil.
Als Anwender hat es keinen Nachteil. Eher leichte Vorteile. Da stimme ich zu. Aber darum ging es hier ja nicht. Es ging darum, ob NV sich damit bei der Käuferschaft durch Verzerrung der Messergebnisse (gekauft wird nunmal nach Balken von Default-Karten) einen Vorteil verschafft. Und IMO ja - das ist der Fall.
Die Vielzahl der Redakteure ist leider nicht so differenziert, wie es einige wenige Vorbilder sind. Die Vielzahl bencht stur durch. Und daraus resultiert nunmal ein Gesamtbild.

Grestorn
2013-03-01, 12:09:17
Ich sehe das anders. Ich denke, die meisten sehen das im Benchmarkvergleich eher als Nachteil, da die Werte eben nicht mehr garantiert sind.

Ich denke eher, nVidia hat diesen Nachteil eher in Kauf genommen, weil es eben objektiv dem Anwender einen Mehrwert bringt und hofft, dass dies auch so angenommen wird.

robbitop
2013-03-01, 12:11:22
Die meisten denken gar nicht. Und lesen kaum. Die schauen auf die Balken oder auf das berühmte Performancerating. Differenzieren tun leider die wenigsten.
Und dort bringt es eindeutig Vorteile.

gnahr
2013-03-01, 12:24:25
und willst du mal wissen wer schuld ist?
die benchmarks.
wenn sie nicht die realität abbilden taugen sie nen käse und gleichmäßige last zeichnet nun wirklich kein spiel aus.
wer bencht wird sich über die möglichkeit der leistungssteigerungen nicht ärgern.
wer spielt bekommt jetzt ne dynamische übertaktung die auch overall boden gutmacht. (mir fällt kein spiel ein, bei dem 60grad im case erreicht werden sollen ohne nen ladeschirm beim map-change oder ähnlich zwischendurch).
wer sich hier jetzt pikiert zeigt: faule redakteure die mal wieder über ihre arbeit nachdenken müssen und sich nicht zur realität erden wollen. wer sich noch pikiert zeigt: vollzeit-erbsenzähler die ihre radeon hochloben wollen. als würde die bei n grad core-temp (nehmen wir mal 110°C) nicht den takt brstialisch drosseln oder gar noch boosten...
(nix gegen erbsenzähler oder graka-besitzer, aber die kombination sich über ein positives feature auszulassen ohne es gar selbst evaluiert zu haben... mir fehlen die worte und das obwohl ich schon zum dritten mal den lesern hier das wort "pikiert" unter die nase reibe.)

Iruwen
2013-03-01, 12:54:44
Eben, wie bei der Frametimeproblematik die jetzt erst in Form von neuen Messungen und Messmethoden bedeutsamer wird versteifen sich einige auf uralte Abläufe "weil man das schon immer so gemacht hat". Da seh ich, wenn man das Wort bemühen möchte, einen "Fail". Ich finde den Boost auch gut, jeder muss selbst wissen wieviel er in adäquate Kühlung investieren möchte, die Karte reagiert entsprechend.

robbitop
2013-03-01, 13:14:34
Tja leider ist die Ist-Situation nunmal so, dass die meisten Tester sich nicht so viele Gedanken machen wie die PCGH, hardware.fr und ein paar andere.
Das wird auch immer so sein. Das ist blöd - ist aber so. Und genau dort werden Messwerte unnötig verzerrt. Das Feature ist aus Spielersicht wirklich nicht verkehrt.
Um das wieder glattzuziehen müsste AMD es auch einführen und dann wäre es wieder halbwegs vergleichbar.
Denn alle Tester der Welt zu erziehen bzw wenigstens den Großteil, wird niemandem gelingen.

Iruwen
2013-03-01, 13:19:47
Um das wieder glattzuziehen müsste AMD es auch einführen

Da mach ich mir irgendwie wenig Sorgen :D

Knuddelbearli
2013-03-01, 13:24:27
Auch ich habe die Funktion an sich nicht kritisiert sondern nur wie sie in Tests genutzt wird. Dazu hüllt sich NV zu dem Thema komplett in Schweigen, was zwar nachvollziehbar ist, aber trotzdem scheiße ist.

Gerade der Negative Boost ist genial um in älteren Spielen ne Menge Elektrischer Leistung zu sparen.

beim Positiven bin ich mir noch nicht sicher was ich davon halten soll. Je fordernder die Szene ist desto schwächer wird der Boost. Das ist genau das verkehrte. In wenig fordernteren Szenen hat man doch eh schon genug FPS. Bleibt also nur das Automatische OC für Noobs.

1.) Könnte man das aber auch anders lösen, ohne das es Benchergebnisse um über 10% verfälscht
2.) 1k€ Grafikkarte und Noob?

Pirx
2013-03-01, 13:25:27
Da mach ich mir irgendwie wenig Sorgen :D
und was könnte daran so besorgniserregend sein?:confused:

gnahr
2013-03-01, 13:55:16
Um das wieder glattzuziehen müsste AMD es auch einführen und dann wäre es wieder halbwegs vergleichbar.
blödsinn, wenn die schablone zum messen fürs schwein nicht groß genug ist hackt man doch dem schwein kein bein ab zur größenbestimmung in stückchen...
die tester müssen in ihrem test eben ne gute wertung und interpretation der ergebnisse und messwerte abliefern. sorum wird ein schuh draus.
was bringt es wirklich in spielen? ist das gar besser als die messwerte?

was ist ein gutes temperatur-target? 60 oder 90 grad core? die frage gehört ab sofort einfach mit rein in die testberichte und zwar ohne garstig zu werden.
gebt einen dreck auf den 3dmark, dann kommt man doch wieder besser mit nem savegame von gescripteten spielen und ner definierten eingabe über 2-3 stunden. ;D

robbitop
2013-03-01, 14:06:22
blödsinn, wenn die schablone zum messen fürs schwein nicht groß genug ist hackt man doch dem schwein kein bein ab zur größenbestimmung in stückchen...
die tester müssen in ihrem test eben ne gute wertung und interpretation der ergebnisse und messwerte abliefern. sorum wird ein schuh draus.
was bringt es wirklich in spielen? ist das gar besser als die messwerte?

was ist ein gutes temperatur-target? 60 oder 90 grad core? die frage gehört ab sofort einfach mit rein in die testberichte und zwar ohne garstig zu werden.
gebt einen dreck auf den 3dmark, dann kommt man doch wieder besser mit nem savegame von gescripteten spielen und ner definierten eingabe über 2-3 stunden. ;D
Das ist die ideale Wunschvorstellung. Die harte, traurige Realität sieht aber anders aus. Ist so. Und genau dort wird verzerrt. Und zwar für alle, die sich nicht differenziert informieren, bevor sie kaufen. Und das ist die Masse. Und das bewegt dann auf betriebswirtschaftlicher Ebene nunmal u.U. Umsatzzahlen.

Was meinst du, warum die IHVs so ungern von AFR weggehen? Balken. Das ist leider das, was die Masse interessiert.
Wunschvorstellungen über eine bessere Situation bringen da nichts. :(

Mr. Lolman
2013-03-01, 14:15:41
Und wodurch erwärmt sich die (aus der Umgebung angesaugte) Luft? Richtig: Durch die Metalle, über die sie streicht.

Wir sprechen ja nicht von einem statischen Luftraum. Wenn Du den hast, ist Deine Lüftung scheiße und dann gilt, was ich eingangs schrieb: Wenn sich die Temperatur langsam immer weiter erhöht, dann hast Du ein Problem mit Deiner Lüftung.

Kupfer erwärmt sich >10000x schneller als Luft. Auch wenn der Kühlkörper durch die GPU bereits ordentlich aufgeheizt ist, kann die Luft im Gehäuse noch halbwegs kühl sein...

gnahr
2013-03-01, 14:25:07
Was meinst du, warum die IHVs so ungern von AFR weggehen? Balken. Das ist leider das, was die Masse interessiert.
warum sollte man von afr weggehen? unsinn, es muss nur besser integriert werden damit die nachteile nicht auffallen.

wenn du es schon so mit betriebswirtschaft hast:
niemand braucht die technisch beste lösung. eine gute mit der höchsten effektivität tuts auch und zwar viel besser.

und btw.: meine wunschvorstellung heißt realität. weg mit den benchmarks, weg mit der automatisierung, schön testen von hand. hier ist die karte im rechner, setz dich 3 stunden davor und dann schreibst ein schönes 1000worte-fazit, halt kurz und knackig. das für beide karten, dann mixt man etwas in den reviews und dann darf sich jeder seinen gewinner aussuchen. ich hab schonmal gesagt dass ich fast alle vergleichbaren, aktuellen karte für absolut gleichwertig halte. niemand patzt, niemand liefert no-gos ab... wass soll der geiz? mach dich und wir alle anderen mal locker für fortschritt in so einer komfortablen situation und boost ist genau so ein fortschritt. ab in die praxis damit, längere benchmarks usw... (muss mich gerade kurz fassen, mir kämen noch ganz andere sachen in den sinn.)

HarryHirsch
2013-03-01, 14:33:40
[x] Ist mir egal

ich kann diesem boost zeugs eh nix abgewinnen. oc macht damit einfach keinen spaß.
ich fühle mich auch irgendwie bevormundet. wenn ich was einstelle dann soll das auch anliegen und nicht durch irgendwelche mechanismen gedrosselt werden.

robbitop
2013-03-01, 14:35:40
warum sollte man von afr weggehen? unsinn, es muss nur besser integriert werden damit die nachteile nicht auffallen.
Prinzipbedingt kann AFR nie so konsistente Framelatenzen erhalten wie sGPU.
Zwei GPUs, die mit breiten Interfaces verbunden auf einem Package (Interposer) wäre zukünftig eine Option. Würden aber keine längeren Balken dabei herauskommen.


wenn du es schon so mit betriebswirtschaft hast:
Ich habe es nicht "so mit der Betriebswirtschaft". Es sind triviale Zusammenhänge.


niemand braucht die technisch beste lösung. eine gute mit der höchsten effektivität tuts auch und zwar viel besser.
Genau so sieht es aus.

und btw.: meine wunschvorstellung heißt realität.
:|
Das hier entspricht leider nicht der Realität (in der Masse):
weg mit den benchmarks, weg mit der automatisierung, schön testen von hand. hier ist die karte im rechner, setz dich 3 stunden davor und dann schreibst ein schönes 1000worte-fazit, halt kurz und knackig. das für beide karten, dann mixt man etwas in den reviews und dann darf sich jeder seinen gewinner aussuchen. ich hab schonmal gesagt dass ich fast alle vergleichbaren, aktuellen karte für absolut gleichwertig halte. niemand patzt, niemand liefert no-gos ab... wass soll der geiz? mach dich und wir alle anderen mal locker für fortschritt in so einer komfortablen situation und boost ist genau so ein fortschritt. ab in die praxis damit, längere benchmarks usw... (muss mich gerade kurz fassen, mir kämen noch ganz andere sachen in den sinn.)

gnahr
2013-03-01, 15:04:30
"mgpu kann nicht so gut sein wie sgpu"
wayne? das meinte ich vorhin mit realität, es genügt wenn es "gut genug" ist, was jeder für sich definiert. wenn es gut genug ist kann man es vergleichen und für manchen reicht zum bsp schon adaptive vsync.

genauso ist das beim thema boost. zum thema extrem-oc halt ich mal alles zurück, ich glaube das taxt-fixen ist noch nicht der weisheit letzter schuss.

robbitop
2013-03-01, 15:21:55
Selbst SLI ist mit anständigen Erwartungen nicht gut genug. Aber es gibt schlichtweg keine Alternative wenn man die "ultimative" Leistung haben möchte.

Gut genug wäre es, subjektiv empfunden, wenn es keinerlei Nachteile ggü sGPU gäbe. Kein µ-Ruckeln, keine Profile notwendig.

Grestorn
2013-03-01, 16:25:15
Kupfer erwärmt sich >10000x schneller als Luft. Auch wenn der Kühlkörper durch die GPU bereits ordentlich aufgeheizt ist, kann die Luft im Gehäuse noch halbwegs kühl sein...

die Luft steht doch still nicht im Rechner, sie wird ständig ausgetauscht! Deswegen hat sie keine Chance nennenswert wärmer zu werden ab einer gewissen Grundtemperatur, die eben durch die Qualität der Luftzirkulation bestimmt wird.

Das ist jetzt aber das letzte mal, dass ich das schreibe. Irgendwann muss es reichen.

Iruwen
2013-03-01, 17:06:23
Wenn ich meine Raumtemperatur von 20°C auf 30°C erhöhe wird meine Grafikkarte auch nicht 10°C wärmer, und bei 20°C mehr erst recht nicht 20°C. Die spezifische Wärmekapazität von Wasser ist zwar viermal höher als die von Luft, die ist aber immer noch höher als die von z.b. Aluminium.

gnahr
2013-03-01, 17:10:28
Gut genug wäre es, subjektiv empfunden, wenn es keinerlei Nachteile ggü sGPU gäbe. Kein µ-Ruckeln, keine Profile notwendig.
das ist der nächste unsinn, du musst doch nicht "subjektiv empfunden" hinschreiben. empfinden ist immer subjektiv. ne meinung ist immer subjektiv. objektivität gibt es nicht, dass ist nur eine strömung auf die sich die mehrzahl der disskutanten einigen können, also oftmals ein mittelding, ein zwitter, ein anachronismus wie ich ihn mal geringschätzen möchte aufgrund persönlicher verachtung solcher kompromisse.
wer "subjektiv empfunden" schreibt kann auch "ich persönlich finde" sagen. wie dumm ist das denn? als ob es ein "unpersönliches ich" gäbe...

anyway: gut genug ist, wenn ICH bei MIR keine ruckler (egal ob mini oder maxi-edition) sehe und profile mir schnell genug nachgeliefert werden bzw. ich anhand der technik und des nötigen know-hows ermächtigt werde sie mir selbst nach gutdünken bei bedarf zusammen zu basteln und somit nicht drauf warten muss. nur das drauf warten ist dieser eine und dafür maximal abzulehnende, fehlerhafte zustand, der die vielen verirrten geister dort draußen dazu bringt das gesamte konzept in verruf zu bringen weil sie den mächtigen, ihm innewohnenden zauber samt seiner ganz anderen möglichkeiten nicht annehmen wollen/können.



am besten wär es jetzt einfach mal 3-4 monate still zu halten und zu gucken was die hersteller machen. die evga classified gtx680 war ja sehr nett und musste aus gründen weichen. gelten die für TITAN auch noch? wann wird es extrem-versionen mit eigenen pcbs geben? mehr phasen sind das eine, mehr vram fordert sicher niemand bei verstand, ein adjustable powertarget auf 200% wär mal nett um nicht nur zombie-mods zu sehen unter stickstoff.

Godmode
2013-03-01, 17:39:26
Ich bekomme nächst Woche Titan Karten, dann können wir alles probieren was ihr wollt, von mir aus stelle ich die Kiste neben den Heizkörper. ;)

Hört jetzt bitte mit dieser Diskussion auf. :mad:

Spielt lieber was oder geht ein Bier trinken, ist doch nicht zum aushalten...

Mr. Lolman
2013-03-01, 18:35:41
die Luft steht doch still nicht im Rechner, sie wird ständig ausgetauscht! Deswegen hat sie keine Chance nennenswert wärmer zu werden ab einer gewissen Grundtemperatur, die eben durch die Qualität der Luftzirkulation bestimmt wird.


Jo sicher. Stimmt schon. Bis aber die Grundtemperatur erreicht ist, ist die die GPU Temperaturkurve häufig schon am abflachen. (Natürlich je nach Qualität der Luftzirkulation). Tatsache ist jedenfalls, dass beim Titan die Rechenleistung stärker als bei allen anderen bisherigen Karten von der (Raum-)Temperatur abhängt, und diese unter Dauerlast immer weiter ansteigt - es sei denn man hat ne Klimaanlage in der Bude (oder man hat ein Fenster offen und draussen ists kälter als drinnen).

Und das sind jetzt meine letzten Ausführungen, denn ich bins auch leid naheliegende Dinge ewig lang zu diskutieren!

Grestorn
2013-03-01, 18:40:30
Und das sind jetzt meine letzten Ausführungen, denn ich bins auch leid naheliegende Dinge ewig lang zu diskutieren!

Meine ursprüngliche Aussage war lediglich, dass die Maximaltemperatur bei einer Testreihe relativ schnell erreicht ist - nicht mehr und nicht weniger. Dass die Ausgangstemperatur der Luft eine gewisse (aber nicht sonderlich große) Rolle spielt, habe ich nie in Abrede gestellt.

Ich weiß also gar nicht, worüber Du Dich so echauffierst.

Mr. Lolman
2013-03-01, 18:49:39
Einigen wir uns einfach darauf, dass die GPU Temperatur grundsätzlich von der

Qualität des Kühlers (und die ist beim Titan über jeden Zweifel erhaben)
Temperatur + Luftzirkulation des Gehäuses (nicht generell quantifizierbar)
Temperatur + Luftzirkulation im Raum (nicht generell quantifizierbar)

abhängig ist.

Man kann mit High End-PCs unter Last kleine Räume durchaus ganz gut heizen und nicht umsonst haben die meisten Serverräume eine dedizierte Klimalösung ;)

Grestorn
2013-03-01, 18:55:34
Einigen wir uns einfach darauf, dass die GPU Temperatur grundsätzlich von der

Qualität des Kühlers (und die ist beim Titan über jeden Zweifel erhaben)
Luftzirkulation des Gehäuses (nicht generell quantifizierbar)
Luftzirkulation im Raum (nicht generell quantifizierbar)

abhängig ist.

Man kann mit High End-PCs unter Last kleine Räume durchaus ganz gut heizen und nicht umsonst haben die meisten Serverräume eine dedizierte Klimalösung ;)

Letzteres hatte ich ähnlich ja bereits selbst geschrieben. Keinerlei Widerspruch gegen Deine Aussagen. Aber die standen hier auch nie zur Debatte.

Die von mir beanstandete Aussage war, dass alle Tests fürn Eimer wären, weil die Tester nicht stundenlang "eingebrannt" haben, in der Annahme, der Rechner müsse sich erst richtig erwärmen um realistische Boost 2.0 Ergebnisse zu erhalten. Was quatsch ist. Im Normalfall ist eine stabile Temperatur schon in wenigen Minuten nach dem Starten des Rechners erreicht. Und wenn der Rechner schon eine Weile läuft und immer mal wieder von Last in Normalbetrieb geht, reichen sogar nur ein paar Sekunden Volllast bis die Maximaltemperatur wieder erreicht wird.

Auch die Lufttemperatur in einem kleinen Raum wird sich bestenfalls um 5 Grad oder so erhöhen, was nur einen ziemlich kleinen Einfluss auf die Gesamtaktrate im Boost haben wird. Die GPU bekommt dadurch ja bestenfalls eine um ein oder zwei Grad höhere Temperatur ab.

(del676)
2013-03-01, 19:09:06
Nicht rumluegen anfangen. Wir haben von 30 Minuten erwaermen gesprochen. Nicht stundenlang.

Im nachhinein falsches hinterm Ruecken behaupten, erbaermlich deine Diskussionskultur.

Im uebrigen GENAU die 30 Minuten die auch PCGH gewaehlt hat. Komisch was? ;)

Grestorn
2013-03-01, 19:17:07
Nicht rumluegen anfangen. Wir haben von 30 Minuten erwaermen gesprochen. Nicht stundenlang.
*Du* hast von 30 Minuten gesprochen. Bist Du der einzige Teilnehmer in dieser Diskussion?

Ich denke aber, dass auch 5 Minuten Vollast reichen, wenn der Rechner vorher kalt war.

Im uebrigen GENAU die 30 Minuten die auch PCGH gewaehlt hat. Komisch was? ;)Carsten, hast Du beobachtet, wie sich die Taktrate innerhalb dieser 30 Minuten entwickelt hat? Würde mich schon interessieren.

Ich tippe darauf, dass sie sich in den ersten paar Minuten leicht nach unten entwickelt hat, um dann stabil zu bleiben.

(del676)
2013-03-01, 19:24:29
Ich hab ein Infrarot-thermometer. Soll ich mal die Aussenwand des Gehauses messen und schaun wielang sie braucht bis sie aufs Temperaturmaximum kommt? (Aktuell hat sie 30°, obwohl ich vor 15 Minuten mit ArmA2 aufgehoert hab, die CPU wird uebrigens mit einer Wasserkuehlung gekuehlt, deren 2 360er Radis EXTERN montiert sind.)

Im uebrigens sind 5 Minuten auch WESENTLICH laenger als die 1-2 Minuten die ein Benchmark Run dauert. ;)

Grestorn
2013-03-01, 19:34:03
Ich hab ein Infrarot-thermometer. Soll ich mal die Aussenwand des Gehauses messen und schaun wielang sie braucht bis sie aufs Temperaturmaximum kommt? (Aktuell hat sie 30°, obwohl ich vor 15 Minuten mit ArmA2 aufgehoert hab, die CPU wird uebrigens mit einer Wasserkuehlung gekuehlt, deren 2 360er Radis EXTERN montiert sind.) Komisch, mein Gehäuse wird nicht mal Handwarm. ;)

Im uebrigens sind 5 Minuten auch WESENTLICH laenger als die 1-2 Minuten die ein Benchmark Run dauert. ;)Von einem KALTEN sprich AUSGESCHALTETEM Rechner. Man schaltet doch den Rechner nicht Stundenlang aus vor jedem Benchmark Durchgang :)

Jetzt wäre wirklich ein Artikel der PCGH oder eines anderen Magazins interessant, die das mal Untersucht. Durch Boost 2.0 hat man ja direkt eine Kontrolle :)

Ich kann nur sagen, dass sich bei mir beim Temperaturmonitoring keine Veränderung mehr ergibt nachdem der Rechner mehr als ein zwei Minuten auf Volllast läuft. Und das sogar aus dem ausgeschalteten Zustand. Allerdings ist mein Rechner auch kein gutes Beispiel, da Wassergekühlt. Aber auch der Wasserkreislauf erwärmt sich, und trotzdem wirkt sich das nicht nennenswert aus.

Testet es doch einfach selbst: Nehmt irgendeinen heftigen Benchmark und lasst ein Temperaturmonitor mitlaufen. Und schaut wie lange es dauert, bis die Temperatur stabil bleibt.

(del676)
2013-03-01, 19:40:54
Und? Meine Hand hat auch nicht weniger als 30°, Ueberraschung! :rolleyes: :lol:

WELCHE Temperatur?
Du bist dir im klaren, dass die Luefter temperaturgesteuert sind? Meine Atis haben auch super schnell 90°. Weil ich die Luefterkurve dahingehend angepasst hab. Die 90° erreichen sie sogar wenn sie untertaktet sind, weil die Luefter dann nur mit 20% laufen. Wenn sie dann 88 erreichen faengt der Luefter an schneller zu drehen, bei 91-92 pendelt sichs dann ein, egal ob die Karten mit 700mhz laeuft oder 1000. Nichts desto trotz laufen die Luefter nach 15 Minuten sicher schneller als nach 5 Minuten. ;)

Aber wahrscheinlich hat mein mieses Gehaeuse nur zu kleine Luefter: http://cdn.overclock.net/5/52/52a50ff3_vbattach96007.jpeg
JA das sind 3x 23cm Luefter.

:lol:

Grestorn
2013-03-01, 19:42:52
Die GPU Temperatur.

Der Lüfter spielen da keine so große Rolle. Der wirkt sich nur auf die maximal Temperatur aus, aber kaum darauf, wie lange es dauert diese zu erreichen.

Aber wenn Du mir nicht glaubst kannst Du ja einfach mal testweise die Standard-Kurve für Deine Lüfter einstellen.

(del676)
2013-03-01, 19:47:24
Bah. Du stellst dich entweder extremst dumm an, oder du bist auf maximale Trollerei aus.
Dass du nicht kapieren willst wie sich ein temperaturgesteuerter Luefter auf eine Temperatur auswirkt, glaube ich dir nicht.
Du kommst auf ignore!! TROLL JEMAND ANDERS!!!!!

StefanV
2013-03-01, 19:54:13
Komisch, mein Gehäuse wird nicht mal Handwarm. ;)
"Handwarm" = unter ~35°C
"Warm" = um die 35-40°C
"Heiß" über 40°C, ab 45°C gibts ja schon die ersten Verbrennungserscheinungen...

Grestorn
2013-03-01, 19:56:00
Bah. Du stellst dich entweder extremst dumm an, oder du bist auf maximale Trollerei aus.
Dass du nicht kapieren willst wie sich ein temperaturgesteuerter Luefter auf eine Temperatur auswirkt, glaube ich dir nicht.
Du kommst auf ignore!! TROLL JEMAND ANDERS!!!!!

Sag mal bist du in der Lage zu lesen was ich schreibe? Offenbar nicht. Wo habe ich bitte geschrieben, dass sich ein Lüfter NICHT auf die Temperatur auswirkt?

Eines kannst Du aber: Beleidigen. Gut gemacht! ;)

HarryHirsch
2013-03-01, 19:59:21
Komisch, mein Gehäuse wird nicht mal Handwarm. ;)

Von einem KALTEN sprich AUSGESCHALTETEM Rechner. Man schaltet doch den Rechner nicht Stundenlang aus vor jedem Benchmark Durchgang :)

Jetzt wäre wirklich ein Artikel der PCGH oder eines anderen Magazins interessant, die das mal Untersucht. Durch Boost 2.0 hat man ja direkt eine Kontrolle :)

Ich kann nur sagen, dass sich bei mir beim Temperaturmonitoring keine Veränderung mehr ergibt nachdem der Rechner mehr als ein zwei Minuten auf Volllast läuft. Und das sogar aus dem ausgeschalteten Zustand. Allerdings ist mein Rechner auch kein gutes Beispiel, da Wassergekühlt. Aber auch der Wasserkreislauf erwärmt sich, und trotzdem wirkt sich das nicht nennenswert aus.

Testet es doch einfach selbst: Nehmt irgendeinen heftigen Benchmark und lasst ein Temperaturmonitor mitlaufen. Und schaut wie lange es dauert, bis die Temperatur stabil bleibt.

kann ich bestätigen, wie es bei lukü aussieht keine ahnung.

es gab aber mal irgendwo einen test wo bewiesen wurde das in einem belüfteten gehäuse die hardware kühler bleibt als in einem offenen gehäuse (oder benchtable).

Knuddelbearli
2013-03-01, 20:03:52
also bei mir mit wakü habe ich selbst nach 30 minuten noch eine leicht steigende temperatur

geht recht flott innerhalb 1 min auf 60 und dan gaaaanz langsam Richtung 70 ( OC 480 mit max spannung und 950Mhz also Verbrauch wohl über 500W)

HarryHirsch
2013-03-01, 20:09:14
also bei mir mit wakü habe ich selbst nach 30 minuten noch eine leicht steigende temperatur

geht recht flott innerhalb 1 min auf 60 und dan gaaaanz langsam Richtung 70 ( OC 480 mit max spannung und 950Mhz also Verbrauch wohl über 500W)

mit wakü sieht man halt besser welche benchscenen fordernd sind und welche nicht.
die temp geht halt hoch und runter der durchschnitt bleibt aber der gleiche.

Grestorn
2013-03-01, 20:34:36
also bei mir mit wakü habe ich selbst nach 30 minuten noch eine leicht steigende temperatur

geht recht flott innerhalb 1 min auf 60 und dan gaaaanz langsam Richtung 70 ( OC 480 mit max spannung und 950Mhz also Verbrauch wohl über 500W)

Überwachst Du die Wassertemperatur? Das klingt danach, als wären Deine Radiatoren leicht überfordert. Die Wassertemperatur sollte eigentlich nicht über einen gewissen Wert hinaus steigen, schon gar nicht über einen solchen Zeitraum.

Skysnake
2013-03-01, 21:03:58
Allein die Wärmekapazität des Kühlers genügt, um diesen Schwung immer wieder zu holen. Dazu ist kein Kaltstart nötig. Die GPU wird nach Beendigung der Timedemo schlagartig kühler und die restliche Wärme ist auch sehr schnell wieder aus dem Kühler draussen. Das genügt sicher für eine Sekunden "Schwung" beim nächsten Run. Dort hat man dann vermutlich höhere FPS als Sekunden/Minuten später. Also praxisfern.

Es verkompliziert Vergleiche unnötig.

Wenn man jetzt eine längere Timedemo hätte (oder einen längeren Abschnitt in einem Savegame) und bei jedem Run erst nach ein paar Minuten mit der eigentlichen Messung beginnen würde, wäre es ok. Aber Benchmarks sind zeitaufwändig und deshalb kann man sich das kaum leisten.
Genau so siehts aus. Man holt sich in kleinen Ruhepausen immer wieder Luft für ne Boost-Phase. Mit den meisten Benchmarks kann man das praktisch nicht mal im Loop ausschalten, da diese meist eben einen Ladebildschirm haben...

Games zockt man aber oft recht lange ohne das sich Ladebildschirme ergeben.

Ich sehe das anders. Ich denke, die meisten sehen das im Benchmarkvergleich eher als Nachteil, da die Werte eben nicht mehr garantiert sind.

Ich denke eher, nVidia hat diesen Nachteil eher in Kauf genommen, weil es eben objektiv dem Anwender einen Mehrwert bringt und hofft, dass dies auch so angenommen wird.
Wo soll das nen Nachteil sein? Banchmarks sind im Normalfall auf recht kurze Zeiten ausgelegt, und da zieht die Karte den vollen Vorteil aus dem Boost, den man als Nutzer im realen Einsatz dann aber meist nicht mehr habt, da man eben länger zockt.

nVidia verschafft sich damit einen sehr großen Vorteil in Benchmarks, welche für viele SEHR netscheidend sind. Und hier zur fordern, dass die Tester halt besser testen müssen ist auch sehr problematisch. Testen kostet eh schon SEHR viel Zeit und ist teuer. Da kann man nicht einfach mal so doppelt oder fünf mal so viel Zeit für ne Karte aufwenden. Ist ja nicht so, dass die Tester die ganze Zeit am Eier schauckeln sind, und hin und wieder mal nen Bench machen...

und willst du mal wissen wer schuld ist?
die benchmarks.
wenn sie nicht die realität abbilden taugen sie nen käse und gleichmäßige last zeichnet nun wirklich kein spiel aus.
wer bencht wird sich über die möglichkeit der leistungssteigerungen nicht ärgern.
wer spielt bekommt jetzt ne dynamische übertaktung die auch overall boden gutmacht. (mir fällt kein spiel ein, bei dem 60grad im case erreicht werden sollen ohne nen ladeschirm beim map-change oder ähnlich zwischendurch).
wer sich hier jetzt pikiert zeigt: faule redakteure die mal wieder über ihre arbeit nachdenken müssen und sich nicht zur realität erden wollen. wer sich noch pikiert zeigt: vollzeit-erbsenzähler die ihre radeon hochloben wollen. als würde die bei n grad core-temp (nehmen wir mal 110°C) nicht den takt brstialisch drosseln oder gar noch boosten...
(nix gegen erbsenzähler oder graka-besitzer, aber die kombination sich über ein positives feature auszulassen ohne es gar selbst evaluiert zu haben... mir fehlen die worte und das obwohl ich schon zum dritten mal den lesern hier das wort "pikiert" unter die nase reibe.)
Für was sind denn Benchmarks da, wenn nicht in KURZER! Zeit einen möglichst guten Vergleichswert zu liefern?

Und genau hier beist sich die Karte eben in den Schwanz. Der Boost von Titan ist einfach SEHR anfällig, und schwankt SEHR stark. Wenn das nur hin und wieder mal ein 10 MHz mehr oder weniger wären, würde keiner was sagen. Genau so, wenn die Karte runter taktet, wenn man eh schon >120 FPS hat. Warum soll man unnötig Energie verballern?

Wenn ich aber höhere Auflösungen habe, oder allgemein höhere Auslastung, und der Boost geht signifikant! zurück, dann ist das einfach total fürn Arsch. Das ist nen langer E-Penis-Boost dann, der dem Nutzer nichts bringt.

Schön das ich noch längere Balken habe, wenn Sie eh schon lang genug sind, aber in dem Moment, wo Sie kurz werden, und ich die Leistung wirklich brüchte, lässt mich die Karte im Stich und taktet niedriger :down:

Das ist doch einfach totale Verarsche.....

Grestorn
2013-03-01, 21:07:43
Wo soll das nen Nachteil sein? Banchmarks sind im Normalfall auf recht kurze Zeiten ausgelegt, und da zieht die Karte den vollen Vorteil aus dem Boost, den man als Nutzer im realen Einsatz dann aber meist nicht mehr habt, da man eben länger zockt.

Die meisten SEHEN es als Nachteil. Du bist das beste Beispiel. Und das muss nVidia bewusst gewesen sein. Sie haben diesen Nachteil (für den Ruf) dennoch in Kauf genommen.

StefanV
2013-03-01, 21:13:57
Die meisten SEHEN es als Nachteil. Du bist das beste Beispiel. Und das muss nVidia bewusst gewesen sein. Sie haben diesen Nachteil (für den Ruf) dennoch in Kauf genommen.
Und warum ist es ein Vorteil, wenn die Karte kurz nachdem ich ein Spiel starte, ordentliche performance liefert, die aber nach einiger Zeit (womöglich auch noch in einem entsprechendem Gefecht) einbricht??

Warum ist Bost 2.0 gut, wenns eben doch nur für kurze Burst Phasen reicht??

Es ist, wie hier schon gesagt wurde, in der Praxis ziemlich unbrauchbar...

Skysnake
2013-03-01, 21:18:47
Kann mal jemand mit einer Titan so nett sein, und mein kleinen Lasttest ausführen?

Runterladen, entpacken, starten, i drücken, und dann in der Konsole 2000 eingeben und mit enter bestätigen. Dann wieder ins Anzeigefenster wechseln, v drücken, und dann das Fenster minimieren und laufen lassen.

Mich würde WIRKLICH mal interessieren, wie weit der Takt dabei runter geht.

Arg....

ist zu groß zum hoch laden :mad:

Wäre super wenn jemand sich kurz melden würde, dann verschicke ichs per Mail. :up:

Grestorn
2013-03-01, 21:20:50
Und warum ist es ein Vorteil, wenn die Karte kurz nachdem ich ein Spiel starte, ordentliche performance liefert, die aber nach einiger Zeit (womöglich auch noch in einem entsprechendem Gefecht) einbricht??

Warum ist Bost 2.0 gut, wenns eben doch nur für kurze Burst Phasen reicht??

Es ist, wie hier schon gesagt wurde, in der Praxis ziemlich unbrauchbar...

Dazu habe ich schon viel geschrieben. Die Temperatur erreicht sehr schnell den "Sollwert".

Und dass die Karte einbricht ist quatsch. Zumindest nicht mehr, als jede andere Karte auch einbricht, wenn eine stärker belastende Stelle kommt. Selbst wenn im Extremfall das Boost dann ein paar MHz runtertaktet, würdest Du schlimmstenfalls 1-2 FPS zusätzlich verlieren.

Der Vorteil ist, dass Du das Potential der Karte voll ausreizen kannst. Manuelles OC hat den Nachteil, dass man sich nie sicher sein kann, dass man das maximal mögliche OC ohne Stabilitätseinbußen hat.

Wie oft habe ich schon gehört "mein Rechner ist absolut 100% stable, mit x y und z getestet! Dass das Spiel crasht liegt nur daran, dass das Spiel nicht zu OC kompatibel ist!!!".

Das umgeht man mit Boost 2.0. Man kann an das Limit herangehen, das Chip und Lüftung zu leisten in der Lage sind ohne Stabilität opfern zu müssen.

HarryHirsch
2013-03-01, 21:27:50
Dazu habe ich schon viel geschrieben. Die Temperatur erreicht sehr schnell den "Sollwert".

Und dass die Karte einbricht ist quatsch. Zumindest nicht mehr, als jede andere Karte auch einbricht, wenn eine stärker belastende Stelle kommt. Selbst wenn im Extremfall das Boost dann ein paar MHz runtertaktet, würdest Du schlimmstenfalls 1-2 FPS zusätzlich verlieren.

Der Vorteil ist, dass Du das Potential der Karte voll ausreizen kannst. Manuelles OC hat den Nachteil, dass man sich nie sicher sein kann, dass man das maximal mögliche OC ohne Stabilitätseinbußen hat.

Wie oft habe ich schon gehört "mein Rechner ist absolut 100% stable, mit x y und z getestet! Dass das Spiel crasht liegt nur daran, dass das Spiel nicht zu OC kompatibel ist!!!".

Das umgeht man mit Boost 2.0. Man kann an das Limit herangehen, das Chip und Lüftung zu leisten in der Lage sind ohne Stabilität opfern zu müssen.

das ist blödsinn.

Manuelles OC hat den Nachteil, dass man sich nie sicher sein kann, dass man das maximal mögliche OC ohne Stabilitätseinbußen hat

das noch viel mehr.

Knuddelbearli
2013-03-01, 21:28:18
aha andere Karten brechen um dick 2 stellig ein ...

Skysnake
2013-03-01, 21:45:24
Das frag ich mich auch grad...

StefanV
2013-03-01, 21:54:00
@Grestorn

Sorry, aber deine Ausführungen kann ich absolut NICHT nachvollziehen. Es leuchtet mir nicht ein, warum du den Boost der Titan so zwanghaft versuchst shcön zu reden bzw in ein 'gutes Licht' zu rücken...
Deine Ausführungen machen nicht soo viel Sinn und erinnern eher an einen Priester, der seine Glaubensrichtung versucht zu verteidigen bzw dass es doch irgendwas gäbe, an das wir glauben müssen...

HarryHirsch
2013-03-01, 21:56:51
aha andere Karten brechen um dick 2 stellig ein ...

Das frag ich mich auch grad...
scheint ein insider zu sein. kann das wer übersetzen?

Grestorn
2013-03-01, 22:04:40
@Grestorn

Sorry, aber deine Ausführungen kann ich absolut NICHT nachvollziehen. Es leuchtet mir nicht ein, warum du den Boost der Titan so zwanghaft versuchst shcön zu reden bzw in ein 'gutes Licht' zu rücken...
Deine Ausführungen machen nicht soo viel Sinn und erinnern eher an einen Priester, der seine Glaubensrichtung versucht zu verteidigen bzw dass es doch irgendwas gäbe, an das wir glauben müssen...

Ich versuche nur die Seite des Entwicklers zu sehen.

Als Entwickler ist die Sache doch so: Ich weiß, dass mein Produkt eine bestimmte Frequenz immer verkraftet, eine deutlich höhere Frequenz zwar meistens - aber eben nicht in jeder Situation verkraftet. Außerdem gibt es die immer vorhandene Streuung der GPU-Produktion.

Das zwingt mich dazu, die Standard-Frequenz recht konservativ einzustellen. Klar, ich weiß dass es Kunden gibt, die übertakten und das Möglichste rausholen. Aber das hat für mich (als Entwickler) nur Nachteile: Ich habe mehr Rückläufer, ich habe Supportanfragen, auch die Spielehersteller haben zusätzliche Supportanfragen und zu allem Überfluss habe ich von meinem OC-Potential in den Reviews meist noch nicht mal was, weil ich ja gezwungen bin, konservativ zu bleiben.

Eine OC Automatik löst all diese Probleme.

Und ihr könnt schreiben was ihr wollt, nur für eine in meinen Augen sehr kleine Gruppe an Extrem-Enthusiasten, die sich niemals etwas von einer Automatik aus der Hand nehmen lassen wollen, ist die Automatik auch in der Praxis für den Anwender ein Nachteil.

Ihr konstruiert mühselig irgendwelche Horrorszenarien in denen sich das irgendwie negativ auswirken mag. Ohne praktische Beispiele und natürlich auch ohne jede eigene Erfahrung. Ich muss eigentlich gar nicht betonen, wonach das für mich riecht.

Lasst es doch mal auf Euch zukommen und die ersten Praxiserfahrungen der Anwender auf Euch wirken. Dann sehen wir weiter.

Skysnake
2013-03-01, 22:32:15
Kein Insider, ich hab mich nur auf die Aussage drüber bezogen, wo gefragt wurde, welche andere Karte denn derartig große Einbrüche hat.

Grestorn hält das ja für "normal" :ugly:

Grestorn
2013-03-01, 22:45:58
Was halte ich für normal?

Dass die Framerate einer Karte einbricht, wenn im Spiel eine Stelle kommt, die aufwendiger zu berechnen ist und die Karte mehr fordert? Ja, das halte ich durchaus für normal :) Auch wenn der Takt der GPU konstant ist. Findet ihr das eine überraschende Neuigkeit?

Blediator16
2013-03-01, 22:52:55
Was halte ich für normal?

Dass die Framerate einer Karte einbricht, wenn im Spiel eine Stelle kommt, die aufwendiger zu berechnen ist und die Karte mehr fordert? Ja, das halte ich durchaus für normal :) Auch wenn der Takt der GPU konstant ist. Findet ihr das eine überraschende Neuigkeit?

Vereinfachen wir das. Welche Karte ausser Titan reagiert so empfindlich auf "kleinere" Temperaturänderungen?

Grestorn
2013-03-01, 22:56:50
Was heißt "reagiert empfindlich"? Die Taktrate sinkt im schlimmsten Fall um ein paar Prozent. D.h. aus 50 fps werden halt 47fps. Uuuuhhh. Schrecklich. Ohne Boost wären sie nie über 45 gekommen. :)
Und mit manuellem OC hätte man entweder nie 50 fps erreicht oder das Spiel würde an der Stelle crashen weil die Karte die manuell eingestellten Taktrate nicht mehr packt.

HarryHirsch
2013-03-01, 23:00:15
Vereinfachen wir das. Welche Karte ausser Titan reagiert so empfindlich auf "kleinere" Temperaturänderungen?

alle aktuellen nv-karten?

kauf dich mal ne ati. :freak:

Grestorn
2013-03-01, 23:02:36
Dieser Thread mit all den nV Bashern und ATI-Fans ist echt ein wenig anstrengend. Ich hab ja echt nix dagegen, nV zu kritisieren, da gibt es sicher genug Punkte. Man kann auch gerne kritisch gegenüber Boost sein.

Aber diese Polemik hier ist kaum zu ertragen. Dass Euch das nicht selbst peinlich ist?

Skysnake
2013-03-01, 23:05:36
Der Boost der Titan ist einfach Rotz, da viel zu temperaturempfindlich, bzw Lastempfindlich. So ist es einfach nur da, um die AVG-FPS zu pushen... Also ne E-Penis-Verlängerung

Der Boost der GTX6x0 ist dagegen OK. Da hat man eigentlich in fast jeder Situation den vollen Boost.

Godmode
2013-03-01, 23:07:11
Ich werde am Montag ein paar Tests liefern, alles andere ist doch Rotz. Ihr schreibt hier über zig Seiten und niemand hat ne Karte. :rolleyes:

Grestorn
2013-03-01, 23:07:25
Oooh, da hat jemand first hand experience oder schon entsprechende Erfahrungsberichte unter realen Bedingungen gelesen...

Wie gesagt, dass Euch das nicht peinlich ist.

HarryHirsch
2013-03-01, 23:24:31
Der Boost der Titan ist einfach Rotz, da viel zu temperaturempfindlich, bzw Lastempfindlich. So ist es einfach nur da, um die AVG-FPS zu pushen... Also ne E-Penis-Verlängerung

Der Boost der GTX6x0 ist dagegen OK. Da hat man eigentlich in fast jeder Situation den vollen Boost.

als rotz würde ich das nicht bezeichnen.

Oooh, da hat jemand first hand experience oder schon entsprechende Erfahrungsberichte unter realen Bedingungen gelesen...

Wie gesagt, dass Euch das nicht peinlich ist.

ist es peinlich eine meinung zu haben?
mir ist es egal was die hivs ihrer hardware zutrauen.

umso peinlicher ist was nv seiner hw zutraut.

6% tdp, ich bitte dich, das ist soviel wie nix.

und das bei dem preis.

aufkrawall
2013-03-01, 23:32:23
Hat hier ein Titaner Trine 2?
Damit ließe sich die Karte vielleicht ans TDP-Limit bringen.

Godmode
2013-03-01, 23:33:54
Hat hier ein Titaner Trine 2?
Damit ließe sich die Karte vielleicht ans TDP-Limit bringen.

Ja ich habs, aber noch keine Titan. Meinst mit 4xSSAA?
edit: Sollte doch auch mit Heaven und Konsorten kein Problem sein?

(del676)
2013-03-01, 23:34:27
Hier mal meine kurze Gehaeuse - Erwaermungsmessung.
Das Gehaeuse ist ein Coolermaster HAF 932:
- vorne blaest ein 23cm luefter rein
- in der seitenwand blaest ein 23cm luefter raumluft DIREKT auf die beiden gpus
- oben blaest ein 23cm luefter die warme luft raus
- hinten ist noch ein 12cm der ebenfalls raus blaest

IMHO genug belueftung :rolleyes:

Die GPUs sind 2 7950, auf 1000MHz GPU Takt, CPU ein 3570k@4,8ghz. Die CPU wird mit Wasser gekuehlt, die beiden 360er Radiatoren sind extern verbaut, 70cm entfernt vom PC Gehaeuse in einem eigenen Gehaeuse. Sprich die CPU erhitzt das Gehaeuse nicht, nur das Mobo und die GPUs.

Die Gehaeusetemp messe ich an der rechten Seitenwand mit einem Infrarot Thermometer.

Hier mal die Messwerte:

23:03 - rechner aus - gehaeuse 25° raum 25°
23:05 - valley im extreme hd gestartet
23:06 - gehaeuse 26° - gpu 82° - gpu fan 60%
23:08 - gehaeuse 26° - gpu 85° - gpu fan 71%
23:09 - gehaeuse 26° - gpu 85° - gpu fan 75%
23:10 - gehaeuse 26° - gpu 86° - gpu fan 75%
23:11 - gehaeuse 26° - gpu 86° - gpu fan 79%
23:12 - gehaeuse 27° - gpu 87° - gpu fan 82%
23:13 - gehaeuse 27° - gpu 87° - gpu fan 82%
23:14 - gehaeuse 28° - gpu 88° - gpu fan 83%
23:15 - gehaeuse 28° - gpu 88° - gpu fan 84%
23:16 - gehaeuse 29° - gpu 89° - gpu fan 84%
23:17 - gehaeuse 30° - gpu 90° - gpu fan 85%
23:19 - gehaeuse 30° - gpu 90° - gpu fan 85%
23:21 - gehaeuse 31° - gpu 90° - gpu fan 85%
23:23 - gehaeuse 31° - gpu 90° - gpu fan 85%
23:25 - gehaeuse 32° - gpu 90° - gpu fan 85%
23:27 - gehaeuse 32° - gpu 91° - gpu fan 86%
23:30 - gehaeuse 32° - gpu 91° - gpu fan 86% (Raum noch immer auf 25°)


d.h.:
- Das Gehaeuse hat sich 5 Minuten GAR NICHT ERWAERMT.
- Das Gehaeuse hat sich nach 20 Minuten noch erwaermt.
- Die GPUs bleiben zwar bei ~90°, allerdings muss der Luefter immer schneller drehen um die Temperatur zu halten (selbst nach 22 Minuten steigert sich das noch minimal)

Nach 5 Minuten ist da also GAR NIX anstaendig angewaermt. (Weder das Gehaeuse, noch die GPUs, noch erreicht der GPU Luefter auch nur annaehernd das, was er nach 20 Mins erreicht)

Also alles genauso wie ichs schon Seiten vorher geschrieben hab. Waer ja nicht so als haett ichs erfunden. :rolleyes:

Ich hau mich jetzt in die Badewanne und lass das Zeug weiterlaufen. ;)

Godmode
2013-03-01, 23:36:03
Blasen die GPUs nach draußen oder alles ins Gehäuse rein, das ist nämlich bei SLI/CF ein KO Kriterium.

Gute Idee mit der Messung, alles andere bringt ja doch nichts.

aufkrawall
2013-03-01, 23:36:04
Ja ich habs, aber noch keine Titan. Meinst mit 4xSSAA?
4x? Willst du die Karte langweilen? :D
Ich dachte eher z.B. an 9x. Die Unterwasser-Shader braten dann ordentlich, etwa bei Sea Rock Castle am Anfang abtauchen.

N0Thing
2013-03-01, 23:37:04
Was heißt "reagiert empfindlich"? Die Taktrate sinkt im schlimmsten Fall um ein paar Prozent. D.h. aus 50 fps werden halt 47fps. Uuuuhhh. Schrecklich. Ohne Boost wären sie nie über 45 gekommen. :)
Und mit manuellem OC hätte man entweder nie 50 fps erreicht oder das Spiel würde an der Stelle crashen weil die Karte die manuell eingestellten Taktrate nicht mehr packt.

Ein Titan taktet doch an solchen Stellen nicht herunter weil es sonst einen Crash geben würde, sondern weil der Stromverbrauch und damit Temperatur und Lüfterdrehzahl nicht mehr im gewünschten Fenster bleiben würden.
Wäre es anders, würde das einstellbare Powertarget keinen Sinn machen und alle Anwendungen bei erhöhtem Powertarget reproduzierbar abstürzen. ;)

(del676)
2013-03-01, 23:37:45
Ist Referenzdesign. Sprich da blaest er alles hinten raus.
Das Luefterblech der 1. Karte hat 62° :)

Godmode
2013-03-01, 23:43:57
Ist Referenzdesign. Sprich da blaest er alles hinten raus.
Das Luefterblech der 1. Karte hat 62° :)

Ok, das wundert mich dann, dass die GPUs trotzdem so heiß werden. Hab selber ca. die doppelte Anzahl an Lüfern verbaut und die 2 GTX690 hatten irgendwo 80-85°C.

Godmode
2013-03-01, 23:44:42
4x? Willst du die Karte langweilen? :D
Ich dachte eher z.B. an 9x. Die Unterwasser-Shader braten dann ordentlich, etwa bei Sea Rock Castle am Anfang abtauchen.

Mehr als 4x kann man doch gar nicht auswählen? Oder meinst noch zusätzlich übern Inspector? :eek:

HarryHirsch
2013-03-01, 23:45:44
Ein Titan taktet doch an solchen Stellen nicht herunter weil es sonst einen Crash geben würde, sondern weil der Stromverbrauch und damit Temperatur und Lüfterdrehzahl nicht mehr im gewünschten Fenster bleiben würden.
Wäre es anders, würde das einstellbare Powertarget keinen Sinn machen und alle Anwendungen bei erhöhtem Powertarget reproduzierbar abstürzen. ;)

@ default taktet ein titan immer unter die max verfügbaren mhz.
warum? frag nv.

mit lukü ist es einfach ein polnischer krüppel.

was können die? genau nix.

aufkrawall
2013-03-01, 23:56:41
Mehr als 4x kann man doch gar nicht auswählen? Oder meinst noch zusätzlich übern Inspector? :eek:
Das funzt seit nem Spiel-Update leider auf höchsten Details nicht mehr.
Aber man kann in der Config-Datei einfach den Muliplikator fürs DS editieren, etwa aus der 4 ne 9 machen (also 3x3).
Das berücksichtigt dann sogar der Launcher.

Wie gesagt, das heizt sehr ordentlich. Ich hab afair noch mit keiner anderen Real World-Anwendung so nen hohen Stromverbrauch von der GPU hinbekommen.

Godmode
2013-03-02, 00:04:22
Das funzt seit nem Spiel-Update leider auf höchsten Details nicht mehr.
Aber man kann in der Config-Datei einfach den Muliplikator fürs DS editieren, etwa aus der 4 ne 9 machen (also 3x3).
Das berücksichtigt dann sogar der Launcher.

Wie gesagt, das heizt sehr ordentlich. Ich hab afair noch mit keiner anderen Real World-Anwendung so nen hohen Stromverbrauch von der GPU hinbekommen.

Geil, das wusste ich gar nicht dass das geht. Dann noch 3D Vision dazu.

(del676)
2013-03-02, 00:04:56
Naja, sind 2 der ersten 7950, defaulttakt ist da 800, nicht 1000, ergo schwerst uebertaktet und deswegen halt heiss und laut - benchmark speed halt :)

23:58 - gehaeuse 32° - gpu 91° - luefter 87%

Raum hat jetzt 25.5°, jetzt reichts dann aber auch :)

Warums so lange dauert dass die GPUs und das Gehaeuse die Endtemperatur erreichen ist eigentlich sehr simple Physik. Je mehr Masse das Gehaeuse oder der Kuehlkoerper hat, desto mehr Waermeenergie kann man reinpumpen. Das Gehaeuse ist gross, schwer und ziemlich dickwandig, die Kuehler der 7950 sind ebenso nicht klein. Wenn man ein kleines und billiges Case hat und ne GPU mit kleinem Kuehler, dauerts wahrscheinlich nicht 20 Minuten, sondern nur 10.

Ist halt dasselbe wie wenn man sich den Intel Stock Kuehler gegen einen 800g Noctua ansieht. der Stock wird schnell warm und erreicht auch schnell die Endtemperatur, der Noctua braucht es ein bisl. Da isses fast egal wenn die CPU mal eine Minute 100%ig ausgelastet ist. Deshalb braucht der Luefter am Noctua noch nicht schneller drehen. (seh ich ja am FX8150 im Server :fresse: )

StefanV
2013-03-02, 00:15:25
Ok, das wundert mich dann, dass die GPUs trotzdem so heiß werden. Hab selber ca. die doppelte Anzahl an Lüfern verbaut und die 2 GTX690 hatten irgendwo 80-85°C.
Naja, eigentlich nicht.

Das ganze dauert z.T. auch sehr lange, bis sich alles durchgeheizt hat. Und, wie schon erwähnt, steigt die Temperatur z.T. sehr sehr langsam an.

Grestorn
2013-03-02, 00:15:56
Gegenmessung... :)

System:
i7 940@4GHz,
GTX 680@1267MHz, Memory auf 3510 MHz
X58 Board, alle drei Komponenten im Wasserkreislauf. Der Radiator ist außerhalb des Gehäuses.
Im Gehäuse nur ein großer, langsam drehender Lüfter, bläst rein, und den Netzteillüfter.

Last:
Prime95 auf 7 Threads
EVGA OC Scanner

Also sowohl die CPU als auch die GPU möglichst ausgelastet. 7 Threads, da sonst dem OC Scanner zu wenig Prozessorzeit bleibt und die GPU nicht zu 100% ausgelastet wird.


Sensoren:
- CPU
- GPU
- Fühler im Wasserkreislauf nach der CPU (WC)
- Fühler im Wasserkreislauf nach dem Radiator (WRad)

Messunden im Minutentakt:

CPU GPU WC WRad
40 28 31,6 26,4
75 39 38,9 28,1
76 39 39,6 28,8
77 40 40,4 29,2
77 40 41 29,2
78 41 42,1 29,6
77 42 43,2 29,6
78 42 44 29,6
79 43 44,7 30
79 43 44,9 30
79 43 45,5 30
79 43 45,9 30
79 43 45,8 30
80 43 46,2 30
80 44 47,6 30
79 43 47,4 29,9 ab hier laufen die Lüfter am Radiator unter Volllast
82 42 47,5 29,8
83 42 47,5 29,8
83 43 47,8 29,8
83 43 47,6 29,8
82 42 47,4 29,8
82 43 47,4 29,8
82 43 46,8 29,8


Wenn sich bei jemanden die Temperaturen ständig weiter erhöhen, dann HAT er ein Problem mit der Kühlung. Die Temperatur darf ab einem Punkt nicht mehr steigen. Nach gut 10 Minuten bleiben die Temperaturen bei mir konstant. Die Temperatur der GPU selbst ist nach 5 Minuten auf 42/43° und pendelt ab da zwischen diesen Werten.

Die Temperaturen Deiner GPUs wirken extrem ungesund, Ulukay. Bei mir ist die CPUs zu heiß, aber da die selten derart ausgelastet wird, stört mich das nicht so. Und die i7 940 ist eh langsam für einen Austausch fällig :)

Zum Vergleich lass ich gleich nochmal den Unigine Valley (Extreme HD) laufen und schau, ob es einen relevanten Unterschied gibt.
Ergebnis:

CPU GPU WC WRad
55 40 38,9 29,2

Und ändert sich auch nicht mehr. Unigine Valley lastet den Rechner und die Kühlung nicht im Ansatz aus.

Die Valley Ergebnisse, nur am Rande:
FPS: 46.4
Score: 1941
Min FPS: 18.8
Max FPS: 88.9

HarryHirsch
2013-03-02, 00:22:51
Gegenmessung... :)

System:
i7 940@4GHz,
GTX 680@1267MHz, Memory auf 3510 MHz
X58 Board, alle drei Komponenten im Wasserkreislauf. Der Radiator ist außerhalb des Gehäuses.
Im Gehäuse nur ein großer, langsam drehender Lüfter, bläst rein, und den Netzteillüfter.

Last:
Prime95 auf 7 Threads
EVGA OC Scanner

Also sowohl die CPU als auch die GPU möglichst ausgelastet. 7 Threads, da sonst dem OC Scanner zu wenig Prozessorzeit bleibt und die GPU nicht zu 100% ausgelastet wird.


Sensoren:
- CPU
- GPU
- Fühler im Wasserkreislauf nach der CPU (WC)
- Fühler im Wasserkreislauf nach dem Radiator (WRad)

Messunden im Minutentakt:

CPU GPU WC WRad
40 28 31,6 26,4
75 39 38,9 28,1
76 39 39,6 28,8
77 40 40,4 29,2
77 40 41 29,2
78 41 42,1 29,6
77 42 43,2 29,6
78 42 44 29,6
79 43 44,7 30
79 43 44,9 30
79 43 45,5 30
79 43 45,9 30
79 43 45,8 30
80 43 46,2 30
80 44 47,6 30
79 43 47,4 29,9 ab hier laufen die Lüfter am Radiator unter Volllast
82 42 47,5 29,8
83 42 47,5 29,8
83 43 47,8 29,8
83 43 47,6 29,8
82 42 47,4 29,8
82 43 47,4 29,8
82 43 46,8 29,8


Wenn sich bei jemanden die Temperaturen ständig weiter erhöhen, dann HAT er ein Problem mit der Kühlung. Die Temperatur darf ab einem Punkt nicht mehr steigen. Nach gut 10 Minuten bleiben die Temperaturen bei mir konstant. Die Temperatur der GPU selbst ist nach 5 Minuten auf 42/43° und pendelt ab da zwischen diesen Werten.

Die Temperaturen Deiner GPUs wirken extrem ungesund, Ulukay. Bei mir ist die CPUs zu heiß, aber da die selten derart ausgelastet wird, stört mich das nicht so. Und die i7 940 ist eh langsam für einen Austausch fällig :)

du solltest damit richtig liegen.
hier hat jede gpu einen 360er, und die cpu + chipsatz sowieso.

boxleitnerb
2013-03-02, 00:25:31
Hat hier ein Titaner Trine 2?
Damit ließe sich die Karte vielleicht ans TDP-Limit bringen.

Check und check. Nachher vielleicht noch, morgen aber sicher.
Höchste TDP die ich bis jetzt hatte war so 91% (2160p, 8xSGSSAA usw.).

gnahr
2013-03-02, 00:49:06
können wir bitte nochmal den dümmsten beitrag überhaupt berücksichtigen?
Genau so siehts aus. Man holt sich in kleinen Ruhepausen immer wieder Luft für ne Boost-Phase. Mit den meisten Benchmarks kann man das praktisch nicht mal im Loop ausschalten, da diese meist eben einen Ladebildschirm haben...

Games zockt man aber oft recht lange ohne das sich Ladebildschirme ergeben.

Das ist doch einfach totale Verarsche.....
richtig, das ist die totale verarsche, die du SCHON WIEDER abziehst.
kein spiel hat nen höheren lastdurchschnitt als ein endlosloop der bekannten benchmarks. es gibt tools um cpu, ram, gpu sowie alle temperaturen die everest/aida64 und co aufzeichnen können mitzuloggen. fühl dich frei mal auf den boden der realität zurück zu kommen statt leuten synthetische pseudo-tools andrehen zu wollen.
kein spiel kann den spieler durchgehend mit extremen grafikwundern füttern, die aufmerksamkeitsspanne liegt je nach messart zwischen 10 und zwanzig minuten und hier wird irgendwas von 60 bis 360minuten avisiert wenn man die case-temp-debatte betrachtet.
multiplayer wie bf3 scheiden aus. mapchange, respawn, heterogene aktivitätsverteilung auf der karte,...
open world spiele scheiden aus weil es rückzugsorte geben muss da niemand mehr auf arcade-style steht.
scripted spiele scheiden aus dem gleichen grund aus.
es scheidet einfach alles aus.

das ist ja kaum im kopf auszuhalten, wenn überhaupt bring boost in den spielen selbst den größten vorteil weil die ständigen lastschwankungen immer wieder in der zu den einstellungen passenden agressivität fürs nächste event draufgeschlagen werden können. dagegen ist der brainfart von "skysnake muss immer die compute-leistung kommentieren und firmen wohlgesonnenheitszertifikate ausstellen" sogar erträglich weil jedem halbwegs vernunftbegabten äffchen klar ist, dass es ihm egal sein kann.

liefer ab in form einer realworld-aufzeichnung der rechnerauslastung über ein marathonspiel (und keine pseudo-lasttools) oder überdenke ernsthaft deinen standpunkt. behinderte e-penis-tests sind nicht das maß der dinge wenn sie sachen nur aus selbstgründen messen.
gott, ich muss mir wirklich mal die forenregeln durchlesen welche stelle nun schon zu deutlich formuliert war und wo noch etwas luft für den verbalen dreschflegel ist. man kommt aus dem staunen nicht raus was für ein quark hier verzapft wird zu einer karte die es scheinbar für einige partou nicht geben darf. gk104 wurde immanent verleugneit weil "ist ja kein top-dog-chip drinnen und beschnitten", gk110 darf es nicht geben weil er als aufgeblasener gk104 überproportional teurer wäre, was er aber schon von anfang an gar nicht ist... und solche leute brüsten sich auch noch mit ihrer expertise und der hohen frequenz wie sie ihren quark ablassen, zum ausspucken.

trennt euch sowiso bitte mal von der vorstellung TITAN würde seine maximale boost-performance durchgehend abrufen und in den spielen abliefern, nicht ohne grund gibt der hersteller eine NIEDRIGERE, verrechnete durschnittliche boost-geschwindigkeit an. es wird nix von max auf dauerlast gedrosselt, sondern vom basistakt auf den mittleren boost-takt angehoben und maximal sogar bis auf den max-wert. sorum wird ein schuh draus. alles andere müsste auch die älteren chips direkt auf und hinter der notabschaltungsgrenze namens chiptemperatur testen. macht keiner, verlangt keiner... warum? weils dumm, unsinnig und wider der natur ist.

StefanV
2013-03-02, 00:50:56
Wenn sich bei jemanden die Temperaturen ständig weiter erhöhen, dann HAT er ein Problem mit der Kühlung. Die Temperatur darf ab einem Punkt nicht mehr steigen. Nach gut 10 Minuten bleiben die Temperaturen bei mir konstant. Die Temperatur der GPU selbst ist nach 5 Minuten auf 42/43° und pendelt ab da zwischen diesen Werten.
Nö, hat man nicht, denn die Belastung der Elektronik ist nicht konstant. Und daher ist es völlig normal, dass die Temperatur immer ansteigen kann.

Allerdings sinkt sie auch 'manchmal' etwas, wenn die GPU nicht allzu sehr ausgelastet ist.

Aber hey, das hast du ja auch bei dir. Da steigt die Temperatur auch permanent....
Sprich, du hast auch ein Problem mit der Kühlung ;)

aufkrawall
2013-03-02, 00:52:50
Geil, das wusste ich gar nicht dass das geht. Dann noch 3D Vision dazu.
Wobei 9x wohl nicht ideal ist, sieht mitunter flimmriger aus als 4x. Müsste man rumprobieren, was gut aussieht. Es scheint wohl auch ne Automatik zu geben, sodass er sich etwa 8x so weit es geht nähert, wenn man das einträgt.
Wirklich nett, wenn Entwickler an so etwas denken.

Check und check. Nachher vielleicht noch, morgen aber sicher.
Höchste TDP die ich bis jetzt hatte war so 91% (2160p, 8xSGSSAA usw.).
Bin gespannt.
Sehr fordernd war auch noch Serious Sam 3 mit Treiber forced SGSSAA oder Anno 2070 mit hoher Auflösung.

(del676)
2013-03-02, 00:53:08
Hat der Typ grad wirklich seine WASSERGEKUEHLTE GPU mit EXTERNEM Radiator gemessen?
Wasser erwaermt sich schneller als Luft+ein PC Gehaeuse?
http://666kb.com/i/cbzskqtm7m03djamj.jpg

Da hat grad jemand entdeckt, dass Wasser einen besseren Waermeleitwert als Luft hat. GRATZ!

Die Frage ist, was hat eine Wassergekuehlte GPU mit EXTERNEM Radiator mit einer Luftgekuehlten GPU in einem PC Gehaeuse welches sich dadurch erhitzt gemein? Garnix? Na danke fuer die tolle Messung.
Der freiwilligen nvidia marketing abteilung ist auch kein hinkender Vergleich zu bloed.
:lol:

Grestorn
2013-03-02, 00:53:09
Nö, hat man nicht, denn die Belastung der Elektronik ist nicht konstant. Und daher ist es völlig normal, dass die Temperatur immer ansteigen kann.

Allerdings sinkt sie auch 'manchmal' etwas, wenn die GPU nicht allzu sehr ausgelastet ist.

Aber hey, das hast du ja auch bei dir. Da steigt die Temperatur auch permanent....
Sprich, du hast auch ein Problem mit der Kühlung ;)

Schielst Du? Offenbar.

HarryHirsch
2013-03-02, 00:53:36
können wir bitte nochmal den dümmsten beitrag überhaupt berücksichtigen?

richtig, das ist die totale verarsche, die du SCHON WIEDER abziehst.
kein spiel hat nen höheren lastdurchschnitt als ein endlosloop der bekannten benchmarks. es gibt tools um cpu, ram, gpu sowie alle temperaturen die everest/aida64 und co aufzeichnen können mitzuloggen.
kein spiel kann den spieler durchgehend mit extremen grafikwundern füttern, die aufmerksamkeitsspanne liegt je nach messart zwischen 10 und zwanzig minuten und hier wird irgendwas von 60 bis 360minuten avisiert wenn man die case-temp-debatte betrachtet.
multiplayer wie bf3 scheiden aus. mapchange, respawn, heterogene aktivitätsverteilung auf der karte,...
open world spiele scheiden aus weil es rückzugsorte geben muss da niemand mehr auf arcade-style steht.
scripted spiele scheiden aus dem gleichen grund aus.
es scheidet einfach alles aus.

das ist ja kaum im kopf auszuhalten, wenn überhaupt bring boost in den spielen selbst den größten vorteil weil die ständigen lastschwankungen immer wieder in der zu den einstellungen passenden agressivität fürs nächste event draufgeschlagen werden können. dagegen ist der brainfart von "skysnake muss immer die compute-leistung kommentieren und firmen wohlgesonnenheitszertifikate ausstellen" sogar erträglich weil jedem halbwegs vernunftbegabten äffchen klar ist, dass es ihm egal sein kann.

liefer ab in form einer realworld-aufzeichnung der rechnerauslastung über ein marathonspiel (und keine pseudo-lasttools) oder überdenke ernsthaft deinen standpunkt. behinderte e-penis-tests sind nicht das maß der dinge wenn sie sachen nur aus selbstgründen messen.
gott, ich muss mir wirklich mal die forenregeln durchlesen welche stelle nun schon zu deutlich formuliert war und wo noch etwas luft für den verbalen dreschflegel ist. man kommt aus dem staunen nicht raus was für ein quark hier verzapft wird zu einer karte die es scheinbar für einige partou nicht geben darf. gk104 wurde immanent verleugneit weil "ist ja kein top-dog-chip drinnen und beschnitten", gk110 darf es nicht geben weil er als aufgeblasener gk104 überproportional teurer wäre, was er aber schon von anfang an gar nicht ist... und solche leute brüsten sich auch noch mit ihrer expertise und der hohen frequenz wie sie ihren quark ablassen, zum ausspucken.

das ist bs.
den rest klemm ich mir unter die achseln.

Grestorn
2013-03-02, 00:58:54
Hat der Typ grad wirklich seine WASSERGEKUEHLTE GPU mit EXTERNEM Radiator gemessen?
Genau zu dieser Kombination hatte ich auch meine Aussage gemacht, wenn Du meine Postings nochmal liest.

Ob Luft- oder Wassergekühlt, Dein System ist definitiv nicht in der Lage die entstehende Wärme abzuführen. Du hast einen Wärmestau in Deinem Gehäuse. Das ist auf Grund Deiner Werte mehr als offensichtlich.

P.S. So nett, wie ihr Kids Euch echauffieren könnt :)

Ronny145
2013-03-02, 01:00:00
Wobei 9x wohl nicht ideal ist, sieht mitunter flimmriger aus als 4x. Müsste man rumprobieren, was gut aussieht. Es scheint wohl auch ne Automatik zu geben, sodass er sich etwa 8x so weit es geht nähert, wenn man das einträgt.
Wirklich nett, wenn Entwickler an so etwas denken.



Mir ist kein stärkeres Flimmern aufgefallen. 2x2 oder 3x3 müsste passen, heikel sind die Zwischenstufen.

4x= http://s14.directupload.net/images/130302/sn9t69fg.png
9x= http://s1.directupload.net/images/130302/j4oeqdh6.png

gnahr
2013-03-02, 01:01:07
das ist bs.
oh, interesse an einer sachlichen disskusion. guter beitrag.

HarryHirsch
2013-03-02, 01:08:47
Hat der Typ grad wirklich seine WASSERGEKUEHLTE GPU mit EXTERNEM Radiator gemessen?
Wasser erwaermt sich schneller als Luft+ein PC Gehaeuse?
http://666kb.com/i/cbzskqtm7m03djamj.jpg

Da hat grad jemand entdeckt, dass Wasser einen besseren Waermeleitwert als Luft hat. GRATZ!

Die Frage ist, was hat eine Wassergekuehlte GPU mit EXTERNEM Radiator mit einer Luftgekuehlten GPU in einem PC Gehaeuse welches sich dadurch erhitzt gemein? Garnix? Na danke fuer die tolle Messung.
Der freiwilligen nvidia marketing abteilung ist auch kein hinkender Vergleich zu bloed.
:lol:
die wakü hält die temp um mindestens 20°c tiefer. mister 7950cf user.

tzz was nen kindergarten.

Angiesan
2013-03-02, 09:28:53
Check und check. Nachher vielleicht noch, morgen aber sicher.
Höchste TDP die ich bis jetzt hatte war so 91% (2160p, 8xSGSSAA usw.).
Wenn Du Sleeping Dogs hast musste das mal probieren mit SSAA ingame ich habe nie kein Spiel gefunden das mehr gesaugt hat. Obwohl der Boost meiner GTX in Crysis 3 am niedrigsten ist da komme ich gerade so überhaupt in einen Boost:freak:

Schaffe89
2013-03-02, 09:50:25
Der Vorteil ist, dass Du das Potential der Karte voll ausreizen kannst. Manuelles OC hat den Nachteil, dass man sich nie sicher sein kann, dass man das maximal mögliche OC ohne Stabilitätseinbußen hat.

Wie oft habe ich schon gehört "mein Rechner ist absolut 100% stable, mit x y und z getestet! Dass das Spiel crasht liegt nur daran, dass das Spiel nicht zu OC kompatibel ist!!!".

Das umgeht man mit Boost 2.0. Man kann an das Limit herangehen, das Chip und Lüftung zu leisten in der Lage sind ohne Stabilität opfern zu müssen.

Wieso kann man die Karte voll ausreizen? Die Karte taktet entweder aufgrund zu hohem Verbrauch oder zu hoher Temperatur zurück.
Bei ner Karte ohne Boost passiert das letztendlich genauso, nur das entweder gedrosselt wird, oder bei zu hohem Takt das Spiel /Treiber abschmiert, dann muss ich mir halt ein bisschen Zeit nehmen und dan sinnvollsten Takt wählen, der stabil ist, das hat man i.D.R. auf ein paar Minuten heraus.

Der Vorteil ist, dass Du das Potential der Karte voll ausreizen kannst. Manuelles OC hat den Nachteil, dass man sich nie sicher sein kann, dass man das maximal mögliche OC ohne Stabilitätseinbußen hat.

DAs ist nicht direkt ein Vorteil. Das ist Propaganda von dir, behaupte ich jetzt mal ganz grotesk.
Ich sehe in deinen Argumentationen ausweichende Aussagen, die das Kernthema sogut es nur geht umschiffen, ähnlich wie bei einem ganz bestimmten User der hier vor einiger Zeit das Forum verlassen hat.

Dass das Spiel crasht liegt nur daran, dass das Spiel nicht zu OC kompatibel ist!!!".

Das umgeht man mit Boost 2.0.

Wie willst du das umgehen? Es ist nur abhängig vom Verbrauch und von der Temperatur.
Man kann mit Titan @ max OC genauso Abstürze haben.

Pirx
2013-03-02, 09:51:58
Genau zu dieser Kombination hatte ich auch meine Aussage gemacht, wenn Du meine Postings nochmal liest.

Ob Luft- oder Wassergekühlt, Dein System ist definitiv nicht in der Lage die entstehende Wärme abzuführen. Du hast einen Wärmestau in Deinem Gehäuse. Das ist auf Grund Deiner Werte mehr als offensichtlich.

P.S. So nett, wie ihr Kids Euch echauffieren könnt :)
Wasserkühlung vom Feinsten vs. normale Luftkühlung und die Titan ist lufgekühlt...

Dein Diskussionsstil ist auch nicht der Beste, auch wenn du es nett (kleine Schwester von na du weißt schon) verpackst.

boxleitnerb
2013-03-02, 10:02:33
Wenn Du Sleeping Dogs hast musste das mal probieren mit SSAA ingame ich habe nie kein Spiel gefunden das mehr gesaugt hat. Obwohl der Boost meiner GTX in Crysis 3 am niedrigsten ist da komme ich gerade so überhaupt in einen Boost:freak:

94% TDP maximal, alles Standard. Takt geht beim zweiten Durchlauf am Schluss bei der forderndsten Szene auf 836 MHz runter.

akuji13
2013-03-02, 10:37:22
Die meisten denken gar nicht. Und lesen kaum.

Interessanter Ansatz, den Großteil der Leser im Vorbeigehen zu beleidigen. ;)

also bei mir mit wakü habe ich selbst nach 30 minuten noch eine leicht steigende temperatur

Dann hast du entweder vorher nicht die Anwendung(en) mit der höchsten Last getestet oder deine WaKü hat ein Problem.

@Grestorn
Es leuchtet mir nicht ein, warum du den Boost der Titan so zwanghaft versuchst shcön zu reden bzw in ein 'gutes Licht' zu rücken...

Er ist "schön"...nur nicht für Tester und eine handvoll Freaks in einem Freak-forum. ;)


Ich denke eher, nVidia hat diesen Nachteil eher in Kauf genommen, weil es eben objektiv dem Anwender einen Mehrwert bringt und hofft, dass dies auch so angenommen wird.

NV hat auch durch den Preis eine schlechte publicity in Kauf genommen, ergo dürfte ihnen auch diese Diskussion hier ziemlich Wurst sein. :D


@topic

Ist meine Idee der Titan einen Lufttunnel zu verpassen wohl doch nicht so blöd. =)

Am WE wird gebastelt und getestet. :D

boxleitnerb
2013-03-02, 10:40:32
Bei meiner Wakü steigt die Temperatur nur in den ersten paar Minuten, danach ist sie konstant. Wenn nach 30 Minuten noch messbare Änderungen auftreten, stimmt definitiv was nicht.

Naennon
2013-03-02, 11:27:55
hab nich alles gelesen, aber warum nochma genau is der Boost cheaten?

M4xw0lf
2013-03-02, 11:32:26
Er kann bei typischen Benchmarks wie sie von den meisten Testern durchgeführt werden (kurze Spielsequenzen von oft unter einer Minute), das Ergebnis um einige Prozent nach oben verfälschen, wenn die Karte nicht durch eine längere Aufwärmphase auf das Niveau eingebremst wird, das sie auch tatsächlich konstant liefern kann in längeren Gaming-Sessions. Ich würde es daher nicht "Cheaten" nennen, sondern eine zusätzliche Herausforderung an den seriösen Tester ;)

Naennon
2013-03-02, 11:39:16
ahso ok, ja kann man sehen wie man will
gab aber auch den Tessalation Regler für AMD und das war in diversen Benches auch ne Verfälschung

denke man sollte die Kirche im Dorf lassen, den es macht laut eigenen Test maximal 13-26 MHz aus

robbitop
2013-03-02, 11:43:48
Interessanter Ansatz, den Großteil der Leser im Vorbeigehen zu beleidigen. ;)
Ist leider die harte Realität. Ich würde mich ja freuen, wenn es nicht so wäre. Andernfalls hätten viele Webseiten mit so undifferenzierten Reviews nicht so viele Hits. Es gibt nur sehr wenige Redaktionen, die das Know How haben und sich die Mühe machen, zu differenzieren und skeptischer alle Seiten zu betrachten als stumpf irgendwelche Timedemos durchzubenchen.
EoD.

Knuddelbearli
2013-03-02, 12:01:43
ahso ok, ja kann man sehen wie man will
gab aber auch den Tessalation Regler für AMD und das war in diversen Benches auch ne Verfälschung

denke man sollte die Kirche im Dorf lassen, den es macht laut eigenen Test maximal 13-26 MHz aus

Tess Schalter ist standardmäßig immer aus
und es sind über 100Mhz, Rekord bisher ist Anno 2070 mit glaube ich 25% unterschied zwischen ersten Test und direkt nachfolgendem 2ten Test

Schaffe89
2013-03-02, 12:15:31
gab aber auch den Tessalation Regler für AMD und das war in diversen Benches auch ne Verfälschung

denke man sollte die Kirche im Dorf lassen, den es macht laut eigenen Test maximal 13-26 MHz aus

Es wurde jetzt nun schon so oft diskutiert, auch im HWL, aber du weißt es scheinbar immernoch nicht besser, obwohl man dich darauf hingewiesen hat wie hoch die Differenz ist.

Ignoranz pur.
Wenn es bei AMD solche Abweichungen gäbe, würde ich das auch bemängeln und nicht verharmlosen.
Ist ja derzeit bei AMD mit den µrucklern schon schlimm genug, um überhaupt noch deren Karten zu empfehlen.

akuji13
2013-03-02, 12:33:32
Ist leider die harte Realität.

Ändert nichts ein deiner beleidigenden Aussage.
Und macht sie kein Stück besser. ;)

EoD.

EoD ist immer schön, wenn einem die Argumente ausgehen. ;)

Grestorn
2013-03-02, 13:15:03
Wieso kann man die Karte voll ausreizen? Die Karte taktet entweder aufgrund zu hohem Verbrauch oder zu hoher Temperatur zurück.
Bei ner Karte ohne Boost passiert das letztendlich genauso, nur das entweder gedrosselt wird, oder bei zu hohem Takt das Spiel /Treiber abschmiert, dann muss ich mir halt ein bisschen Zeit nehmen und dan sinnvollsten Takt wählen, der stabil ist, das hat man i.D.R. auf ein paar Minuten heraus.
Das habe ich doch schon begründet: Gerade das dynamische Verhalten ist doch der Vorteil.

Beim bisherigen OC Verfahren, musste ich einen statischen Wert für Takt und Spannungen raussuchen. Dabei konnte ich entweder konservativ vorgehen, so dass wirklich genügend Spielraum nach oben ist - damit läuft dann zwar alles und das System ist stabil, aber ich verschenke in vielen Situationen vorhandenes Potential.
Oder ich gehe ans Limit, dann nutze ich zwar in "normalen" Situationen die Karte aus, muss aber damit rechnen, dass in Spitzensituationen die Karte überhitzt und es Grafikfehler gibt oder es sogar zum Crash kommt.

Die Dynamik ist sicher auch nicht in jeder Situation absolut optimal, aber je freier man die max. Zieltemperatur einstellen kann und je besser die Kühlung ist, desto genauer kannst Du das Potential der Karte damit ausschöpfen. Das ist doch eigentlich ganz logisch, oder?

Wie willst du das umgehen? Es ist nur abhängig vom Verbrauch und von der Temperatur.
Man kann mit Titan @ max OC genauso Abstürze haben.Ja, wenn Du die Zieltemperatur und max. Stromaufnahme so hoch einstellst, dass es Dein Exemplar der Karte nicht mehr verkraftet.

Aber siehst Du denn nicht, dass die Zieltemperatur und Stromaufnahme ein Fixwert ist - ab x Grad wird die Karte Fehler machen. Die Taktrate ist dagegen kein Fixwert. Es ist eben nicht so, dass die Karte immer bei einer bestimmten Taktrate crasht, sondern eben nur dann, wenn bei diesem Takt dann auch die Last zu sehr steigt. Deswegen kann man eine Karte ja auch weiter übertakten, wenn man eine besser Kühlung einbaut: Die Temperatur entscheidet. Bis zu einer gewissen Grenze zumindest.

Die Performance der Karte auf Grund der Temperatur und der Stromaufnahme zu begrenzen macht einfach viel mehr Sinn.


Das ist Propaganda von dir, behaupte ich jetzt mal ganz grotesk.
Ich sehe in deinen Argumentationen ausweichende Aussagen, die das Kernthema sogut es nur geht umschiffen, ähnlich wie bei einem ganz bestimmten User der hier vor einiger Zeit das Forum verlassen hat.
Die ganzen Sticheleien könnt ihr Euch übrigens sparen. Dadurch wird Eure Argumentation nicht besser, ihr macht Euch nur irgendwie lächerlich damit. Und ja, Deine Behauptung ist in der Tat grotesk :)

Grestorn
2013-03-02, 13:20:19
Wasserkühlung vom Feinsten vs. normale Luftkühlung und die Titan ist lufgekühlt...

Dein Diskussionsstil ist auch nicht der Beste, auch wenn du es nett (kleine Schwester von na du weißt schon) verpackst.

Ich habe mein Posting zu meiner Kühlung eigentlich nicht als Wettbewerb gegen Ulukay gesehen sondern nur als weiteren Input - Ulukay hat nur den Anlass gegeben, das selbe auch zu versuchen.

Ich bin weiterhin klar der Ansicht, dass Ulukay mit seinen Komponenten die Kühlung seines Rechners deutlich überfährt unter Volllast.

Was ist denn eigentlich an meinem Diskussionsstil genau auszusetzen?

Grestorn
2013-03-02, 13:23:54
EoD.

EoD = "Aus die Maus, akzeptiert meine Meinung oder lasst es bleiben. Reden lasse ich mit mir nämlich nicht!"

Knuddelbearli
2013-03-02, 13:46:17
Beim bisherigen OC Verfahren, musste ich einen statischen Wert für Takt und Spannungen raussuchen. Dabei konnte ich entweder konservativ vorgehen, so dass wirklich genügend Spielraum nach oben ist - damit läuft dann zwar alles und das System ist stabil, aber ich verschenke in vielen Situationen vorhandenes Potential.

gerade der Boost verschenkt doch massenweise Spielraum, Spannung muss ja für alle GPUs gleich passen, mit manuellen OC wo kein Boost reinpfuscht wären dann locker 100Mhz mehr möglich oder 0,05V weniger

Oder ich gehe ans Limit, dann nutze ich zwar in "normalen" Situationen die Karte aus, muss aber damit rechnen, dass in Spitzensituationen die Karte überhitzt und es Grafikfehler gibt oder es sogar zum Crash kommt.

wo passiert den das bitte?


und die Titan kommt immer noch mit LuKü

robbitop
2013-03-02, 13:56:47
Statisch übertakten geht doch sicher immernoch, oder? Sofern es ein deaktivierbares Feature ist, ist es für den Endverbraucher kein Nachteil. Nicht jeder möchte übertakten.

Grestorn
2013-03-02, 14:00:44
Statisch übertakten geht doch sicher immernoch, oder? Sofern es ein deaktivierbares Feature ist, ist es für den Endverbraucher kein Nachteil. Nicht jeder möchte übertakten.
Nur über Tricks ("P2-Trick" von Orbmu2k). Und die Spannung kann man vermutlich wieder mit Precision X festnageln.

Für Leute, die an die Grenze des absolut machbaren gehen wollen, ist das alles ziemlich umständlich und ich kann verstehen, dass die nicht so happy sind.

Der Normalanwender, der einfach nur ne flotte GraKa haben will die möglichst viel Speed bringt aber auch keine Probleme machen sollte (und zu denen zähle ich mich), hat in meinen Augen nicht viel Grund sich über Boost 2.0 zu beschweren. Im Gegenteil.

gerade der Boost verschenkt doch massenweise Spielraum, Spannung muss ja für alle GPUs gleich passen, mit manuellen OC wo kein Boost reinpfuscht wären dann locker 100Mhz mehr möglich oder 0,05V wenigerDie max. Spannung kann man ja auch in gewissen Grenzen einstellen - wenn auch in meinen Augen nicht flexibel genug. Aber angeblich erlaubt nVidia ja diesmal den Partnern bei der Titan das aufzubohren.

Dass man manuell mehr rausholen kann, hatte ich selbst geschrieben. Aber das kriegst Du nur zu einem Preis:

wo passiert den das bitte?Man sollte meinen, dass Du die entsprechenden Postings schon kennst, oder bist Du noch nicht lang genug unterwegs? Ich wäre reich, wenn ich einen Penny für jedes mal hätte, dass ich in irgendwelchen Foren eines Spieleherstellers Beschwerden eines einzelnen Users gelesen habe, dass Spiel X immer wieder crasht oder Grafikfehler macht - was sonst keiner nachvollziehen kann.

Und wenn man den Kandidaten dann sagt "stellt doch mal den Standardtakt ein" kommt fast immer ein "nein, mein System ist 100% stable, das habe ich mit Tool xy ausführlich getestet! Dieses scheiß Spiel ist schuld, es ist nicht mit OC kompatibel!!!". Und ich lach mich dann immer kaputt.

fondness
2013-03-02, 14:01:31
Statisch übertakten geht doch sicher immernoch, oder? Sofern es ein deaktivierbares Feature ist, ist es für den Endverbraucher kein Nachteil. Nicht jeder möchte übertakten.

AFAIK lässt sich das wie schon bei Gk104 nicht wirklich deaktivieren.

robbitop
2013-03-02, 14:09:52
Dann ist die Lösung suboptimal. Es sollte NV sicher kaum Arbeit kosten, das Feature deaktivierbar zu machen.
(Ich habe noch eine Fermi und kenne die Kepler noch nicht so sehr im Detail.)

Dural
2013-03-02, 14:52:17
galaxy soll ja eine gtx titan ohne boost auf den markt bringen.

Knuddelbearli
2013-03-02, 16:19:38
Man sollte meinen, dass Du die entsprechenden Postings schon kennst, oder bist Du noch nicht lang genug unterwegs? Ich wäre reich, wenn ich einen Penny für jedes mal hätte, dass ich in irgendwelchen Foren eines Spieleherstellers Beschwerden eines einzelnen Users gelesen habe, dass Spiel X immer wieder crasht oder Grafikfehler macht - was sonst keiner nachvollziehen kann.

Und wenn man den Kandidaten dann sagt "stellt doch mal den Standardtakt ein" kommt fast immer ein "nein, mein System ist 100% stable, das habe ich mit Tool xy ausführlich getestet! Dieses scheiß Spiel ist schuld, es ist nicht mit OC kompatibel!!!". Und ich lach mich dann immer kaputt.

Und weill einige Idioten zu dumm sind soll man ( bei einer 1k€ Grafikkarte ) die Enthusiasten entmündigen?

Und solche Fälle wie du da oben beschreibst werden eher noch viel häufiger werden. schließlich gibt es einige Dutzend Spannungen und Frequenzen, wenn da nur irgend eine nicht ganz stabil ist wenn man manuell nachjustiert viel spass ...
OC Testen kann man mit Boost auch mehr oder weniger vergessen. Max freq und Basis ist vielleicht stabil aber die ganzen kleinen Schritte dazwischen ...
Man muss sich also quasi für jeden Schritt irgend ein Spiel aussuchen das genau diese Frequenz + Spannung die meiste Zeit anliegen hat na viel Spass ...

Cubitus
2013-03-02, 16:44:34
Also verstehe die ganze Aufregung nicht.

Hab jetzt auch ne Titan, die Lüfterkurve manuell angepasst und die Karte geht nie unter 1080 Mhz... Zwar laut wie sau, aber Leistung verfügbar. Wird auf Kurze Sicht eh unter Wasser gesetzt von dem her egal...:D. Mit Wasser sind wohl nochmal ~100 Mhz mehr drin...

robbitop
2013-03-02, 16:55:39
Müsste es nicht mit demm Full-Speed-DP Feature gehen (statisches OC)? Boost ist damit angeblich aus und übertakten sollte dann mit Tools möglich sein.
Spiele nutzen eh kein DP und sollten keine negativen Auswirkungen davon haben.

Cubitus
2013-03-02, 17:35:09
Also DP ist im Standard schon off.. Und der boost ist schon dynamisch...

robbitop
2013-03-02, 17:53:11
Nein - man muss es anschalten, damit der Boost ausgeht. ;)

ndrs
2013-03-02, 17:56:15
Müsste es nicht mit demm Full-Speed-DP Feature gehen (statisches OC)? Boost ist damit angeblich aus und übertakten sollte dann mit Tools möglich sein.
Spiele nutzen eh kein DP und sollten keine negativen Auswirkungen davon haben.
Sind dann nicht die SP-Einheiten deaktiviert? Dann hätte ja das Spiel, das diese DP-Einheiten nur für SP benutzt nur ein drittel (War die DP:SP-Ratio 1:3?) der ALU-Leistung zur Verfügung.

Cubitus
2013-03-02, 18:10:44
Nein - man muss es anschalten, damit der Boost ausgeht. ;)

Werds mal testen...

robbitop
2013-03-02, 18:31:14
Sind dann nicht die SP-Einheiten deaktiviert? Dann hätte ja das Spiel, das diese DP-Einheiten nur für SP benutzt nur ein drittel (War die DP:SP-Ratio 1:3?) der ALU-Leistung zur Verfügung.
Ich hoffe nicht...
Ich dachte, dass die gleichen ALUs genutzt werden und für höhere Genauigkeit einfach geloopt wird.

Der_Donnervogel
2013-03-02, 19:14:15
[x] andere Meinung siehe Post
Das Problem liegt ganz eindeutig bei den Testern und nicht bei der Karte. Wenn die neue Karte einen geänderten Testaufbau benötigt und die Tester das nicht bemerken, dann ist nicht NV ein Cheater, sondern die Tester sind inkompetent.

Im Grunde muss man NV dankbar sein, dass sie auf diese Art schonungslos offenlegen wer wirklich Ahnung vom Testen hat und wessen Skills sich darauf beschränken Grafikkarten zu tauschen und die Länge eines Balkens abzulesen und diesen dann mit einem (oder sogar mehreren) anderen Balken zu vergleichen.

N0Thing
2013-03-02, 19:53:01
trennt euch sowiso bitte mal von der vorstellung TITAN würde seine maximale boost-performance durchgehend abrufen und in den spielen abliefern, nicht ohne grund gibt der hersteller eine NIEDRIGERE, verrechnete durschnittliche boost-geschwindigkeit an. es wird nix von max auf dauerlast gedrosselt, sondern vom basistakt auf den mittleren boost-takt angehoben und maximal sogar bis auf den max-wert. sorum wird ein schuh draus. alles andere müsste auch die älteren chips direkt auf und hinter der notabschaltungsgrenze namens chiptemperatur testen. macht keiner, verlangt keiner... warum? weils dumm, unsinnig und wider der natur ist.

Es verlangt keiner, weil ich bei alten Karten ohne Boost in einer festen Benchmarksequenz immer die gleiche Balkenlänge erreiche, egal ob die Luft 20°C warm ist oder 30°C. Vom Testen in einem Backofen war ja nie die Rede, ebenso wenig ein Testen auf und hinter der Notabschaltungsgrenze bei Titan, oder?

Deshalb an dieser Stelle noch mal Hut ab vor all den Redaktionen, die sich mit der Testproblematik auseinander gesetzt haben und ihren Lesern mehr als das Übliche geboten haben. :up:


ahso ok, ja kann man sehen wie man will
gab aber auch den Tessalation Regler für AMD und das war in diversen Benches auch ne Verfälschung


Nur wenn der Tester selber die Einstellungen verändert hat. In der Standardeinstellung hat der Schalter bis heute keinerlei Auswirkungen gehabt.

Skysnake
2013-03-02, 19:59:43
[x] andere Meinung siehe Post
Das Problem liegt ganz eindeutig bei den Testern und nicht bei der Karte. Wenn die neue Karte einen geänderten Testaufbau benötigt und die Tester das nicht bemerken, dann ist nicht NV ein Cheater, sondern die Tester sind inkompetent.

Im Grunde muss man NV dankbar sein, dass sie auf diese Art schonungslos offenlegen wer wirklich Ahnung vom Testen hat und wessen Skills sich darauf beschränken Grafikkarten zu tauschen und die Länge eines Balkens abzulesen und diesen dann mit einem (oder sogar mehreren) anderen Balken zu vergleichen.
Sorry, wie bescheuert ist denn die Denke? :ugly:

Mal auf andere Bereiche des Lebens übertragen, z.B. Sport:


Hey, was regt ihr euch über das neue Dopingmittel XY auf? Das ist doch kein Gecheate! Seid doch froh, dass das einige Sportler einsetzen. Das zeigt einem, wie unfähig die Dopingfahnder doch sind....


Ja ne is klar....

Blediator16
2013-03-02, 20:02:31
[x] andere Meinung siehe Post
Das Problem liegt ganz eindeutig bei den Testern und nicht bei der Karte. Wenn die neue Karte einen geänderten Testaufbau benötigt und die Tester das nicht bemerken, dann ist nicht NV ein Cheater, sondern die Tester sind inkompetent.

Im Grunde muss man NV dankbar sein, dass sie auf diese Art schonungslos offenlegen wer wirklich Ahnung vom Testen hat und wessen Skills sich darauf beschränken Grafikkarten zu tauschen und die Länge eines Balkens abzulesen und diesen dann mit einem (oder sogar mehreren) anderen Balken zu vergleichen.

Das heisst also NV könnte nach blieben( wie bei Dx11<>Dx11.1 ) lügen und es wäre die Aufgabe der Tester diese Dinge haargenau zu überprüfen?

Grestorn
2013-03-02, 20:05:39
:popcorn:

Ihr Hater seid unterhaltsamer als mancher schlechter Kinofilm. Nur weiter so :)

Blediator16
2013-03-02, 20:07:15
:popcorn:

Ihr Hater seid unterhaltsamer als mancher schlechter Kinofilm. Nur weiter so :)

Ich glaube du warst beim Tess Schalter im AMD CCC nicht dabei:freak:

ndrs
2013-03-02, 20:56:02
Ich hoffe nicht...
Ich dachte, dass die gleichen ALUs genutzt werden und für höhere Genauigkeit einfach geloopt wird.
Laut nV sind es dedizierte Einheiten, wobei das von vielen (inkl mir) bezweifelt wird. Aber selbst wenn sie loopen würden: Wozu wäre der Umschalter nötig, wenn in SP trotzdem das selbe rauskommen würde.

Schaffe89
2013-03-02, 21:11:49
Ihr Hater seid unterhaltsamer als mancher schlechter Kinofilm. Nur weiter so

Und deine Theorie mit dem weiter ausreizen der Karte, ist einfach nur Käse.
Der Boost bietet für den Nutzer keinen erkennbaren Vorteil und ist einfach nur ein Marketinginstrument, genauso wie der Boost bei AMD, der bisher scheinbar nur am Verbrauch orientiert ist.

Der Boost bringt dem Nutzer rein gar nichts, außer man nutzt die einstellungen um bei zu vielen FPS Strom zu sparen, dazu kann man aber schlicht die Karte untertakten und weniger Spannung geben.

Man hätte die GHZ Edition ganz einfach auf 1050mhz festpinnen können, die Titan eben dann vielleicht auf 850 mhz.

Godmode
2013-03-02, 21:15:01
Und deine Theorie mit dem weiter ausreizen der Karte, ist einfach nur Käse.
Der Boost bietet für den Nutzer keinen erkennbaren Vorteil und ist einfach nur ein Marketinginstrument, genauso wie der Boost bei AMD, der bisher scheinbar nur am Verbrauch orientiert ist.

Der Boost bringt dem Nutzer rein gar nichts, außer man nutzt die einstellungen um bei zu vielen FPS Strom zu sparen, dazu kann man aber schlicht die Karte untertakten und weniger Spannung geben.

Man hätte die GHZ Edition ganz einfach auf 1050mhz festpinnen können, die Titan eben dann vielleicht auf 850 mhz.

Der Boost kann in Verbindung mit VSync durchaus nützlich sein. Würde die Framerate unter die Zielframerate gehen, kann mit dem Boost etwas ausgeglichen werden. Die Alternative wäre die halbierte Framerate.

Bevor ich den Boost nicht selber erlebt habe, will ich hier keine Meinung äußern. Wenn ich das alles so lese, wird aber wieder aus einer Mücke ein Elefant gemacht. Am Montag kann ich mehr sagen.

gnahr
2013-03-02, 21:15:34
Man hätte die GHZ Edition ganz einfach auf 1050mhz festpinnen können, die Titan eben dann vielleicht auf 850 mhz.
und zumindest titan hätte man nicht resultats-adäquat pinnen können, ihr habt die funktion immer noch nicht ansatzweise durchdrungen.
grestorn steht leider auf verlorenem posten wenn er die form von wolken mit leuten disskutieren möchte, die noch nichtmal zum himmel blicken können und dann proklamieren es besser zu wissen.

boxleitnerb
2013-03-02, 21:20:53
Auch du, schaffe, wetterst gegen den Boost, obwohl du ihn gar nicht richtig verstanden hast.

Der Anwender muss sich keinen großen Kopf machen mit Übertakten oder mit eventuellen Stabilitätsproblemen (Spannung reicht nicht aus, Takt zu hoch usw.), alles passiert automatisch. Wenn man nicht will, dass die Karten zuviel verbrauchen oder zu warm werden (Lebensdauer), regelt das der Boost ebenfalls nach Wunsch.

Ja, es macht das Testen komplizierter und alles Neue ist erstmal böse, aber dass der Boost keinen erkennbaren Vorteil bietet, ist völliger Unsinn. Der Boost ist in gewissem Sinne ein Pendant zu Geforce Experience. Die allermeisten Anwender sind unbedarft und wollen, dass alles automatisch geht, sie wollen und können sich nicht auseinandersetzen mit den Feinheiten. Genau da kommt der Boost ins Spiel.

Schaffe89
2013-03-02, 21:53:34
Auch du, schaffe, wetterst gegen den Boost, obwohl du ihn gar nicht richtig verstanden hast.


Eigentlich ist der Boost für Übertakter hinderlich, wenn man in nicht komplett deaktivieren kann.
Die max. Temperatur hochzusetzen ist jetzt das gleiche wie mehr Takt einzustellen bis zu einem bestimmten Grad, das ist für Daus vielleicht etwas einfacher, für enthusiasten die sich auskennen ist das aber bestimmt kein Vorteil.

Ja, es macht das Testen komplizierter und alles Neue ist erstmal böse, aber dass der Boost keinen erkennbaren Vorteil bietet, ist völliger Unsinn.

Echt welcher Vorteil soll das sein? Bei OC?Ich sehe da keinen.
Und neues ist nicht per se böse.

Die allermeisten Anwender sind unbedarft und wollen, dass alles automatisch geht, sie wollen und können sich nicht auseinandersetzen mit den Feinheiten. Genau da kommt der Boost ins Spiel.

Der Boost bringt gar nichts fürs Übertakten.
Ich kenne keinen Übertakter der sich daran erfreut, dass man jetzt die Temp Grenze hochsetzen muss, anstatt mehr Takt einzustellen und den Boost zu nutzen.
Ansonsten argumentierstdu nie mit Daus. Wenn das Argument kam, bei AMD kann man SGSSAA per Treiber forcieren, war dir das doch auch immer egal, dass man das bei nvidia mit einem zusätzlichen Tool und AA Bits einstellen musste, da kam von dir nie ein Vorteil für Daus. Man legt es sich so hin wie man es braucht. ;)

Ist mir zu blöd.

boxleitnerb
2013-03-02, 21:57:28
Die Mehrheit sind aber keine Übertakter oder Enthusiasten. Die Vorteile habe ich dir doch aufgelistet, du musst nur lesen.

Das ist wie wenn du in ein McDonalds gehst und dich beschwerst, dass sie keine Bedienung oder Stoffservietten haben. Die Leute, auf die du dich da immer beziehst, sind NICHT die Zielgruppe.

Schaffe89
2013-03-02, 22:02:40
Ach komm, das Argument das du grade auffahrst ist dir persönlich völlig latte.
Du hast noch nie so argumentiert, und jetzt plötzlich tust du es, weil du biased bist.

Weil die Zielgruppe für Titan ja so viele Daus sind, die nicht wissen wie man nen höheren Takt einstellt. ;D

Da kriegt man ja n Lachkrampf.

Zeige mir bitte wo die Vorteile des Boosts liegen, wenn ich übertakten möchte.:P

Und jetzt keine solchen Butterbrotargumente, sondern tacheles.

http://www.phase-5.net/dies-und-das/10-argumente-fuer-das-butterbrot/

boxleitnerb
2013-03-02, 22:09:20
Ach komm, das Argument das du grade auffahrst ist dir persönlich völlig latte.
Du hast noch nie so argumentiert, und jetzt plötzlich tust du es, weil du biased bist.

Weil die Zielgruppe für Titan ja so viele Daus sind, die nicht wissen wie man nen höheren Takt einstellt. ;D

Da kriegt man ja n Lachkrampf.

Zeige mir bitte wo die Vorteile des Boosts liegen, wenn ich übertakten möchte.:P

Ich bin nicht biased, ich kann halt logisch denken. Der Boost wurde nicht für Titan gemacht, sondern für die gesamte Keplerfamilie. Du scheinst nicht zu verstehen, dass Übertakter einen extrem kleinen Prozentsatz aller Grafikkartenkäufer ausmachen. Die Minderheit muss sich hier eben der Mehrheit unterordnen. Ich persönlich würde den Boost auch gerne ausschalten, allerdings kann ich nachvollziehen, dass er für die restlichen 99.99% aller Käufer Vorteile bietet, die mir selbst vielleicht nicht oder nicht so wichtig sind. Es wäre arrogant zu glauben, dass sich alles nur um einen selbst dreht.

Vielleicht solltest du einfach nicht mitdiskutieren, wenn du nur bashen willst und vorgebrachte Argumente einfach ignorierst.

Schaffe89
2013-03-02, 22:16:34
Du scheinst nicht zu verstehen, dass Übertakter einen extrem kleinen Prozentsatz aller Grafikkartenkäufer ausmachen.

Und was interessiert das uns? Ich will hier keine Diskussion darüber führen wie hoch der Marktanteil von enthusiasten sind, welche ihre Hardware übertakten.

Ich persönlich würde den Boost auch gerne ausschalten, allerdings kann ich nachvollziehen, dass er für die restlichen 99.99% aller Käufer Vorteile bietet, die mir selbst vielleicht nicht oder nicht so wichtig sind. Es wäre arrogant zu glauben, dass sich alles nur um einen selbst dreht.


Ja, aber das hat mich bisher nicht interessiert. Ich habe gesagt, für den Dau mag das vielleicht ganz nett sein und ein kleiner Vorteil sein, nicht mehr Taktraten hochzustellen, sondern Temp Limits.

Mir geht es aber um uns Übertakter und da haben wir keinen Vorteil.
Warum dann auf einmal Daus wichtig sind, kapiere ich grade nicht.

Also was soll der Käse? Entweder wir duskutieren hier gescheit, oder du machst mir weiß, dass 99.99% der Käufer von Titan Daus sind, und diese Gefallen daran finden die Karte jetzt mit Power Targets zu übertakten, anstatt mit der herkömmlichen Art und Weise.

Wenn man nicht will, dass die Karten zuviel verbrauchen oder zu warm werden (Lebensdauer), regelt das der Boost ebenfalls nach Wunsch.


Nein, das regelt man immernoch selbst mit dem Power Target. Wenns zu laut wird, hilft nur Power Target und Max Temp verringern, dann taktet die Karte geringer, die Spannung ist weniger und man ist wieder leiser.

Vielleicht solltest du einfach nicht mitdiskutieren, wenn du nur bashen willst und vorgebrachte Argumente einfach ignorierst.

Was interessieren mich deine Ausflüchte bezüglich Daus? Gar nicht.

StefanV
2013-03-02, 22:17:32
Die Vorteile habe ich dir doch aufgelistet, du musst nur lesen.
Also ich kann deinen Ausführungen gerade auch nicht so richtig folgen. Magst du das noch etwas näher ausführen, damit ich deine Sichtweise besser verstehen kann??

boxleitnerb
2013-03-02, 22:21:57
Und was interessiert das uns? Ich will hier keine Diskussion darüber führen wie hoch der Marktanteil von enthusiasten sind, welche ihre Hardware übertakten.

Ja, aber das hat mich bisher nicht interessiert. Ich habe gesagt, für den Dau mag das vielleicht ganz nett sein und ein kleiner Vorteil sein, nicht mehr Taktraten hochzustellen, sondern Temp Limits.

Mir geht es aber um uns Übertakter und da haben wir keinen Vorteil.
Warum dann auf einmal Daus wichtig sind, kapiere ich grade nicht.

Was interessieren mich deine Ausflüchte bezüglich Daus? Gar nicht.

Es sind keine Ausflüchte, denn du selbst hast von "dem Nutzer" gesprochen, also verallgemeinert. Es ist nicht mein Problem, wenn du dich nicht präzise ausdrücken kannst.

@StefanV:
Ich wüsste nicht, wie ich das noch deutlicher erklären sollte. Wie der Boost funktioniert, kannst du überall nachlesen. Wichtig ist dabei halt, im Hinterkopf zu behalten, dass bei solchen Geschichten wie Boost, FXAA, GFE usw. die "Masse" im Fokus steht.

Schaffe89
2013-03-02, 22:25:18
Du bewegst dich grade auf einem sehr dünnen Pfad, bezüglich Schönrederei und Doppelmoral und Erbsenzählerei.

Da habe ich keinen Bock drauf.

Es war die Ganze Zeit die Rede von OC und dem Vorteil die Karten angeblich weiter auszureizen, wenn du mächtig bist einem Zusammenhang zu folgen.
Hier jetzt mit Daus ( die ja daraus voll die Vorteile haben ( sie müssen genauso wie vorher und vorher noch nie übertaktet haben) anzukommen, ist doch wohl nicht dein ernst?

Während man bei AMD im Treiber einfach den Takt etwas noch oben zieht, muss der Dau ein externes Tool installieren ( EVGA Precision zum Bleistift).
Der Dau muss also die max Temp hochstellen und das Powertarget hochziehen, alles mit dem externen Tool.

Das ist ja sooo viel einfacher als einfach den Takt hochzudrehen. :freak:

Mann erreicht dann 10% Mehrleistung, was für OC nicht viel ist. Ab dem Punkt muss der Dau dann auch wieder am Takt drehen, extrem einfach, genau.

boxleitnerb
2013-03-02, 22:31:23
Du bewegst dich grade auf einem sehr dünnen Pfad, bezüglich Schönrederei und Doppelmoral.
Da habe ich keinen Bock drauf.

Wenn Herr Schaffe die Argumente ausgehen, wird er persönlich und unterstellt Bias? Ist ja nix Neues. Ich muss nix schönreden, der Boost IST schön für die meisten Anwender. Doppelmoral? Eher (wieder) Verständnisprobleme auf deiner Seite. Die Kunst ist halt, differenzieren zu können zwischen den Anforderungen verschiedener Anwendergruppen. Das hat mit "Doppelmoral" Nullkommargarnichts zu tun.

Schaffe89
2013-03-02, 22:35:34
Argumente ausgehen? Du hast noch kein einziges Argument gebracht was konstruktiv ist, also suche mal lieber bei dir den Fehler.

Du verteidigst eine Funktion von Nvidia mit allen Mitteln, egal wie unsinnig du sie selbst findest.
Was für eine Loyalität gegenüber deiner Lieblinsgfirma.

Ich wüsste nicht, wie ich das noch deutlicher erklären sollte.

Du könntest mir mal zum Beispiel erklären, was ich durch des Nutzen des Boost 2.0 konkret für Vorteile habe.??? Es gibt kein einziges Argument, außer deine Dau Ausflüchte, die mal eben exteren Tools installieren und dann die Regler hochziehen und dafür eine lautere Karte haben.
Laut CB taktet die Karte fast immer um den Dreh mit 836 bis 875mhz.

Nvidia gibt an:

Durch die Verbesserungen bei GPU Boost 2.0, die primär per Software realisiert worden sind, will Nvidia die Performance um drei bis sieben Prozent gegenüber GPU Boost 1.0 verbessert haben.

Was soll das für ein Käse sein? Ich kann die Verbesserung des Boosts überhaupt nicht messen.
Meint Nvidia mit der Verbesserung die stärkere Abhängigkeit von der Temperatur? Das ist doch nun wirklich keine Verbesserung, sondern genau das Gegenteil.

Nvidia wirbt mit einer Verbesserung des Boosts um 3 bis 7%. In Wirklichkeit ist das einfach nur Augenwischerei.

Knuddelbearli
2013-03-02, 23:27:19
Wenn Herr Schaffe die Argumente ausgehen, wird er persönlich und unterstellt Bias? Ist ja nix Neues. Ich muss nix schönreden, der Boost IST schön für die meisten Anwender. Doppelmoral? Eher (wieder) Verständnisprobleme auf deiner Seite. Die Kunst ist halt, differenzieren zu können zwischen den Anforderungen verschiedener Anwendergruppen. Das hat mit "Doppelmoral" Nullkommargarnichts zu tun.


sagt derjenige der allen anderen unterstellt nicht logisch denken zu können :facepalm:

Grestorn
2013-03-02, 23:33:33
Lass es einfach, box

Es ist von nVidia, also hat es gefälligst Mist zu sein. Da kommt man mit so etwas schnödem wie Argumenten nicht an.

Schaffe89
2013-03-02, 23:46:07
Welche Argumente?

Ich höre bisher nur von einem Argument was eigentlich meine Fragestellung nicht tangiert und dass beinhaltet, dass weniger versierte Nutzer es einfacher zu übertakten haben sollen... angeblich.
Und nicht mal das kann ich voll nachvollziehen, das einzige was ich eventuell positiv sehe ist die dynamische Taktung und das etwas niedrigere Risiko mit einer einfachen Target und max. Temp Anhebung die Karte zum Absturz zu bringen.
Während ich bei ner alten GTX 580 da vielleicht mehr falsch machen kann.

Wenn der dau dann allerdings schon EVGA´s Tool installiert hat, stehen ihm aber alle Optionen offen, auch Takterhöhungen, evtl. Spannungen bis 1,2 Volt etc..
Aus meiner Sicht wird der User aber ins Geschirr genommen und Freiheiten werden begrenzt.

Naja, könnt ihr sehen wie ihr wollt. Ich sehe die Vorteile des Boosts jedenfalls stark begrenzt, unterm Strich sehe ich keinen Vorteil.

(del676)
2013-03-02, 23:54:16
Interessant. Die freiwillige nvidia Marketingabteilung dreht sich wie ein Faehnlein im Wind.

Auf die Frage nach der Zielgruppe?
Antwort: technikaffine Enthusiasten mit Geld

Auf die Frage was das mit dem Boost 2.0 soll?
Antwort: ja ist doch besser fuer "die Masse" und "den Normalanwender", da ist es zu verkraften wenn Enthusiasten beim overclocking Handstaende machen muessen

Ja was nun? :lol: :lol:
ist die Karte nun fuer Daus oder doch fuer Enthusiasten?

StefanV
2013-03-03, 00:16:24
@StefanV:
Ich wüsste nicht, wie ich das noch deutlicher erklären sollte. Wie der Boost funktioniert, kannst du überall nachlesen. Wichtig ist dabei halt, im Hinterkopf zu behalten, dass bei solchen Geschichten wie Boost, FXAA, GFE usw. die "Masse" im Fokus steht.
Mit anderen Worten:
Du hast keine Ahnung und verteidigst deine Karte, wie ein Priester seinen Gott verteidigt??

Was ich aber nicht verstehe ist, warum du es toll findest, dass die Titan 'im Normalzustand' den Boost nur für einige wenige Minuten halten kann. Magst du das noch einmal näher Ausführen, warum das ein Vorteil ist? Weil gerade diesen Punkt verstehe ich gerade nicht.

StefanV
2013-03-03, 00:20:24
der Boost IST schön für die meisten Anwender.
Ich bitte dich an dieser Stelle noch einmal, das näher zu erläutern, denn mir ist immer noch nicht klar, wo der Vorteil von einem Boost ist, der nur wenige Minuten verfügbar ist.

Das verstehe ich irgendwie nicht soo ganz. Magst das bitte noch einmal erklären?

Tesseract
2013-03-03, 04:13:00
Ich bitte dich an dieser Stelle noch einmal, das näher zu erläutern, denn mir ist immer noch nicht klar, wo der Vorteil von einem Boost ist, der nur wenige Minuten verfügbar ist.

Das verstehe ich irgendwie nicht soo ganz. Magst das bitte noch einmal erklären?

wurde doch schon gesagt. wenn z.B. in einem spiel die last schwankt und die karte nicht die ganze zeit auf 100% läuft (und dadurch auch nicht so heiß ist - mit vsync ist das oft der fall) kann der boost kurze last-spikes besser ausgleichen und eventuell ruckler verhindern die man sonst hätte.

so zumindest in der theorie, da der takt sich in sekundenbruchteilen anpassen kann wärend die temperatur des kühlkörpers eher träge ist.

DR.DEATH
2013-03-03, 04:26:53
Wenn AMD die Karte vorgestellt hätte wärs hier im Forum bestimmt sau geil geworden. Die Dreckschweine cheaten eh immer, nur NV ist der Hort der Gerechten.

Kurz zusammengefasst:
- Karte lässt sich nicht zuverlässig übertakten; optimized for Berufskind Dummbratze (DAU mit zuviel Geld)
- verwendete Taktrate erinnert eher an Roulette
- GPGPU Anwendungen funktionieren nach aktueller Mondphase und Stärke der Sonneneruption; dachte die Treiber sind mindestens 200% geiler als AMDs?
- Minderbemittelte haben jetzt Monitor OC (war bei CRTs damals© normal und hat dort sogar mehr Bilder angezeigt als bei wohl 95% der TFTs aber einige glauben ja noch dass aus nem 60Hz Panel auf einmal 120Hz werden...)
- man hat 20-40% mehr Leistung (Positiv!)

Mensch das klingt ja nach einem unglaublich guten Angebot. Diskussion von wegen Preis/subjektiver Preis/Wert/gefühlte Preis-Leistung/Elektronen und Snickers pro Quadratzoll englischen Rasen: Da lass ich mir lieber mit einem goldenen Piercing das Arschloch verschönern. Hat auch keinen Nutzen, ist aber subjektiv mindestens 20-40% bunter als in der Achterbahn...

Cubitus
2013-03-03, 07:30:46
Wieso hat er sich die Karte auch gekauft? Na dann ist alles klar.:rolleyes:
Bei dem hohen Preis und der Tatsache dass die Karte bald nurnoch die Hälfte wert sein wird, ist man wahrscheinlich total verblendet und schreibt nur Käse.
Aber stimmt, man muss vor allem die Masse im Hinterkopf behalten für die Boost 2.0 ( der ja nur bei Titan funktioniert) ja so unglaublich gut ist, dass weg vom garantierten Takt gleich 3% im Mittel beim Spielen durch den Boost zulegt.
So ein Boost ist schon etwas tolles, vor allem für die Masse, die davon einfach viel stärker profitiert als der Enthusiast....

Klar die Karte ist teuer, klar der Boost ist bei normalen übertakten eher hinderlich! Gebe ich dir Recht.
Ist allerdings auch nicht so das der Refrenz-Takt gerade langsam ist ;) Die Titan ist atm ein richtiger Dampfhammer, auch ohne Boost ;).
Besonders in hohen Auflösungen+AA (was ja bisher immer die Stärke von AMD-Karten war..)

Und warum bist du dir denn so sicher das AMD im Herbst was Besseres raus bringen wird!?
Das muss sich wie gesagt erst noch zeigen. Zudem glaube ich nicht an Herbst, eher an wenn überhaupt, den Jahreswechsel bzw. 2014 Frühling!
Und dann vermutlich "nur" gleiche Leistungs-Liga. Aber dann zum typischen AMD Preis, was natürlich nicht übel wäre!

Aber die Titan ist mitnichten eine Dau-Karte wie du sagtest.
Ein Dau würde niemals 950 Euro für ne Karte ausgeben, das bezahlen nur die Verrückten, welche die jetzigen Leistung wertschätzen! :D

Ein Enthusiast setzt das Teil eh unter Wasser und damit ist das Temp-Target eh nicht mehr so bedeutend.
Mit einer ordnetlichen Wakü wird der Titan vollends von der Kette genommen und entfesselt die max Leistung.
Der verbaute Kühler ist zwar sehr hochwertig (dagegen wirken alle AMD-Kühler durchweg wie billiges China-Plastik)
aber für so einen großen Chip eben nicht wirklich effizient genug.

2013 wird man mit der Karte jedenfalls kompromisslosere Settings fahren können, als mit der besten AMD-Singel Karte ;)
Und schon allein dass lass ich mir auf der Zunge zergehen und reibe es jeden AMD-Fanboy unter die Nase....

wurde doch schon gesagt. wenn z.B. in einem spiel die last schwankt und die karte nicht die ganze zeit auf 100% läuft (und dadurch auch nicht so heiß ist - mit vsync ist das oft der fall) kann der boost kurze last-spikes besser ausgleichen und eventuell ruckler verhindern die man sonst hätte.

so zumindest in der theorie, da der takt sich in sekundenbruchteilen anpassen kann wärend die temperatur des kühlkörpers eher träge ist.

Man müsste mal testen. Mir fällt aber gerade kein Spiel oder Szenario ein. Hmm Einer ne Idee, anyone?

boxleitnerb
2013-03-03, 08:40:13
Mit anderen Worten:
Du hast keine Ahnung und verteidigst deine Karte, wie ein Priester seinen Gott verteidigt??

Was ich aber nicht verstehe ist, warum du es toll findest, dass die Titan 'im Normalzustand' den Boost nur für einige wenige Minuten halten kann. Magst du das noch einmal näher Ausführen, warum das ein Vorteil ist? Weil gerade diesen Punkt verstehe ich gerade nicht.

Könntest du es mal sein lassen, so einen Quatsch zu erzählen und lesen, was ich schreibe? Ich habe doch bereits erklärt, wo die Vorteile von Boost 2.0 (allgemein!) liegen! Eben in einer komfortablen Automatik, bei der sich der Anwender nicht weiter kümmern muss und mehrere Regelschrauben hat (TDP, Temperatur). Jetzt klar? Wenn du Probleme hast, es dir vorzustellen: Denk an die Tempoautomatik, die es in Amiautos gibt. Stick auf Auto, 90 km/h einstellen und man muss sich nicht um Gangschaltung, Gas geben etc. kümmern.

Und was ist "der" Boost? Meine beiden Karten boosten im Schnitt mit mindestens 876 MHz, und ich habe gestern ausgiebig gebenchmarkt und Crysis 3 gespielt. Wie wäre es also, wenn du die Beurteilung von solchen Dingen den Leuten überlässt, die selbst Karten haben und dies aus erster Hand beurteilen können? Soviel also zu "nur wenige Minuten". Wenn du von dem Maximum (also 1006 MHz) ausgehst, dann stimmt das, aber 1006 MHz sind eben nicht der Basistakt...sollte logisch sein. Klar, wenn man im Sommer nicht für adequate Kühlung sorgt, könnte es anders aussehen. Aber ganz ehrlich: Unter den Umständen sind Karten ohne Boost womöglich auch am Throtteln oder blasen dir die Ohren weg.

Für den Enthusiasten, der die letzten paar MHz aus seiner Karte holen will, ist der Boost natürlich etwas hinderlich, speziell unter Luft, wie ich anhand meiner eigenen Erfahrungen hier und im anderen Thread ja schon geschildert habe. Allerdings sind mit einer aggressiveren Lüfterkurve und erhöhten Targets schon 1000-1100 MHz drin je nach genauen Umgebungsbedingungen. Soviel höher wird man mMn auch mit Wasserkühlung nicht kommen. Das ist schon sehr ordentlich für so eine große GPU.

Ich bin übrigens sicher, dass wir den Boost 2.0 auch in zukünftigen Produkten sehen werden, sowas entwickelt man nicht nur für eine SKU. Von daher ist meine Argumentation bzgl. der Zielgruppe schon gültig. Titan bekommt es halt zuerst, irgendwo muss man ja anfangen.

robbitop
2013-03-03, 09:56:47
wurde doch schon gesagt. wenn z.B. in einem spiel die last schwankt und die karte nicht die ganze zeit auf 100% läuft (und dadurch auch nicht so heiß ist - mit vsync ist das oft der fall) kann der boost kurze last-spikes besser ausgleichen und eventuell ruckler verhindern die man sonst hätte.

so zumindest in der theorie, da der takt sich in sekundenbruchteilen anpassen kann wärend die temperatur des kühlkörpers eher träge ist.
Einen Ruckler eliminieren durch ~10 % mehr Takt? :|
Als Enthusiast würde ich die Karte unter Wasser jedenfalls statisch auf ihrem Maximumtakt betreiben.

gnahr
2013-03-03, 10:33:27
Einen Ruckler eliminieren durch ~10 % mehr Takt? :|
na schlimmer wird er bestimmt nicht wenn die karte nach ner ruhigen phase dir eben 10% mehr takt für die kritische stelle zuschießt. :smile:


adjustable vsync, adjustable frametarget, adjustable targettemp, adjustable powerlimit...
das muss man alles im verbund betrachten und dann stellen sich manche partou dumm nur um die maximale obergrenze des bosts schlecht zu reden, weil ein garantierter gerundtakt (denn zahlreiche seiten auch gebencht haben), sowie die mittlere boostgeschwindigkeit nicht in ihr konzept passt und man dort vielleicht auf die 3 bis 7% vorteil gegen boost-alpha kommt.
das ist das reinste affentheater hier, ich freu mich auf jeden fall wenn mal paar titanbesitzer in echten spielen per gpuz oder anderen tools
die auslastung der gpu, temperatur und den realen takt
aufzeichnen und bereitsellen zum drübergucken. ich war gestern beim red-orchestra2 spielen schon kurz davor meine gtx660 auszuwerten eben weil skysnake und andere den quark von statischer oberlast und betrug in benchmarks erzählt haben.