PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Geforce GTX Titan: (P)Review-Thread


Seiten : 1 2 [3] 4 5 6 7 8 9

Marty98
2013-02-28, 15:16:16
2001 habe ich ne Geforce 2 Ultra für fast 1400 DM erstanden, umgerechnet auf heute ist der Titan Preis ok...

Wenn man die reale Inflation mit einrechnet war die GF2 Ultra noch teurer als die Titan. Das Problem dabei: man ist gewohnt dass Hardware mit der Zeit günstiger wird. Siehe Festplatten, SSDs, CPUs.

Godmode
2013-02-28, 15:18:09
Wenn man die reale Inflation mit einrechnet war die GF2 Ultra noch teurer als die Titan. Das Problem dabei: man ist gewohnt dass Hardware mit der Zeit günstiger wird. Siehe Festplatten, SSDs, CPUs.

Nicht bei Highend karten, die haben meistens so zwischen 450-650 Euro gekostet. Jetzt kosten sie auf einmal 950 €

Skysnake
2013-02-28, 15:19:32
Ja, die Ultra war aber auch nen Ausreiser nach oben. Die Titan schlägt aber selbst nach Einbeziehung der Inflation die Ultra :ugly:

Also wirklich die teuerste SGPU aller Zeiten. :ugly:

Marty98
2013-02-28, 15:22:35
Ich kann mich erinnern wie vor sehr langer Zeit hier Razor 1000DM für irgend eine Geforce (3?) rausgehauen hat. Da hat sich keiner darüber aufgeregt. Ich dachte damals dass der Preis völlig irre ist. Mit der Kaufkraft von damals vs heute ist die Titan nur etwas teurer. Ich wollte damit nur sagen, dass die Leute im Graka-Bereich alle paar Jahre abgezockt wurden.

gogetta5
2013-02-28, 15:23:23
Nicht bei Highend karten, die haben meistens so zwischen 450-650 Euro gekostet. Jetzt kosten sie auf einmal 950 €

Was war denn die letzte "exklusive Highend" Karte, die direkt von Nvidia kam? Mir fällt grad nur die 8800 Ultra ein und die hat zum Start auch um die 700 Euro gekostet.

Titan setzt aber noch ne Schippe drauf, das stimmt wohl.

akuji13
2013-02-28, 15:41:51
Wenn ich die Titan mit Intels Extreme CPU's vergleiche, sieht das dann plötzlich völlig anders aus.

Wenn man die reale Inflation mit einrechnet war die GF2 Ultra noch teurer als die Titan.

So sieht es aus.

Titan kaufe ich aber nicht weil er leise und schön ist, sondern weil er schneller ist, als die anderen Karten.

Ich kaufe Titan, weil er schneller ist als meine 680, leiser und schöner.
Ich kaufe auch nur Karten mit dunklem PCB, mir ist die Optik durchaus wichtig....obwohl ich kein Fenster im Rechner habe. ;)

derguru
2013-02-28, 16:18:31
jetzt rechtfertigen sich schon die titankäufer,anscheinend selbst noch am zweifeln sonst würde man sich ein feuchten dreck dafür interessieren was andere darüber denken. (oder man kauft es genau aus dem grund)
kaufen,einbauen,spielen,benchen und gut ist.:wink:

BigKid
2013-02-28, 16:48:35
Kurzer Info happen:
Der Titan ist zickig... Der machts nicht mit jeder...
... anderen Karte... Es scheint auch mit INF File nicht möglich den Titan und eine andere GTX (als PhsyX GPU z.B.) gleichzeitig zum laufen zu bringen...

Wens interessiert:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9671456#post9671456

akuji13
2013-02-28, 16:49:08
Ich rechtfertige mich nicht, ich versuche nur die Welt zu verbessern. ;D

PHuV
2013-02-28, 16:49:17
Hier stand Unsinn.

akuji13
2013-02-28, 16:49:51
Kurzer Info happen:
Der Titan ist zickig... Der machts nicht mit jeder...
... anderen Karte... Es scheint auch mit INF File nicht möglich den Titan und eine andere GTX (als PhsyX GPU z.B.) gleichzeitig zum laufen zu bringen...


Sollte das stimmen, geht sie zurück. ;)

135i
2013-02-28, 16:58:57
lustig,was haste dir bei den settings vorgestellt? unter 60fps sollten ganz normal sein.

schaumal da rein.;)
http://www.computerbase.de/artikel/grafikkarten/2013/test-nvidia-geforce-gtx-titan/17/

Habs doch so kommen sehn. Ja ist wirklich nicht lustig, 680SLI schaffts nicht und das 1800€ Gespann auch nicht-absolute Verarsche von NVidia, bzw ein Hype um nichts. :rolleyes:

dildo4u
2013-02-28, 17:08:54
MSAA killt jede GPU in Verbindung mit Deferred Engines(Siehe Metro),daher hat Crytek SMAA eingebaut.

Laut den Benches bei CB ist man mit SLI locker + über 60fps mit 2TX SMAA,das dürfte AA mäßig dicke reichen bei 2560*1600.

135i
2013-02-28, 17:44:48
MSAA killt jede GPU in Verbindung mit Deferred Engines(Siehe Metro),daher hat Crytek SMAA eingebaut.

Laut den Benches bei CB ist man mit SLI locker + über 60fps mit 2TX SMAA,das dürfte AA mäßig dicke reichen bei 2560*1600.

Mit 2xTXSMAA siehts in 30" genauso Mau für TITAN aus.

http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Test-Geforce-GTX-Titan-1056659/8/

500€ Aufpreis pro karte für 5MarketingBuchstaben- :frown:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9668272#post9668272

Sunrise
2013-02-28, 17:48:03
Sollte das stimmen, geht sie zurück. ;)
Wenn das stimmt frage ich mich, in welcher Rekordzeit NV diesen Treiber für Titan "erstellt" hat. Dass der Treiber erst extrem verspätet zur Verfügung stand haben wir ja bereits bei einem Review (bin mir gerade nicht sicher, ob es Hardwareluxx oder PCGH war) lesen dürfen. Das klingt fast so, als wenn hier nur das Allernötigste unternommen wurde, damit Titan überhaupt läuft und würde auch erklären warum Computerbase bei vielen GPU-Compute-Tests Abstürze hatte.

aufkrawall
2013-02-28, 17:49:06
Die min fps sind laut PCGH bei Crysis 3 mit Titan schon deutlich höher als die der Ghz-Edition.

dildo4u
2013-02-28, 17:52:17
Mit 2xTXSMAA siehts in 30" genauso Mau für TITAN aus.

http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Test-Geforce-GTX-Titan-1056659/8/

Zu Nahe am CPU Limit um ne Vernünftige Aussage zu treffen.Laut den CB Benches scalt Titan SLI mit 80%+.http://www.computerbase.de/artikel/grafikkarten/2013/test-nvidia-geforce-gtx-titan/17/

Wäre also ohne CPU limit über 60 bei PCGH.38fps von einer Titan +80% sind 68fps.

135i
2013-02-28, 18:12:28
Zu Nahe am CPU Limit um ne Vernünftige Aussage zu treffen.Laut den CB Benches scalt Titan SLI mit 80%+.http://www.computerbase.de/artikel/grafikkarten/2013/test-nvidia-geforce-gtx-titan/17/

Wäre also ohne CPU limit über 60 bei PCGH.38fps von einer Titan +80% sind 68fps.

;)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9673487&postcount=460

"DX11.0 Chip " wird noch schnell vergoldet , denn gibt's schnellere CPUs Ist ein nur "DX11.0 - Chip" nicht mehr gefragt.

BigKid
2013-02-28, 18:40:06
Sodele - in "meinem Thread" mal ein paar Titan Ergebnisse...
Einfach mal drauf los...
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9673982#post9673982
Habe fertig für heute...

dargo
2013-02-28, 18:58:54
MSAA killt jede GPU in Verbindung mit Deferred Engines...

BF3 läuft fluffig hier mit 4xMSAA und einer HD7970(GE).


Laut den Benches bei CB ist man mit SLI locker + über 60fps mit 2TX SMAA,das dürfte AA mäßig dicke reichen bei 2560*1600.
Stehe gerade auf dem Schlauch. Wie hat die PCGH SMAA 4x und 2Tx mit SLI getestet wenn diese Modis gar nicht bei SLI zu Verfügung stehen? :confused: Was übrigens auch bei CB ersichtlich ist.

hellibelli
2013-02-28, 18:58:56
Hört doch mal auf über den Preis zu diskutieren, fakt ist das Nvidia die Karte zu den Preis zur Verfügung stellt.
Fakt ist, dass sich Leute dich bock auf die Karte haben und das nötige Kleingeld haben sich diese kaufen.
Fakt ist auch, dass der Preis absolut nicht gerechtfertigt ist.
Fakt ist auch, dass es Nvidia egal ist ob man sich über den Preis beschwert, mann muss Sie ja nicht kaufen.
Fakt ist, hätte jeder von uns hier genügend Geld und bräuchte sich keinerlei sorgen machen, würde sich doch auch jeder diese Graka kaufen da es derzeit nichts vergleichbares auf dem Markt gibt.

Also wollte das jetzt nur mal loswerden. Jeder hat seine Meinung und darf er doch auch gerne vertreten allerdings verlgleiche mit Uhren, Autos etc.. bringt doch nichts.


Also viel spaß wünsche ich den Titanen besitzer mit der Karte. Ein bisschen Neidisch bin ich auch aber bei mir sitzt das leider nicht drin.

Freue mich schon auf ein paar test und benchmarkergebnisse mit Titan Sli Skyrim + enb + hd texturen und sgssaa... das wäre toll....D

Schaffe89
2013-02-28, 20:39:50
Wahrscheinlicher Fakt ist auch dass die Karte im Herbst nurnoch die Hälfte wert ist. ;)

Godmode
2013-02-28, 20:48:03
Wahrscheinlicher Fakt ist auch dass die Karte im Herbst nurnoch die Hälfte wert ist. ;)

Ist doch schön wenn es so ist. Alle die die Leistung jetzt haben wollen, zahlen halt kräftig drauf. Muss ja niemand kaufen.

Cubitus
2013-02-28, 21:01:54
Wahrscheinlicher Fakt ist auch dass die Karte im Herbst nurnoch die Hälfte wert ist. ;)

Wieviel kostet heute die 690er? Klar billiger aber nicht die Hälfte! Titan wird im NP nicht großartig sinken!
Und AMD muss erstmal überhaupt Karten veröffentlichen...

ZipKaffee
2013-02-28, 21:06:24
Wahrscheinlicher Fakt ist auch dass die Karte im Herbst nurnoch die Hälfte wert ist. ;)

Wenn die Titan nicht bis dahin schon ausverkauft ist.:wink:

boxleitnerb
2013-02-28, 21:07:25
War das mit der 7970 anders?
Release 549, heute 317 inkl. 2 Spielen. Effektiv auch ne Preishalbierung in einem Jahr. Aber das stört ja keinen :freak:

Wobei ich gar nicht so sicher wäre, dass Titan soviel fallen wird so schnell. 700 könnte ich mir vorstellen für Herbst und dann die Halbierung wenn überhaupt im Frühjahr 2014. Also eben auch ein Jahr.

fondness
2013-02-28, 21:29:08
War das mit der 7970 anders?
Release 549, heute 317 inkl. 2 Spielen. Effektiv auch ne Preishalbierung in einem Jahr. Aber das stört ja keinen :freak:

Wobei ich gar nicht so sicher wäre, dass Titan soviel fallen wird so schnell. 700 könnte ich mir vorstellen für Herbst und dann die Halbierung wenn überhaupt im Frühjahr 2014. Also eben auch ein Jahr.

Komische Aussage. Es macht einen gewaltigen Unterschied ob sich ein 500EUR Produkt im Preis halbiert oder ob sich ein 1000EUR Produkt im Preis halbiert. Bei ersterem habe ich 250EUR "verloren", bei letzterem 500EUR.

Godmode
2013-02-28, 21:30:24
Komische Aussage. Es macht einen gewaltigen Unterschied ob sich ein 500EUR Produkt im Preis halbiert oder ob sich ein 1000EUR Produkt im Preis halbiert.

Aber überhaupt nicht. Was soll daran anders sein? 50% sind 50% sorry.

fondness
2013-02-28, 21:33:38
Aber überhaupt nicht. Was soll daran anders sein? 50% sind 50% sorry.

Dann macht es für dich wohl auch keinen Unterschied ob sich deine 1mio EUR Immobilien im Preis halbiert oder dein Zahnstocher. :)
Das du bei ersteren eine halbe Million verloren hast und bei letzteren fast nichts...was solls. :freak:

boxleitnerb
2013-02-28, 21:33:41
Genau, da ist gar nix komisch. Schaffe hat ja nicht von 500 Euro Wertverlust geredet, sondern von "die Hälfte wert ist". Und Hälfte ist nunmal Hälfte.

Marty98
2013-02-28, 22:09:51
Wieviel kostet heute die 690er? Klar billiger aber nicht die Hälfte! Titan wird im NP nicht großartig sinken!
Und AMD muss erstmal überhaupt Karten veröffentlichen...

Ich hab mir heute überlegt ob AMD vor Dezember überhaupt kontern kann. Am Takt können sie nicht mehr drehen. Mehr Cores kommen kurzfrüstig nicht in Frage. Es schaut leider düster aus.

Godmode
2013-02-28, 22:14:16
Dann macht es für dich wohl auch keinen Unterschied ob sich deine 1mio EUR Immobilien im Preis halbiert oder dein Zahnstocher. :)
Das du bei ersteren eine halbe Million verloren hast und bei letzteren fast nichts...was solls. :freak:

Ich würde das etwas anders betrachte: Wenn mein Budget für eine Graka 1.000 Euro beträgt, sind 50% genau so schmerzvoll, wie wenn mein Budget nur 500 Euro betragen würde.

Ich hab mir heute überlegt ob AMD vor Dezember überhaupt kontern kann. Am Takt können sie nicht mehr drehen. Mehr Cores kommen kurzfrüstig nicht in Frage. Es schaut leider düster aus.

Ein Dual-GPU Dings wollen sie in Kürze vorstellen, IIRC.

M4xw0lf
2013-02-28, 22:15:45
Mehr Cores kommen nicht in Frage? Und wer spricht von kurzfristig, seit dem Tahiti-Launch ist ein Jahr vergangen.

Hugo78
2013-02-28, 22:26:48
Fakt ist auch, dass der Preis absolut nicht gerechtfertigt ist.

Im Vergleich mit Workstation Quadros/Teslas ein Schnäppchen.

Marty98
2013-02-28, 22:57:32
Komische Aussage. Es macht einen gewaltigen Unterschied ob sich ein 500EUR Produkt im Preis halbiert oder ob sich ein 1000EUR Produkt im Preis halbiert. Bei ersterem habe ich 250EUR "verloren", bei letzterem 500EUR.

Prozentual also das gleiche.

Ein Dual-GPU Dings wollen sie in Kürze vorstellen, IIRC.

Das ist doch keine Alternative, besonders seit dem PCPer gezeigt hat dass Crossfire nicht 20-90% skaliert, sondern 0-30%.

Mehr Cores kommen nicht in Frage? Und wer spricht von kurzfristig, seit dem Tahiti-Launch ist ein Jahr vergangen.

Es gibt nicht mal das geringste Gerücht dass vor Q4 ein komplett neuer AMD Chip vorgestellt wird. Es gab sogar Bestätigung von AMD dass sie sich auf die 7000er Reihe konzentrieren. Es ist also mind 80% sicher dass wir vor dem Ende des Jahres nichts im High-End Bereich von AMD sehen werden. Mit Pech kommt erst Q1 2014 was. Man kann sich natürlich überraschen lassen. Würde mich sehr freuen. Aber realistisch gesehen wird es ein sehr langweiliges Jahr GPU-technisch.

PHuV
2013-03-01, 00:14:32
Hört doch mal auf über den Preis zu diskutieren, fakt ist das Nvidia die Karte zu den Preis zur Verfügung stellt.

Na ja, es ist halt doch schon eine gewaltige Preissteigerung im Vergleich zur Leistung, wie es sie so bisher nicht gab. Bisher hatte man teilweise 50%ige Steigerung immer im Bereich von 600-700 EUR. Und nun will man für ca. 30-40% noch über 35% (700 EUR zu 950 EUR) mehr als bisher. Das ist schon sehr fett und übertrieben. Wie gesagt, ich halte das für einen Test von Nvidia, damit sie sehen, wie sie die Karten loswerden. Und wenn sie sie so loswerden, gehe ich mal ganz stark davon aus, daß künftig neue Highend-Karten immer so teuer rauskommen werden.

Ich hätte bei 10%-15% nichts gesagt, aber 35% ist definitiv zu viel.

Skysnake
2013-03-01, 01:25:41
Ich hab mir heute überlegt ob AMD vor Dezember überhaupt kontern kann. Am Takt können sie nicht mehr drehen. Mehr Cores kommen kurzfrüstig nicht in Frage. Es schaut leider düster aus.
Naja, was heißt "kurzfristig" seit dem Launch ist mehr als ein Jahr rum :ugly: Die neue Generation ist eigentlich überfällig :(

AMD hat sich ja relativ doppeldeutig gegeben. Man wird wohl einfach zuwarten müssen -.-

Ein Taktupdate ist aber definitiv drin. 1200MHz bei 1,200V sollten inzwischen eigentlich machbar sein, was dann etwa auf den gleichen Verbrauch wie bei der GHz-Edition raus laufen sollte.


Das ist doch keine Alternative, besonders seit dem PCPer gezeigt hat dass Crossfire nicht 20-90% skaliert, sondern 0-30%.

Wenn du da so genau Zahlen hast, kannst du mal einen link zu diesem ominösen PCP-Test posten? Ich hab jetzt schon mehrfach etwas davon gehört, und so langsam interessierts mich auch, weils einfach total extrem von der Aussage ist, und bei so extremen Ergebnissen, verwundert es stark, das bisher noch keiner drauf gekommen ist. Also entweder Sie haben nen Blattschuss gemacht, oder sind tief in ne Logikfalle getappt...


Es gibt nicht mal das geringste Gerücht dass vor Q4 ein komplett neuer AMD Chip vorgestellt wird. Es gab sogar Bestätigung von AMD dass sie sich auf die 7000er Reihe konzentrieren. Es ist also mind 80% sicher dass wir vor dem Ende des Jahres nichts im High-End Bereich von AMD sehen werden. Mit Pech kommt erst Q1 2014 was. Man kann sich natürlich überraschen lassen. Würde mich sehr freuen. Aber realistisch gesehen wird es ein sehr langweiliges Jahr GPU-technisch.
Wie gesagt, AMD war da ziemlich doppeldeutig, und hat sich nen Hintertürchen offengelassen. Die Aussichten sind aber wirklich ziemlich langweilig für dieses Jahr, was GPUs betrifft. :(

Pentium M
2013-03-01, 01:47:17
Im HLuxx hat mir sontin(LoveSucks) zu verstehen gegeben das Ailuros ein Nvidia Hater ist. Habe nur den Link (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9665574&postcount=127) reingestellt.

Marty98
2013-03-01, 01:50:03
Naja, was heißt "kurzfristig" seit dem Launch ist mehr als ein Jahr rum :ugly: Die neue Generation ist eigentlich überfällig :(

Vor halben Jahr haben sicher 90% der User hier im Forum erwartet dass bereits jetzt der Nachfolger der 7970 in den Regalen steht. Pustekuchen!

AMD hat sich ja relativ doppeldeutig gegeben. Man wird wohl einfach zuwarten müssen -.-

Die Aussage dass sie sich auf die alte Architektur konzentrieren war ganz klar. Auch wenn es schwer zu glauben ist dass sie eine Generation auslassen, es scheint der Fall zu sein. NVidia tut es doch auch!

Ein Taktupdate ist aber definitiv drin. 1200MHz bei 1,200V sollten inzwischen eigentlich machbar sein, was dann etwa auf den gleichen Verbrauch wie bei der GHz-Edition raus laufen sollte.

Das Ding muss ja übertaktbar sein. Was willst du dazu tun, 2x 8er Stromstecker? Wie laut soll das Ding dann sein, wie ein Düsenantrieb? Ohne einen Refresh der Architektur sehe ich da schwarz.

Wenn du da so genau Zahlen hast, kannst du mal einen link zu diesem ominösen PCP-Test posten? Ich hab jetzt schon mehrfach etwas davon gehört, und so langsam interessierts mich auch, weils einfach total extrem von der Aussage ist, und bei so extremen Ergebnissen, verwundert es stark, das bisher noch keiner drauf gekommen ist. Also entweder Sie haben nen Blattschuss gemacht, oder sind tief in ne Logikfalle getappt...

http://www.pcper.com/reviews/Graphics-Cards/Frame-Rating-Part-3-First-Results-New-GPU-Performance-Tools

edit: spelling

Skysnake
2013-03-01, 01:50:41
Klar, und Herr von und zu LoveSucks ist Mr. Obkektiv :lol:

Sorry, aber Ailuros bennent meist einfach die Realität, und hat dazu noch bessere Kontakte und Quellen als die meisten hier, und schon gleich 10.000x bessere als er...

EDIT:
@Marty98:
Nö, die 1200 solltest du mit der aktuellen Fertigung und der nicht angehobenen Spannung, eventuell sogar etwas niedrigeren im Vergleich zu GHz Edition 1:1 auf die gleiche TDP raus kommen. Also das sollte durchaus machbar sein. Notfalls mit nem neuen Stepping. Dafür hats aber durchaus genug Zeit gegeben. TahitiXT2 kam ja auch recht schnell ;)

EDIT2:
Aha... das ist das also...

Sehr interessant...

Wie greifen die denn in den Renderprozess genau ein? Finde dazu nichts.

Wenn ich das jetzt richtig verstanden habe, permutieren die einfach eine gewisse Farbtabelle durch, und wissen daher, was Sie eigentlich sehen sollten. Richtig?

Und Wete <16ms, also dem Refresh wollen Sie daran sehen, das man eben in einem Bild nicht nur 1 oder 2 unterschiedliche Farben hat, sondern deren 3.

Ok, soweit. Jetzt wirds aber hahnebüchen, bzw das was ich mir schon dachte. Die Aussage bzgl die Frames zählen nicht etc ist halt total fürn Poppes. Wenn man VSYNC an macht, dann fällt der eine Frame halt komplett raus, aber das macht nichts, weil man den eh nicht gesehen hätte.

Und ohne VSYNC ist es halt nur ärgerlich, das man dann zweimal einen Versatz im Bild hat, statt nur einmal. Am Ende kommts aber wieder aufs gleiche raus. Man hat halt nur einmal innerhalb eines Bilder maximal 1 Bild Versatz, und beim anderen eben bis zu 2 Bilder Versatz. Mehr kanns nicht werden, wenn ich die Zahlen richtig im Kopf überschlagen habe.

Also ich seh da jetzt wirklich nicht DAS unfassbar große Problem :ugly:

Man erzeugt ja eh genug Frames, damit JEDEN echten Monitorframe ein neues Bild angezeigt werden kann. Man bleibt ja soweit eigentlich immer unterhalb den 16,666...ms Latenz. Man könnte jetzt sogar weiter gehen, und nVidia die schlechtere Bildwiedergabe attestieren, weil da mehr Ausreißer mit Latenzen >32,3 ms zu sehen sind. Das bedeutet, da wird ein ganzes Frame lang das gleiche Bild angezeigt, wie zuvor. Das ist also ein echter Bildhänger :ugly:

Also die Zahlen sind wirklich SEHR interpretationsbedürftig, und so lange man nicht weiß WIE Sie genau das Overlay einfügen eh mit großer Vorsicht zu genießen.

Wirkliche relevant würde ich dem eh erst beimessen, wenn man eben >16,6 ms Latenz kommt zwischen den einzelnen Bildern.

Ob man jetzt in einem Bild 1 Frame Latenz oder 2 hat, wird man bei 60 Hz nicht sehen. Vor allem, weil der eine Frame mehr ja wies scheint immer SEHR kurz ist. Das wird man also gar nicht erkennen können, dass da 2 Brüche im Bild sind statt einem. Das sind nur einige wenige Pixelzeilen, und wie gesagt, das ist eh nur ein Thema, wenn man kein VSYNC nutzt.

Also für mich sind die Werte daher erstmal absolut im akzeptablen Bereich, wo man kein gewaltiges Fass aufmachen muss. Vor allem das Fazit von wegen man hätte nur Single-GPU Frames ist mal total daneben...

Pentium M
2013-03-01, 02:44:03
Immer locker bleiber .Ansonsten sag ich kennst du die Die Heisenbergsche Unschärferelation so fühl ich mich wenn die Toten Hosen singen wo sind die Tage an den wir nichst zu verlieren haben.

fondness
2013-03-01, 08:51:15
Prozentual also das gleiche.

Ich habe nie was anderes gesagt. Es macht trotzdem einen Unterschied.


Es gibt nicht mal das geringste Gerücht dass vor Q4 ein komplett neuer AMD Chip vorgestellt wird. Es gab sogar Bestätigung von AMD dass sie sich auf die 7000er Reihe konzentrieren. Es ist also mind 80% sicher dass wir vor dem Ende des Jahres nichts im High-End Bereich von AMD sehen werden. Mit Pech kommt erst Q1 2014 was. Man kann sich natürlich überraschen lassen. Würde mich sehr freuen. Aber realistisch gesehen wird es ein sehr langweiliges Jahr GPU-technisch.

Das AMD vor Q4 keinen neuer High-End-Chip plant ist Fakt. Maximal ein Taktupdate wäre theoretisch möglich, aber IMO nicht sehr wahrscheinlich. Solange ein Titan 1K EUR kostet und kaum verfügbar ist besteht dazu allerdings auch kein Anlass. Der Chip soll jedenfalls Produktionsreif sein laut verschiedensten Quellen, ergo könnte man sich durchaus kurzfristig anders entscheiden.

akuji13
2013-03-01, 09:46:57
Komische Aussage. Es macht einen gewaltigen Unterschied ob sich ein 500EUR Produkt im Preis halbiert oder ob sich ein 1000EUR Produkt im Preis halbiert. Bei ersterem habe ich 250EUR "verloren", bei letzterem 500EUR.

Ich denke, die 250€ tun mehr weh.

Wer nämlich "nur" 500€ investiert, kann/will weniger ausgeben als jemand der 1000€ verbrät.

Wer bereit ist, für 30% mehr Leistung fast das doppelte auszugeben, bei dem sitzt das Geld lockerer, außerdem weiß er vorher als als enthusiast/early adopter das der Preisverfall höher ist/sein wird/könnte. ;)

robbitop
2013-03-01, 10:15:58
:| Die Argumente sind ja echt genial. Objektiv - ohne vermenschelte Argumente - sind selbstverständlich und unbestreitbar 500 € Verlust schlimmer als 250 €. Ganz unabhängig von den Randbedingungen. Da gibt es kein "ich finde aber nicht".... Das ist einfache klare Grundschulmathemetik. Allein darüber auch noch zu diskutieren...

Titan ist überteuert. Das wurde oft genug begründet.

Jeder Mensch kann selbst entscheiden, ob er bereit ist, diesen Preis zu zahlen. Sind ja alles mündige Menschen. Dass der Wertverlust hoch ist, sollte klar sein.
Eine kluge Entscheidung aus betriebswirtschaftlicher Sicht ist das auf keinen Fall. Sind andere Hobbies aber letztenendes auch nicht (siehe Wertverlust von Autos).

IMO sollte man diese unsinnige Diskussion hier abschließen und sich auf die Technik konzentrieren.

akuji13
2013-03-01, 12:08:28
:| Die Argumente sind ja echt genial. Objektiv - ohne vermenschelte Argumente - sind selbstverständlich und unbestreitbar 500 € Verlust schlimmer als 250 €.

Objektiv bleiben es immer 50%. ;)

Generell sollte man auch mal über die Definition des Wortes "schlimm" nachdenken.

Freiwillig Geld für Spaß (weil überflüssiges Produkt) auszugeben und zu verlieren, sollte niemals "schlimm" sein.
"Schlimm" ist es, wenn die Altervorsorge einen höheren Wertverlust hat, oder das Auto, denn beides habe ich nicht wirklich freiwillig.

Ob der Titan 30% oder 90% Wertverlust hat in 3 Wochen oder 12 Monaten ist mir völlig wumpe...die Kohle ist komplett abgeschrieben.
Könnte ja sein, das sich technisch irgendwas ändert und das das Teil schon in 2 Monaten völlig uninteressant ist.

Hätte ich sie nicht über gehabt, oder müsste den Restwert für zukünftige Käufe mit einplanen, hätte ich sie nie gekauft.

Und ab wann ist denn die Grenze zum "schlimm" erreicht?
Ab 50%? Ab 30% Oder reicht noch weniger?
Gibts irgendwo einen Paragraphen der das festlegt?

Dann muss ein Kneipenbesuch ja "ganz schlimm" sein, was habe ich denn davon noch 24 Stunden später? :O

Aktuell habe ich jedenfalls keinen Wertverlust (ob und wie der kommen wird, wird sich zeigen), ich könnte meine Karte jetzt auf ebay teurer verkaufen.
Der tolle Händler mit dem 870€ Angebot konnte A.nicht liefern und war B.äußert fragwürdig.


Titan ist überteuert. Das wurde oft genug begründet.

Auch das ist ganz allein deine (eure) subjektive Wahrnehmung.

Es gibt stand heute KEINE Single-GPU Alternative zur Titan für mich, Titan darf also kosten was sie will.
Und sie darf an an Wert verlieren was sie will, nochmals: es gibt KEINE Alternative.


IMO sollte man diese unsinnige Diskussion hier abschließen und sich auf die Technik konzentrieren.

Split. ;)

@topic

Ich würde mich liebend gerne lieber über die Technik unterhalten, besonders im Hinblick auf die Problematik mit einer zusätzlichen PhysX Karte, aber leider ist meine Karte noch nicht da. :mad:

phoenix887
2013-03-01, 12:14:28
So habe mir mal die Zotac Titan bestellt. Bei Caseking. Für 925. Habe einen 3% Gutschein im Internet gefunden. Klar ist nicht die Welt, aber warum nicht mitnehmen? Prompt haben sie den Preis für die nächste Bestellung erhöht auf 989. Ich bin Schuld:freak:

robbitop
2013-03-01, 12:30:38
Objektiv bleiben es immer 50%. ;)
Klar - im finanziellen Leben geht es auch um relative Werte und nicht um Absolute. :|

Generell sollte man auch mal über die Definition des Wortes "schlimm" nachdenken.

Freiwillig Geld für Spaß (weil überflüssiges Produkt) auszugeben und zu verlieren, sollte niemals "schlimm" sein.
"Schlimm" ist es, wenn die Altervorsorge einen höheren Wertverlust hat, oder das Auto, denn beides habe ich nicht wirklich freiwillig.

Schlimm ist es nicht. Der absolute Wertverlust ist höher. Ganz einfach.
Was wer ausgibt und wer sich womit ein gutes/schlechtes Gewissen einreden will, ist aus rationaler Sicht komplett irrelevant. Das muss jeder für sich selbst entscheiden.




Auch das ist ganz allein deine (eure) subjektive Wahrnehmung.
Da verwechselst du etwas. Daran ist nichts subjektiv. Die ist objektiv.

Alle 18 Monate gibt es ein Produkt, welches die Leistung verdoppelt. Für 500-600 €. Mit 384- 512 bit SI und 400-5xx sqmm. In etwa gleiche Bill of Material.
Das gleiche soll jetzt auf einmal 900-1000 € kosten?

Das tut es nur aus der Situation heraus, weil es keinen Gegenspieler gibt.

Es mag für dich subjektiv OK sein - aber objektiv gibt es langjährige Referenz, an der man das festmacht.

Ich sehe hier auch keinen Sinn weiter zu diskutieren. Jeder kann seine eigene subjektive Meinung haben. Die objektive, rein finanzielle (Mathematik Grundschule) spricht jedenfalls eine andere Sprache. Egal, was wer als "OK" empfindet.

Grestorn
2013-03-01, 12:37:19
Da verwechselst du etwas. Daran ist nichts subjektiv. Die ist objektiv.

... "denn meine Meinung ist immer objektiv!"

dildo4u
2013-03-01, 12:50:47
Geforce GTX Titan vs. AMD-Techdemo

http://www.pcgameshardware.de/Geforce-Titan-Hardware-256920/Tests/Geforce-GTX-Titan-GK110-Benchmark-AMD-Techdemo-1057761/

Nich schlecht für Titan immerhin gibt kein Abkacken wie für die Radeons in den Tesselation Benches.

Knuddelbearli
2013-03-01, 12:51:49
und wie wurde da Titan getestet?

876Mhz? Vorheizen?

dildo4u
2013-03-01, 12:55:08
Ist doch egal geht ja nur um ein Grobes Bild das AMD nix plant,was den Geforces zum Verhängnis wird vorallem wenn die neuen Konsolen kommen.

Iruwen
2013-03-01, 12:58:53
Gib dir keine Mühe, die haben sich jetzt auf das Boost 2.0 Thema eingeschossen. Dass jemand tatsächlich eine brauchbare Kühlung haben könnte und die Titan mit mehr als dem Mindesttakt läuft kommt überhaupt nicht in Frage :rolleyes:

robbitop
2013-03-01, 12:59:02
... "denn meine Meinung ist immer objektiv!"
Hast du auch Argumente? :| Ich habe es kausal begründet. Und zwar anhand objektiv verfügbarer Fakten. Und zwar ohne irgendwelches Empfinden.
Ein Vergleich erfolgt immer anhand einer Referenz. Und diese ist glasklar da. Die BOM kann sich nicht schlagartig so erhöhen. Der Endkundenpreis tat es jedoch. Die einzig logisches Schlussfolgerung ist, die dass die Gewinnspannen dieses Jahr bei Kepler deutlich höher sind als vorher. Die Quartalszahlen von NV bestätigen diesen Eindruck. Das ist nicht "schlimm". Ein Unternehmen muss das tun, wenn es die Chance dazu hat. Völlig klar. Der Marktbegleiter ließ es nuneinmal zu genau dieser Situation kommen, in dem sein Produkt mit einfacheren Mitteln einholbar war (GK104 mit schmalem SI und geringer Kerngröße genügt ggü Tahiti und es gab kein echtes High End Produkt). Dennoch ist aus Endkundensicht damit das Produkt, verglichen an vergleichbarer Entwicklung aus den Vorjahren überteuert.

Grestorn
2013-03-01, 13:01:21
Hast du auch Argumente? :| Ich habe es kausal begründet. Und zwar anhand objektiv verfügbarer Fakten. Und zwar ohne irgendwelches Empfinden.

Ich bin gar nicht auf Dein Posting eingegangen, mich hat nur die eine Aussage gestört, nach der Du die Objektivität für dich gepachtet hast. Deine "Fakten" sind in diesem Kontext aber nicht objektiv.

Ob man nun einen relativen oder absoluten Betrag nimmt ist nur im jeweiligen Kontext relevant. Darüber zu streiten ist absolut lächerlich, sorry.

fondness
2013-03-01, 13:02:02
Geforce GTX Titan vs. AMD-Techdemo

http://www.pcgameshardware.de/Geforce-Titan-Hardware-256920/Tests/Geforce-GTX-Titan-GK110-Benchmark-AMD-Techdemo-1057761/

Nich schlecht für Titan immerhin gibt kein Abkacken wie für die Radeons in den Tesselation Benches.

Naja, im einzigen GCN-Demo liegt Titan knapp hinter der 7970. Die anderen zwei Benchs sind alte Radeon 5870/6970-Demos und noch auf VLIW-optimiert.

Grestorn
2013-03-01, 13:07:18
Sorry, aber langsam klingt das nach "an Strohhalm klammern". Bis vor kurzem hieß es doch noch, dass die Kepler Karten bei TombRaider komplett failen würden, weil ihnen irgendwelche 11.1 Features fehlen würden, dann hieß es, sie würden komplett einbrechen...

Danach sieht es jetzt nicht aus. Ich kann mir vorstellen, dass eine 680 mit dieser Option ein gutes Stück (10%? 20%?) langsamer ist als eine 7970. Das ist doch auch schon was für AMD Fans.

Ich kann mir auch vorstellen, dass AMD dafür gesorgt hat, dass in TombRaider diese Option für nVidia gar nicht verfügbar ist... Ohne technischen Grund.

Knuddelbearli
2013-03-01, 13:07:52
Gib dir keine Mühe, die haben sich jetzt auf das Boost 2.0 Thema eingeschossen. Dass jemand tatsächlich eine brauchbare Kühlung haben könnte und die Titan mit mehr als dem Mindesttakt läuft kommt überhaupt nicht in Frage :rolleyes:


Gib dir keine Mühe, die haben sich jetzt auf das NV ist Super Thema eingeschossen. Dass jemand tatsächlich eine abweichend Kühlung hat oder die Grafikkarte sogar im Sommer in einem normalen Gehäuse betreibt oder noch schlimmer mal länger als 20 sek das selbe Spiel spielt und die Titan damit nicht immer mit vollem Boost läuft kommt überhaupt nicht in Frage :rolleyes:



Zusatz von mir:

Schön witzig im Boost 2.0 Thread jammern sie das man jetzt eben anders benchen muss mit Boost, wenn man dann aber Nachfragt wie gebencht wurde ist man eine Meckertante.
Vor allem witzig wie auch alle die Leise Kühlung loben man aber dann doch bitte 10 High Performance Lüfter in seine Case verbauen soll ^^

dildo4u
2013-03-01, 13:09:13
Naja, im einzigen GCN-Demo liegt Titan knapp hinter der 7970. Die anderen zwei Benchs sind alte Radeon 5870/6970-Demos und noch auf VLIW-optimiert.

Jo aber das ist der erste Titan Treiber die 7970 wurde schon über 1Jahr optimiert.Titan wird noch ordentlich Sprünge machen die 7970 vielleicht nur noch kleine müsste man in paar Monaten noch mal vergleichen.

Knuddelbearli
2013-03-01, 13:11:20
wieso sollte der Titan noch große Sprünge machen? Architektur ist die selbe wie bei der 680 die jetzt auch nicht soooo unterschiedlich zu Fermi ist

GCN war eine komplett neue Architektur.

Paar Prozent wird es sicher geben aber garantiert nichts 2 stelliges.

Grestorn
2013-03-01, 13:13:01
Gib dir keine Mühe, die haben sich jetzt auf das NV ist Super Thema eingeschossen.Das schreibt doch gar niemand.

Es ist doch eine legitime Meinung, Boost für etwas gutes zu halten. Ich habe das auch begründet.

Forward+ ist auch etwas gutes. Überrascht?

fondness
2013-03-01, 13:14:15
Sorry, aber langsam klingt das nach "an Strohhalm klammern". Bis vor kurzem hieß es doch noch, dass die Kepler Karten bei TombRaider komplett failen würden, weil ihnen irgendwelche 11.1 Features fehlen würden, dann hieß es, sie würden komplett einbrechen...

Danach sieht es jetzt nicht aus. Ich kann mir vorstellen, dass eine 680 mit dieser Option ein gutes Stück (10%? 20%?) langsamer ist als eine 7970. Das ist doch auch schon was für AMD Fans.

Keine Ahnung was das jetzt mit meinen Beitrag zu tun haben soll. Erstens habe ich so etwas nie behauptet und zweitens Bezog sich das nur auf den AMD-Demo Vergleich und nicht auf TombRaider.


Ich kann mir auch vorstellen, dass AMD dafür gesorgt hat, dass in TombRaider diese Option für nVidia gar nicht verfügbar ist... Ohne technischen Grund.

Update 3: Die Kollegen von Bit-Tech konnte eine Aussage von AMD ergattern. Devon Nekechuck bestätigte, dass Tress FX "definitiv" auf allen Grafikkarten laufe, die DX11 Direct Compute unterstützen. Es sei Grundphilosophie von Gaming Evolved, dass Technologien für alle Spieler weiter entwickelt werden - Im Gegensatu zum "Konkurrenten", der "proprietäre Features" fördert und damit Spieler ausschließt. Eine Stellungnahme von Nvidia steht weiterhin aus.

http://www.pcgameshardware.de/AMD-Radeon-Hardware-255597/News/AMD-TressFX-Physik-fuer-Haare-1057405/

dildo4u
2013-03-01, 13:15:56
wieso sollte der Titan noch große Sprünge machen? Architektur ist die selbe wie bei der 680 die jetzt auch nicht soooo unterschiedlich zu Fermi ist

GCN war eine komplett neue Architektur.

Paar Prozent wird es sicher geben aber garantiert nichts 2 stelliges.
Der Chip ist wesentlich breiter als die Midrange AMD,NV Karten,die Ausnutzung schwieriger ein Grund warum man z.b Hyper Q eingeführt hat.Bei Gamecode hat doch der Treiber die Aufgabe die Arbeit ideal zu verteilen oder nicht?

Knuddelbearli
2013-03-01, 13:19:01
ja deshalb wirds auch hier und dort par % geben, aber sicher nichts weltbewegendes.

Bin jetzt ehrlich gesagt zu faul den Test rauszusuchen da ich eigentlich krank bin und das Bett hüten sollte ^^

aber gab ja mal nen Vergleich Launchtreiber und aktueller Treiber 680 vs 7970

da hatte NV ca 2% dazugewonnen AMD aber 2 stellig. und die 680 war eine überarbeitete Architektur mit 3 mal sovielen Shadern.
Wieso sollte dann Titan mit 1.8 mal sovielen Shadern und gleicher Architektur dick zulegen?

robbitop
2013-03-01, 13:20:08
Ich bin gar nicht auf Dein Posting eingegangen, mich hat nur die eine Aussage gestört, nach der Du die Objektivität für dich gepachtet hast.
Ich habe diese keineswegs für "mich gepachtet". Aber mittels extrem simpler Fakten wird glasklar ersichtlich, was objektiv ist und was nicht.


Deine "Fakten" sind in diesem Kontext aber nicht objektiv.
Ich bin gespannt: welche denn und warum?


Ob man nun einen relativen oder absoluten Betrag nimmt ist nur im jeweiligen Kontext relevant. Darüber zu streiten ist absolut lächerlich, sorry.
Klar ist das lächerlich. Weil es selbstverständlich der absolute Betrag ist, der zählt. Oder bezahlst du deine Rechnungen und Einkäufe in %?
Dein Kapital und auch andere Vermögenswerte sind ganz klar in absoluter Währung. Das ist als natürliche Person und als Firma relevant. Ein höherer absoluter Betrag tut deinem Konto mehr "weh" als ein geringerer. Das interessiert sich nicht für relative. Das sollte doch jeder begreifen. Das ist so offensichtlich, dass nichteinmal im Geringsten Sinn ergibt, darüber überhaupt zu diskutieren.


Ergo:
Boost als Endkunde gut - für Vergleiche verzerrend.
Titan ist ein sehr gutes Produkt - aber sehr teuer. Das hat nichts mit AMD oder NV zu tun. Es ist ganz einfach eine Marktkonstellation, die dazu geführt hat.

akuji13
2013-03-01, 13:21:34
Das gleiche soll jetzt auf einmal 900-1000 € kosten?

Martkwirtschaft nennt sich das, freie Preisgestaltung.
Es ist auch wieder subjektiv zu sagen, das die Karte das nicht kosten "darf".

Vergleiche es mit einer Konsole, das subventionierte Produkt ist eigentlich zu günstig und so war es mit der Abfallverwertung der Profi-Karten bislang auch (aus Sicht von NV).

Außerdem wissen sie (respektive vermuten) das AMD nicht kontern können wird und machen es deshalb Marke Intel mit den EEs. ;)


Ein höherer absoluter Betrag tut deinem Konto mehr "weh" als ein geringerer.

Das Geld für eine Titan ist (und sollte) über sein, außerdem ist es ein überflüssiger Spaß-Kauf, da tut nichts weh. ;)

Wo ist denn deine Grenze dafür das es weh tut?
Hätte es anstatt einer 680 dann nicht auch eine 670 getan, oder gar eine 660?
Deren Wertverlust ist auch geringer, weil sie dem Massenmarkt ansprechen, also mehr potenzielle Käufer. ;)

Iruwen
2013-03-01, 13:23:24
Gib dir keine Mühe, die haben sich jetzt auf das NV ist Super Thema eingeschossen. Dass jemand tatsächlich eine abweichend Kühlung hat oder die Grafikkarte sogar im Sommer in einem normalen Gehäuse betreibt oder noch schlimmer mal länger als 20 sek das selbe Spiel spielt und die Titan damit nicht immer mit vollem Boost läuft kommt überhaupt nicht in Frage :rolleyes:

Zusatz von mir:

Schön witzig im Boost 2.0 Thread jammern sie das man jetzt eben anders benchen muss mit Boost, wenn man dann aber Nachfragt wie gebencht wurde ist man eine Meckertante.
Vor allem witzig wie auch alle die Leise Kühlung loben man aber dann doch bitte 10 High Performance Lüfter in seine Case verbauen soll ^^

Wir reden von einer 900€ Grafikkarte, nicht von einer GT 640 für 70€. Denk nochmal kurz drüber nach wer da die Zielgruppe ist, auch wenns schwerfällt.

robbitop
2013-03-01, 13:24:32
Martkwirtschaft nennt sich das, freie Preisgestaltung.
Es ist auch wieder subjektiv zu sagen, das die Karte das nicht kosten "darf".

Vergleiche es mit einer Konsole, das subventionierte Produkt ist eigentlich zu günstig und so war es mit der Abfallverwertung der Profi-Karten bislang auch (aus Sicht von NV).

Außerdem wissen sie (respektive vermuten) das AMD nicht kontern können wird und machen es deshalb Marke Intel mit den EEs. ;)
Die Marktsituation ist die Ursache dafür. Das schreibe ich ja nun schon mehrfach.
Es geht nicht um "dürfen". Es geht nur darum, Preise an Referenzen zu bewerten.

akuji13
2013-03-01, 13:25:48
Es geht nicht um "dürfen". Es geht nur darum, Preise an Referenzen zu bewerten.

Bewertungen sind...oh Überraschung...völlig subjektiv. ;)

Knuddelbearli
2013-03-01, 13:27:21
Wir reden von einer 900€ Grafikkarte, nicht von einer GT 640 für 70€. Denk nochmal kurz drüber nach wer da die Zielgruppe ist, auch wenns schwerfällt.

Ja Automatisches OC für Noobs bei ner 1k€ Karte. Welcher Noob kauft sowas? ... ^^
Wer nicht fähig ist selbst zu OCen der kann auch den Inspector nicht bedienen ^^


Du verstehst es eher einfach nicht und fühlst dich gleich angegriffen, und ziehst den gegenüber dann ins lächerliche, als ob dir NV gehören würde

Grestorn
2013-03-01, 13:29:29
Klar ist das lächerlich. Weil es selbstverständlich der absolute Betrag ist, der zählt. Oder bezahlst du deine Rechnungen und Einkäufe in %?

Kontext. Rechnungen und Einkäufe sind ein KONTEXT.

In vielen anderen Dingen des Lebens ist aber nicht der absolute Wert sondern der relative Wert entscheidend.

Beispiel: Wenn ich sage "ich habe meine monatlichen Ausgaben um 10% reduziert" dann ist das eine sehr gute Aussage, die völlig unabhängig davon steht, wie hoch meine Ausgaben tatsächlich sind.

Für eine Firma mag es genausoviel bedeuten, im Monat 100.000 Euro an Ausgaben einzusparen, wie für klein-Hänschen 10€ einzusparen, beides sind vielleicht 10% Einsparung und für beide ist die Aussage subjektiv gleich stark positiv - auch wenn der absolute Betrag völlig unterschiedlich ist.

robbitop
2013-03-01, 13:30:50
Bewertungen sind...oh Überraschung...völlig subjektiv. ;)
Keineswegs. Sie sind völlig objektiv und linear. Man kann sie mathematisch völlig einfach beschreiben. Man nimmt eine Referenz und normiert diese. Alles andere wird völlig linear damit verglichen. Entwickelt sich der Preis nicht ebenfalls linear dazu, ist es überteuert. Extremst einfach und nirgendwo subjektiv.

Kontext. Rechnungen und Einkäufe sind KONTEXT.

In vielen anderen Dingen des Lebens ist aber nicht der absolute Wert sondern der relative Wert entscheidend.
Bei Geld ist nur eines entscheidend. Die absolute Menge. Es gibt Zugänge und Abgänge. Die Bilanz ergibt sich aus beidem und bildet die freien Ressourcen, die du für andere Bedürfnisse hast.

Knuddelbearli
2013-03-01, 13:31:53
naja für mehr Leistung mehr als linear mehr zahlen ist aber normal, nur halt nicht in dem extremen Bereich wo 20% mehr Leistung 3 mal soviel kostet ^^

robbitop
2013-03-01, 13:39:02
Naja die Titan ist oftmals schon 30-40 % schneller als die Tahiti. Je nach Randbedingung.
Aber das dreifache zu kosten ist schon wirklich alles andere als preiswert.

Grestorn
2013-03-01, 13:39:04
Bei Geld ist nur eines entscheidend. Die absolute Menge. Es gibt Zugänge und Abgänge. Die Bilanz ergibt sich aus beidem und bildet die freien Ressourcen, die du für andere Bedürfnisse hast.

Das ist Quark. Lies den Edit des Postings, das Du zitierst.

Für Dich mögen 10.000€ viel sein. Für den Staat ist es nichts.

Knuddelbearli
2013-03-01, 13:40:41
Naja die Titan ist oftmals schon 30-40 % schneller als die Tahiti. Je nach Randbedingung.
Aber das dreifache zu kosten ist schon wirklich alles andere als preiswert.


und teilweise ist er langsamer ( ok 1 Fall ^^ ) im Schnitt steht ne 2 vorne dran.

Godmode
2013-03-01, 13:45:03
Wenn ihr außer dem Preis nichts mehr zu sagen habt, dann können wir ja gleich zumachen. Es ist echt ermüdend. :freak:

robbitop
2013-03-01, 13:58:05
Das ist Quark. Lies den Edit des Postings, das Du zitierst.

Für Dich mögen 10.000€ viel sein. Für den Staat ist es nichts.
Der Staat ist auch für das Thema Geforce GTX Titan relevant...

Auch für diesen sind 500 € Wertverlust schlimmer als 250 €. Würde dieser Computeleistung einkaufen wollen, wäre es ganz sicher kein GK110 zu diesen Preisen. Es sei denn es ist ganz und gar nicht anders lösbar (oder die Entwicklungskosten für OpenCL sind höher als für CUDA und würden das in der Bilanz aufwiegen).

Auch für den Staat sind absolute Beträge sinnvoll.


Für eine Firma mag es genausoviel bedeuten, im Monat 100.000 Euro an Ausgaben einzusparen, wie für klein-Hänschen 10€ einzusparen, beides sind vielleicht 10% Einsparung und für beide ist die Aussage subjektiv gleich stark positiv - auch wenn der absolute Betrag völlig unterschiedlich ist.

Das empfinden dann die Zuhörer so, vor dem relativen Hintergrund. Die knallharte Rechnung - das Betriebsergebnis - interessiert sich aber nicht für positive oder negative Gefühle. Die interessiert sich nur für die harte absolute Währung.
Egal wie du es drehst und wendest.

Knuddelbearli
2013-03-01, 14:07:01
Nicht ganz, nur Anteile. Vielleicht würde ich dich ernster nehmen wenn du dich nicht artikulieren würdest wie ein Zwölfjähriger.


danke für die endgültige Bestätigung das du an gar keiner Diskussion interessiert bist, den Argumente sind von dir eh noch keine gekommen...
tschau


Eben, wie bei der Frametimeproblematik die jetzt erst in Form von neuen Messungen und Messmethoden bedeutsamer wird versteifen sich einige auf uralte Abläufe "weil man das schon immer so gemacht hat".

aber mich dann, unter anderem persönlich, Angreifen weill ich wissen will wie PCGH testet ... ja klar ...

Shakti
2013-03-01, 14:09:27
Hab lange gewartet und wollte sie kaufen, aber dann wurde der Preis bekannt. Jetzt nervt umso mehr das staendige den Preis schoenreden. Der Preis ist scheisse und geht vom kaufen und schoenreden nicht runter. Schade das es so viele Trottel gibt die das Geld dafuer ausgeben, deshalb muss ich leiden und noch ein Jahr warten.

akuji13
2013-03-01, 14:21:14
Der Preis ist scheisse und geht vom kaufen und schoenreden nicht runter. Schade das es so viele Trottel gibt die das Geld dafuer ausgeben, deshalb muss ich leiden und noch ein Jahr warten.

Hast du außer Beleidigungen auch Argumente?

Und vor allem Beweise, das nicht-kaufen zur Preissenkung führen würde, Stichwort 690 und Stichwort Prestige-Produkt (das niemals öffentlich scheitert). ;)

Keineswegs. Sie sind völlig objektiv und linear. Man kann sie mathematisch völlig einfach beschreiben. Man nimmt eine Referenz und normiert diese.

Blöd nur, das der Titan die Referenz ist. :D
Und wenn ich ihn als Referenz sehe, sind alle anderen Karten günstig dagegen und er normalpreisig.

Und wer legt fest, was ab wann eine Referenz ist?

Kann eine 7970 Referenz sein, obwohl sie nicht einmal PhysX kann?
Kann eine 680 Referenz sein, obwohl sie kein vollständiges DX featureset enthält?
Muss ich Titan immer zwingend mit anderen single-gpus vergleichen, oder ist eine 690 eine Ausnahme weils ja auch nur 1 Karte ist? ;)
Wie kann Karte x die Referenz sein, wenn sie in Titel y unter 2560x1440 keine spielbaren fps mehr liefert? ;)
Wie kann Karte x die Referenz sein, wenn sie in Titel y langsamer ist als die Mittelklassekarten des Wettbewerbers? ;)


Alles andere wird völlig linear damit verglichen. Entwickelt sich der Preis nicht ebenfalls linear dazu, ist es überteuert. Extremst einfach und nirgendwo subjektiv.

Dazu müsste erstmal klar sein, ob der Preis der Referenzen (deiner Meinung nach 680/7970) gerechtfertigt ist.

Sind 500€ für eine 680 (4Gb) angemssen oder überteuert?
War nicht schon die 470 zu teuer im Vergleich zu den Vorgängern? ;)

Geht diese ominöse Referenz in Sachen Preis/Leistung von den kleinsten oder größten Karten einer Serie aus?


Naja die Titan ist oftmals schon 30-40 % schneller als die Tahiti. Je nach Randbedingung.
Aber das dreifache zu kosten ist schon wirklich alles andere als preiswert.

Noch so ein Ding...wer darf für wen bestimmen, was preiswert ist?

Für meinen Nachbarn sind alle Karten über 150€ ihren Preis nicht Wert. ;)


Auch für diesen sind 500 € Wertverlust schlimmer als 250 €

Du bestimmst immer noch nicht für mich, was ab wann schlimm ist und ob es das überhaupt ist. ;)

BigKid
2013-03-01, 14:24:05
Ich bin ja grade auch am selbst Vergleichen SLI GTX670er gegen Titan...

1) Kann irgendwer bestätigen was ich herausgefunden habe - nämlich dass aktuell eine Konfirguration mit einer Titan und einer anderen GTX Karte nicht läuft ? Der Treiber lies sich zwar installieren aber auch mit gemoddetem Inf File habe ich keine 3D Unterstützung und das NV Kontrollpanel zum laufen gebracht... Als ich den Titan dann draussen hatte, liefen die GTXen dann mit dem Treiber ohne Neuinstallation...

2) Und nu hats mir plötzlich meine OnBoard Soundkarte gekillt (ich VERMUTE Treiber nicht Hardware). Vielleicht mag ja mal jemand von euch reingucken und helfen.. http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9675736#post9675736. OT Ende...

robbitop
2013-03-01, 14:42:27
Blöd nur, das der Titan die Referenz ist. :D
Und wenn ich ihn als Referenz sehe, sind alle anderen Karten günstig dagegen und er normalpreisig.

Das ist dasselbe - und nur eine Nomenklatur für eine Kennzahl.

War es nicht Madmanniman, der mal so ein Diagramm mit einem karthesischen Koordinatensystem erstellt hat mit einer linearen Gerade, die das in einem Bild beschrieb?

Und wer legt fest, was ab wann eine Referenz ist?
Es spielt doch gar keine Rolle, was jetzt als Vergleichswert herangezogen wird. Die Größe als Zahl oder in einem Diagramm ändert sich dadurch nicht.


Kann eine 7970 Referenz sein, obwohl sie nicht einmal PhysX kann?
Kann eine 680 Referenz sein, obwohl sie kein vollständiges DX featureset enthält?
Ich glaube, du missverstehst mich. Es geht rein um einen Vergleich, wieviel Preis pro Leistung herauskommt. Ist ein Produkt oberhalb dieser Geraden in dem karthesischen Koordinatensystem, ist es überteuert. Liegt es darunter ist es unterteuert/billig.




Noch so ein Ding...wer darf für wen bestimmen, was preiswert ist?
Meine Güte. Es geht nicht um Empfindungen. Du kannst gern alles als teuer und billig empfinden wie du möchtest.
Rein gemessen und berechnet und im Koordinatensystem dargestellt, gibt es kein Empfinden.


Du bestimmst immer noch nicht für mich, was ab wann schlimm ist und ob es das überhaupt ist. ;)
Ich habe den Eindruck, dass du mich missverstehst. Siehe oben.

akuji13
2013-03-01, 15:08:47
Es spielt doch gar keine Rolle, was jetzt als Vergleichswert herangezogen wird. Die Größe als Zahl oder in einem Diagramm ändert sich dadurch nicht.

Meinst du das ernst? :D
Natürlich spielt das eine Rolle, irgendwann muss ich für jedes System bestimmte Rahmenwerte festlegen.
Schulnotensystem zum Beispiel.
Mit deinem Diagramm weiß ich zwar, das eine 4 besser ist als eine 5, nicht aber das ich mit der 5 sitzenbleibe. ;)

Du sagst, Titan ist zu teuer, weil er nur 30% schneller ist als 680/7970, aber fast das doppelte kostet.
Schon mal darüber nachgedacht, das vielleicht schon die 680 50% zu teuer war und Titan deshalb noch viel mehr?
Haben wir das Genöle nicht auch schon mit der 470 gehabt?
Sind nicht alle Karten seit der GeForce 3 TI 200 zu teuer? ;)

Irgendwo muss es mal einen Punkt gegeben haben, an dem festgelegt wurde welche Leistung eine Karte z. B. für 500€ haben muss/sollte.
Diesen Punkt hätte ich gerne benannt.

Und ich frage dich, woher weißt du, was Titan in Herstellung/Entwicklung kostet und warum er nicht soviel kosten darf?
Könnte es nicht auch sein, das 680/7970 nur so "günstig" waren, weil bis dato die Marktsituation eine andere war, sprich Wettbewerb?


Ich glaube, du missverstehst mich. Es geht rein um einen Vergleich, wieviel Preis pro Leistung herauskommt. Ist ein Produkt oberhalb dieser Geraden in dem karthesischen Koordinatensystem, ist es überteuert. Liegt es darunter ist es unterteuert/billig.

Und wie definierst du diesen Preis pro Leistung?
Was ist mit den Ausreißern die jede Karte nach oben oder unten hat?
Gehen die im Durchschnitt unter, oder darf ich vielleicht selbst bestimmen das mir Spiel y wichtiger ist und es mir den Mehrwert dort?

Was ist, wenn der Titan die einzige single-gpu ist, die in meiner Auflösung von 2560x1440, mit meinen Qualitätseinstellungen die von mir anvisierten fps liefert?

Ist die Karte dann nicht jeden Aufpreis wert, weil ich sonst nicht so spielen kann wie ich will? ;)
Haben die anderen Karten dann überhaupt noch eine Daseinsberechtigung, weil sie in setting x gar keine ausreichende Leistung mehr liefern?

Und wie willst du allgemeingültig festlegen, das 1000€ für eine Karte zuviel sind?
Das hängt von den finanziellen Möglichkeiten eines jeden einzelnen ab.

robbitop
2013-03-01, 15:47:20
@Akuji
Du drehst dich im Kreis und verstehst entweder meine Argumentationskette nicht oder willst darauf nicht eingehen. Es spielt, wie bereits mehrfach gesagt, keine Rolle, was du oder ich empfinden.
Preis und Leistung sind als lineare Zusammenhänge zu betrachten. Verbessert sich das Verhältnis zugunsten des Preises, ist es günstig, tut es das nicht, ist es teuer. Ganz egal wer oder was der Vergleich ist.

Titan ist ~3x so teuer wie eine 7970 und bringt 20...40 % mehr Leistung (will man es sehr genau wissen, dann natürlich die Mehrleistung im absoluten GPU Limit und dann das geometrische Mittel über so viele Tests wie möglich). Die grobe Region liegt jedenfalls bei 20...40 %. Würde er also ~40 % mehr kosten, hätte er das gleiche P/L Verhältnis. Wäre also OK. Er kostet aber das 3x.
Eine 7970 kostet ~320 €. Eine Titan sollte bei gleichem P/L also 448 € kosten. Rein vom P/L.
Er hat mehr Speicher und ein paar NV Features. 5xx € wären sicher nicht unmoralisch und bezogen auf die High End Vergangenheit der letzten 5 Jahre bei vergleichbarer BOM auch angemessen.

Der hohe Preis kommt durch die Marktposition (auch unternehmerisch korrekt!). Das P/L ist jedoch suboptimal - um es gelinde auszudrücken.

Das heißt aber nicht, dass es blöd oder schlimm wäre sich diesen Luxus zu gönnen. Das gleiche Prinzip ist auf andere Luxusgüter ebenfalls anzuwenden. Natürlich ist P/L nie der einzige Kaufgrund.

PCGH_Carsten
2013-03-01, 15:51:14
Wobei man anmerken sollte, dass das Preis-/Leistungsverhältnis nur selten wirklich linear ist - auch innerhalb der Produktpalette eines Herstellers.

robbitop
2013-03-01, 15:54:37
Absolut und ohne Einschränkungen: ja!

Jedoch ist es dieses Mal schon etwas extrem...

PCGH_Carsten
2013-03-01, 15:56:35
Jedoch ist es dieses Mal schon etwas extrem...
Auch das.

dargo
2013-03-01, 16:01:45
Wenn ihr außer dem Preis nichts mehr zu sagen habt, dann können wir ja gleich zumachen. Es ist echt ermüdend. :freak:
Bevor es soweit ist würde ich gerne noch erfahren wie die PCGH SMAA 4x und SMAA 2Tx in Crysis 3 mit SLI zum laufen brachte. :D Diese "Preis zu hoch Diskussion" ist langsam ermüdend. :usad: Mittlerweile sollte es jeder Heini mitbekommen haben.

kmf
2013-03-01, 16:07:34
[...] :D Diese "Preis zu hoch Diskussion" ist langsam ermüdend. :usad: Mittlerweile sollte es jeder Heini mitbekommen haben.Ist aber nun mal - das! - "Totschlag-Argument" :D

akuji13
2013-03-01, 16:12:54
@Akuji
Du drehst dich im Kreis und verstehst entweder meine Argumentationskette nicht oder willst darauf nicht eingehen.

Verbessert sich das Verhältnis zugunsten des Preises, ist es günstig, tut es das niccht, ist es teuer. Ganz egal wer oder was der Vergleich ist.

Ja, wir drehen uns im Kreis, weil du schlichtweg keine meiner Fragen beantwortest. ;)

Ich warte noch immer auf die Quelle, die allgemeingültig definiert, welche Grafikkarte bei welcher Leistung was kosten darf.

Ein von vorn herein zu teures Produkt (680/7970) wird nicht durch das Erscheinen eines noch teureren Produktes (Titan) günstig.
Wir haben dann ein zu teures Produkt (680/7970) und ein viel zu teures. ;)

Eine 680/7970 kann noch soviel Leistung besitzen, für einen Hartz IV Empfänger ist sie immer zu hochpreisig. ;)
Eine Grafikkarte die in einem bestimmten Szenario nicht die angepeile Leistung bringt, ist immer zu hochpreisig, weil unbrauchbar. ;)

Die Worte teuer/günstig sind nicht allgemeingültig zu definieren.


Titan ist ~3x so teuer wie eine 7970 und bringt 20...40 % mehr Leistung

Eine 7970 kann nicht einmal Cuda+PhysX, ist nach meiner Definition damit völlig unbrauchbar und zu teuer. ;)

Grestorn
2013-03-01, 16:14:36
Der Staat ist auch für das Thema Geforce GTX Titan relevant...

Darum geht es nicht. Ich habe nur ein Beispiel genannt, weswegen Deine Behauptung "nur Absolutbeträge sind relevant und das ist ein objektiver Fakt" ganz offensichtlich falsch ist.

In die Diskussion ob man bei einem Preisverfall bei der Titan nun den Absolut- oder Relativbetrag betrachten muss, mische ich mich absichtlich nicht ein, denn ich finde das reichlich albern.

135i
2013-03-01, 18:17:15
Die Karten sind ja lang schon beim Kunden. Seltsamerweise gibts bisher nur Preisdiskussionen und keine brauchbaren Spielbenchs , u.a. auch LUXX.
Scheint doch nicht so der Bürner zu sein...
l

Spasstiger
2013-03-01, 18:47:58
Im Xtremesystems-Forum sind sie schon schwer am Modden und OCen. Leicht irreführende Werbung bei Asus:

http://www.abload.de/img/titan_zps9e70bea2ezlj0.jpg
Quelle: http://www.xtremesystems.org/forums/showthread.php?285203-XS-GTX-TITAN-Owners-Club

DirectX 11.1? :uban:
Auf der Produktseite steht zumindest noch in Klammern "feature level 11_0": http://www.asus.com/Graphics_Cards/GTXTITAN6GD5/.
Bei um die 1200 MHz scheint übrigens ohne Hardwaremodifikation in den meisten Fällen Schluss zu sein.

Godmode
2013-03-01, 18:49:08
Im Xtremesystems-Forum sind sie schon schwer am Modden und OCen. Leicht irreführende Werbung bei Asus:

http://www.abload.de/img/titan_zps9e70bea2ezlj0.jpg
Quelle: http://www.xtremesystems.org/forums/showthread.php?285203-XS-GTX-TITAN-Owners-Club

DirectX 11.1? :uban:
Auf der Produktseite steht zumindest noch in Klammern "feature level 11_0": http://www.asus.com/Graphics_Cards/GTXTITAN6GD5/.

Was vor Gericht wohl zählt?

aufkrawall
2013-03-01, 20:05:44
Was vor Gericht wohl zählt?
In DE wohl was auf der Packung steht.
Ist bei Spielen mit Onlinezwang usw. ja nicht anders.

Titan mit 1200 Mhz, das muss geil sein. Gab schon lange keinen so guten Grund mehr für Wasserkühlung.

HarryHirsch
2013-03-01, 20:24:08
Im Xtremesystems-Forum sind sie schon schwer am Modden und OCen. Leicht irreführende Werbung bei Asus:

http://www.abload.de/img/titan_zps9e70bea2ezlj0.jpg
Quelle: http://www.xtremesystems.org/forums/showthread.php?285203-XS-GTX-TITAN-Owners-Club

DirectX 11.1? :uban:
Auf der Produktseite steht zumindest noch in Klammern "feature level 11_0": http://www.asus.com/Graphics_Cards/GTXTITAN6GD5/.
Bei um die 1200 MHz scheint übrigens ohne Hardwaremodifikation in den meisten Fällen Schluss zu sein.


hrrrr, geil.
hätte nicht gedacht das die so gut gehen.

Knuddelbearli
2013-03-01, 20:41:44
1200 hmm das wären ca nochmal ca 40% also dann ( 1,28*1,4 ) 80% vor einer normalen 7970
OC vs non OC geht nicht

also 44% schneller OC vs OC

zum 3 Fachen Preis naja wers braucht ^^
für Spielbarkeitsunterschiede sind 44% ihmo immer noch zuwenig

Spasstiger
2013-03-01, 21:05:27
hrrrr, geil.
hätte nicht gedacht das die so gut gehen.
Dazu muss man aber wirklich alle Softwarelimits ausreizen (Spannung, Boost-TDP, Boost-Temperatur). Für deutlich über 1200 MHz muss man die Spannungsversorgung hardmodden und eine bessere Kühlung draufschrauben.

HarryHirsch
2013-03-01, 21:20:37
1200 hmm das wären ca nochmal ca 40% also dann ( 1,28*1,4 ) 80% vor einer normalen 7970
OC vs non OC geht nicht

also 44% schneller OC vs OC

zum 3 Fachen Preis naja wers braucht ^^
für Spielbarkeitsunterschiede sind 44% ihmo immer noch zuwenig

meine meinung.
ist aber schon bemerkenswert was so ein vieh von gpu an takt verträgt.
die fertigung muss einige fortschritte gemacht haben.

Dazu muss man aber wirklich alle Softwarelimits ausreizen (Spannung, Boost-TDP, Boost-Temperatur). Für deutlich über 1200 MHz muss man die Spannungsversorgung hardmodden und eine bessere Kühlung draufschrauben.

das macht man doch sowieso.

Knuddelbearli
2013-03-01, 21:24:23
och naja GK104 schafft bis zu 1300Mhz


wenn nur der drecks Boost nicht wäre bezweifle das die 1200 auch nur annähernd immer anliegen

HarryHirsch
2013-03-01, 21:32:41
och naja GK104 schafft bis zu 1300Mhz


wenn nur der drecks Boost nicht wäre bezweifle das die 1200 auch nur annähernd immer anliegen

und der ist genau wie groß?

boxleitnerb
2013-03-01, 21:34:08
Frage an die Profis:

Der P2-Takttrick klappt hier was den Takt angeht, aber die Spannung kann ich nicht einstellen bzw. es wird die falsche genommen.

Standard sind 837 MHz bei 1.0V
Wenn ich jetzt z.B. 941 MHz bei 1.1V (die zum diesem Takt gehörige Standardspannung) einstellen will, gibt er nur 1.012V drauf. Erst wenn ich im Inspector +250mv oder so draufgebe, kommen auch die 1.1V an. Ist das ein Bug vom Inspector, dass das mit der Spannung noch nicht so ganz klappt?

dildo4u
2013-03-01, 21:35:02
Bei dem Preis wird die Auswahl viel feiner als beim GK104 sein,daher der relativ hohe Takt bei doppelten Transistor Count.

HarryHirsch
2013-03-01, 21:38:10
Frage an die Profis:

Der P2-Takttrick klappt hier was den Takt angeht, aber die Spannung kann ich nicht einstellen bzw. es wird die falsche genommen.

Standard sind 837 MHz bei 1.0V
Wenn ich jetzt z.B. 941 MHz bei 1.1V (die zum diesem Takt gehörige Standardspannung) einstellen will, gibt er nur 1.012V drauf. Erst wenn ich im Inspector +250mv oder so draufgebe, kommen auch die 1.1V an. Ist das ein Bug vom Inspector, dass das mit der Spannung noch nicht so ganz klappt?

ich bin kein profi, aber sind nicht nur 6% v-core erhöhung drin?

Skysnake
2013-03-01, 21:43:48
Wobei man anmerken sollte, dass das Preis-/Leistungsverhältnis nur selten wirklich linear ist - auch innerhalb der Produktpalette eines Herstellers.
Deswegen nimmt man ja auch den geometrischen Mittelwert und die Standardabweichung ;)

Da sieht man dann SEHR schnell, ob was zu teuer ist oder nicht. ;)

meine meinung.
ist aber schon bemerkenswert was so ein vieh von gpu an takt verträgt.
die fertigung muss einige fortschritte gemacht haben.

Definitiv. Es ist schon extrem erstaunlich, das man überhaupt derartige Taktraten erreicht. Da sieht man mal, wie schlecht die Fertigung wohl noch gewesen sein muss, als man die Karten gebracht hat.:freak:

HarryHirsch
2013-03-01, 21:47:59
gerade bei den ersten 7970ern.
hrrrr, mir wird ganz wuschig. :freak:

boxleitnerb
2013-03-01, 22:02:06
ich bin kein profi, aber sind nicht nur 6% v-core erhöhung drin?

6% TDP, das ist was ganz anderes. Die 100% erreiche ich gar nicht in meinen bisherigen Tests. Ich will geraden den Einfluss der GPU-Temperatur auf die Leistungsaufnahme testen. Schwierig, weil das ziemlich schwankt auch wenn man sich nicht bewegt.

Skysnake
2013-03-01, 22:05:32
Dann nimm furmark, oder gib mir deine E-Mailadresse, dann kann ich dir was zum testen schicken ;)

Oder lad hier (http://extreme.pcgameshardware.de/programmierung-und-webdesign/209639-opengl-bmp-viewer-inkl-opencl-morpher.html) ne ältere Version runter

HarryHirsch
2013-03-01, 22:09:55
6% TDP, das ist was ganz anderes. Die 100% erreiche ich gar nicht in meinen bisherigen Tests. Ich will geraden den Einfluss der GPU-Temperatur auf die Leistungsaufnahme testen. Schwierig, weil das ziemlich schwankt auch wenn man sich nicht bewegt.

wie viel mehr v-core darfst du geben?

edit:

6% tdp ist btw noch schlimmer. ;D

Raff
2013-03-01, 22:19:25
In DE wohl was auf der Packung steht.
Ist bei Spielen mit Onlinezwang usw. ja nicht anders.

Titan mit 1200 Mhz, das muss geil sein. Gab schon lange keinen so guten Grund mehr für Wasserkühlung.

Yop, mit 1,21 Volt und aufgerotzter Kühlung ist so ein Teil echt angenehm schnell.

MfG,
Raff

boxleitnerb
2013-03-01, 22:46:07
wie viel mehr v-core darfst du geben?

edit:

6% tdp ist btw noch schlimmer. ;D

Die 100% hab ich doch noch gar nicht erreicht bei knapp 1 GHz ;)

Von 95 Grad auf 65 Grad (Lüfter jeweils auf 40%, weil der verbraucht ja auch was, und schnell abgelesen, bevor es zu heiß wurde) spart man schon 20W mit einer Titan. Arbeitpunkt hier 980 MHz@1.137V fix. In drei Spielen getestet, kommt aufs Watt genau hin, immer so 20-21W Differenz zwischen den beiden Temperaturpunkten.

Witzig/für Luftkühler ärgerlich:
Wenn der Lüfter richtig aufdreht, taktet die Karte ein, zwei Stufen runter, obwohl TDP und Temperaturlimit bei weitem noch nicht erreicht sind. Vielleicht wird in der TDP der Lüfter mit einberechnet. Der braucht ca. 5W.

Godmode
2013-03-01, 22:47:52
Die 100% hab ich doch noch gar nicht erreicht bei knapp 1 GHz ;)

Wie geht es dir mit den beiden, zufrieden soweit?

boxleitnerb
2013-03-01, 23:17:34
Würde ich bei Lukü bleiben, dann nicht so ganz. Der Lüfter ist auf 30% zwar unhörbar was das Luftumschlagsgeräusch angeht, allerdings gibts ein leises Surren. Ich bin da von meiner Wakü sehr verwöhnt, alles über 40% ist eh hörbar und damit für mich nicht akzeptabel.

Auch der Boost kann sich mit Lukü hier nicht voll entfalten. Je nach Szene/Temperatur gibts bis zu 100 MHz weniger als maximal möglich sind (1006 MHz). Vor allem finde ich dämlich, dass die höhere Lüftergeschwindigkeit die Taktrate negativ beeinflusst. Bis zu drei Taktstufen (39 MHz) Unterschied konnte ich bisher beobachten.

Der Verbrauch ist aber erste Sahne. Über 380 W (Gesamtsystem) bin ich noch nicht gekommen - die zweite Titan ist aktuell inaktiv, die kommt morgen mit dazu. Rest ist 3930K@stock, SSDs, Wakü, Rampage IV Formula und 16 GB RAM.
Die CPU braucht laut CoreTemp ca. 75W, idle ist 95W. D.h. Titan zieht auch bei 1006 MHz nur um die 200W :eek:

Godmode
2013-03-01, 23:31:27
Würde ich bei Lukü bleiben, dann nicht so ganz. Der Lüfter ist auf 30% zwar unhörbar was das Luftumschlagsgeräusch angeht, allerdings gibts ein leises Surren. Ich bin da von meiner Wakü sehr verwöhnt, alles über 40% ist eh hörbar und damit für mich nicht akzeptabel.

Auch der Boost kann sich mit Lukü hier nicht voll entfalten. Je nach Szene/Temperatur gibts bis zu 100 MHz weniger als maximal möglich sind (1006 MHz). Vor allem finde ich dämlich, dass die höhere Lüftergeschwindigkeit die Taktrate negativ beeinflusst. Bis zu drei Taktstufen (39 MHz) Unterschied konnte ich bisher beobachten.

Der Verbrauch ist aber erste Sahne. Über 380 W (Gesamtsystem) bin ich noch nicht gekommen - die zweite Titan ist aktuell inaktiv, die kommt morgen mit dazu. Rest ist 3930K@stock, SSDs, Wakü, Rampage IV Formula und 16 GB RAM.

Ok ich bin da nicht so verwöhnt, da ich keine Wakü habe und nur mit Headset spiele. Nur Idle ist mir wichtig.

Ich denke mit SLI wird es sogar leiser werden, außer du lastest die Karten voll aus. Ich konnt das öfter beobachten, das die Auslastung der Karten schlechter wurde und sie daher leiser wurden. Beim Benchen ist das natürlich nicht der Fall. Also das mit dem Lüfter ist schon irgendwie schäbig, das der wirklich am Power Mangager hängen muss?

Wow 380 mit nem 3830k ist wirklich gut. Bin gespannt was bei mir rauskommt, weil meiner läuft mit 4.9 @ 1.5v und der frisst mich noch arm. ^^

Am Montag ist dann bei mir der Tag der Entscheidung.

edit: Bin ziemlich erstaunt, wie viele Verrückte es letztendlich doch gibt, die so eine Karte kaufen. Alleine im Luxx ein Haufen Leute und hier sind es auch nicht gerade wenige.

M4xw0lf
2013-03-01, 23:40:16
Da sieht mans, spätrömische Dekadenz ist irgendwie doch nicht Sache der Hartz IV-Empfänger :tongue:

N0Thing
2013-03-01, 23:47:39
Frage an die Profis:

Der P2-Takttrick klappt hier was den Takt angeht, aber die Spannung kann ich nicht einstellen bzw. es wird die falsche genommen.

Standard sind 837 MHz bei 1.0V
Wenn ich jetzt z.B. 941 MHz bei 1.1V (die zum diesem Takt gehörige Standardspannung) einstellen will, gibt er nur 1.012V drauf. Erst wenn ich im Inspector +250mv oder so draufgebe, kommen auch die 1.1V an. Ist das ein Bug vom Inspector, dass das mit der Spannung noch nicht so ganz klappt?

Orbmu2k hat dir ja geraten für Spannungsänderungen auf den Inspector zu verzichten und statt dessen Precision X zu verwenden. ;)

Orbmu2k
2013-03-01, 23:52:37
Frage an die Profis:

Der P2-Takttrick klappt hier was den Takt angeht, aber die Spannung kann ich nicht einstellen bzw. es wird die falsche genommen.

Standard sind 837 MHz bei 1.0V
Wenn ich jetzt z.B. 941 MHz bei 1.1V (die zum diesem Takt gehörige Standardspannung) einstellen will, gibt er nur 1.012V drauf. Erst wenn ich im Inspector +250mv oder so draufgebe, kommen auch die 1.1V an. Ist das ein Bug vom Inspector, dass das mit der Spannung noch nicht so ganz klappt?

Also ganz generell, die Spannnungssteuerung kannst du getrost ignorieren beim aktuellen Inspector. Das ist bei der TITAN jetzt anders. Ich bin da schon dran... http://img.techpowerup.org/130301/nvidia_20130301_234659.png

Der P2 Trick muss nun auch anders gehandhabt werden, Du musst jetzt den Spielraum mit der der P2 Clock vorgeben, und anhand des Offsets im P0 takten, dann nimmt er auch die richtige Spannung. Wenn du ausserhalb von deinem Spielraum bist (P2 Clock < Max Boost) dann senkt er die Spannung ganz komisch ab.

boxleitnerb
2013-03-01, 23:58:16
Gut zu wissen, danke. Och, Spannung absenken hab ich nix dagegen, das ist ja wie Undervolting :D
Aber obs dann letztlich immer stabil läuft, steht auf einem anderen Blatt.

Aber die Spannungswerte, die der Inspector, GPU-Z und EVGA Precision auslesen, die stimmen schon oder? Hab nämlich keinen Bock, meine Verbrauchstests nochmal zu machen.

Orbmu2k
2013-03-02, 00:04:41
Gut zu wissen, danke. Och, Spannung absenken hab ich nix dagegen, das ist ja wie Undervolting :D
Aber obs dann letztlich immer stabil läuft, steht auf einem anderen Blatt.

Ach nee er nimmt dann die Max Boost Spannung + OV. Die zugeordnete Spannung nimmt er irgendwie nicht beim P2 Lock.

Ich glaub der P2 Lock hilft dir da nicht weiter. Der war bei Kepler V1 ja eh nur zweckmäßig um das temperaturabhägige Runtertakten zu umgehen. Das macht er bei der TITAN ja nicht mehr in der Form.


Aber die Spannungswerte, die der Inspector, GPU-Z und EVGA Precision auslesen, die stimmen schon oder? Hab nämlich keinen Bock, meine Verbrauchstests nochmal zu machen.

Das solllte schon halbwegs passen was er da anzeigt. Genau war das aber noch nie, da hilft dann nur messen.

HarryHirsch
2013-03-02, 00:09:46
wtf?
wer will so was haben?

das ist ja der schiss überhaupt von nv.

ich lass mir nicht sagen was ich zu tun habe. gegenüber default und wehe du hältst dich nicht daran.

zieht ihr luft?

dafür 900€ zu verlangen setzt dem ganzen noch die krone auf.

wenn ich verspreche das ganze auf 1ghz zu ziehen bekomme ich dann drei um sonnst?

hach nee mein name ist ja nich blair.

ich verdiene mein geld mit arbeit und nicht mit pm-gespamme.

boxleitnerb
2013-03-02, 00:22:58
Bist du besoffen?

HarryHirsch
2013-03-02, 00:26:12
mehr als du es jemals sein wirst. :(

boxleitnerb
2013-03-02, 00:28:48
Ich trinke praktisch keinen Alk, also könntest du damit durchaus Recht haben.

gnahr
2013-03-02, 01:03:44
liese sich das bitte etwas komprimieren?
harryhirsch darf germ weiter luft ziehen, aber überall und noch gleichzeitig ist n bisschen sehr viel mehr als die welt braucht und tollerieren sollte. :(

Godmode
2013-03-02, 01:09:00
:popcorn:

boxleitnerb
2013-03-02, 01:12:46
Also der Typ, der den Kühler meiner zweiten Titan montiert hat, gehört geschlagen. Knapp 15 Grad Unterschied, auch im idle. Karte ist auch leicht schlechter, also für jeden Taktpunkt gibt sie 12.5 mV mehr.

Am 5.3. bekommt Aquatuning die Kühler rein...
Backplate muss ich auch noch bestellen. Der Speicher hinten wird mit bis zu 65 Grad schon gut warm. Gemessen per Infrarotthermometer.

HarryHirsch
2013-03-02, 01:23:19
Also der Typ, der den Kühler meiner zweiten Titan montiert hat, gehört geschlagen. Knapp 15 Grad Unterschied, auch im idle. Karte ist auch leicht schlechter, also für jeden Taktpunkt gibt sie 12.5 mV mehr.

Am 5.3. bekommt Aquatuning die Kühler rein...
Backplate muss ich auch noch bestellen. Der Speicher hinten wird mit bis zu 65 Grad schon gut warm. Gemessen per Infrarotthermometer.

was kannst du max geben?

liese sich das bitte etwas komprimieren?
harryhirsch darf germ weiter luft ziehen, aber überall und noch gleichzeitig ist n bisschen sehr viel mehr als die welt braucht und tollerieren sollte. :(

sorry ich bin immer so behindert.

boxleitnerb
2013-03-02, 01:31:22
Übertaktet wird, wenn die Wakü und Backplates da sind, vorher hat das keinen Sinn. Sonst werd ich noch taub :D

LSSJBroly
2013-03-02, 02:05:48
@boxleitnerb

Du könntest ja den Kühler Abmontieren und erstmal neue Wärmeleitpaste drauf tun. Bringt auch bei Referenz-designs bis zu 5°C bessere Temps. Vllt ist da entweder zu viel oder zu wenig drauf, dann können da deutlich mehr drin sein;) Naja, wenn die WaKüs wirklich schon so bald kommen, lohnt es sich nicht wirklich:)

HarryHirsch
2013-03-02, 02:19:41
ja! und wenn übermorgen montag ist ist dann sogar montag.
nv sucks.

Godmode
2013-03-02, 09:44:17
Also der Typ, der den Kühler meiner zweiten Titan montiert hat, gehört geschlagen. Knapp 15 Grad Unterschied, auch im idle. Karte ist auch leicht schlechter, also für jeden Taktpunkt gibt sie 12.5 mV mehr.

Am 5.3. bekommt Aquatuning die Kühler rein...
Backplate muss ich auch noch bestellen. Der Speicher hinten wird mit bis zu 65 Grad schon gut warm. Gemessen per Infrarotthermometer.

Bei einer Karte in dieser Preisklasse, würde man so etwas nicht erwarten.

(del676)
2013-03-02, 10:45:14
Was habt ihr von eurem "Premium"produkt denn erwartet? :lol:

Waere ja mal intressant wie toll dieses Boost 2.0 Gecheate mit dieser verhunzten Karte funktioniert. Kann die ueberhaupt den Defaulttakt halten wenn man eine Stunde lang den Valley Benchmark laufen laesst? 15° ist schon eine anstaendiger Nachteil.

boxleitnerb
2013-03-02, 10:50:54
Es ist kein Gecheate, nur weil du es nicht verstehst oder verstehen willst ;)

Das Temperaturtarget wird recht schnell erreicht, ob 10 Minuten oder eine Stunde macht keinen Unterschied. Ich habe bei keiner der beiden Karten bisher weniger als den Defaulttakt unter 3D-Last gesehen (Ausnahme Szenenwechsel z.B. im Heaven, das ist aber zu erwarten). Meistens takten beide Karten mit 900+ MHz.

Edit wegen dem Gesellen unter mir:
Man könnte echt meinen, dass manche nichts Besseres zu tun haben als herumzutrollen und mit haufenweise Smileys um sich zu schmeißen. Immer schön gehässig, immer schön druffhauen und das Thema schön totschlagen, damit auch auf jeder Seite jedes Threads mindestens einmal was Negatives zu Nvidia steht. Das ist Lovesuckz-Niveau.

Skysnake
2013-03-02, 10:51:03
/sign

/vote für Zusendung an PCGH ;D

Er kann ja dann eine von deren haben, die sind sicherlich besser :biggrin: Dann können die auch recht einfach aufzeigen, wie groß die Streuung denn ist. Gerade das ist halt echt übel durch die Art und Weise des Boost. Ich werde da signifikant unterschiedlich schnelle GPUs haben, wenn ich nichts dran drehe :ugly:

Das ist schon übel.

(del676)
2013-03-02, 10:56:49
Naja fuer nur 1900 Euro kann man ja nichts anstaendiges erwarten. Da muss nochmal 2-300 euro fuer wasserkuehler ausgegeben werden. Aber wer solche Karten kauft, dem ist sowas doch zuzumuten. :lol:

M4xw0lf
2013-03-02, 11:18:33
Also der Typ, der den Kühler meiner zweiten Titan montiert hat, gehört geschlagen. Knapp 15 Grad Unterschied, auch im idle. Karte ist auch leicht schlechter, also für jeden Taktpunkt gibt sie 12.5 mV mehr.


Hast du diesen Unterschied auch bei einzeln eingebauten Karten, oder liegt es nur daran, dass Karte B weniger frische Luft und dafür mehr Abwärme abbekommt wenn Karte A im günstigeren Slot sitzt?

boxleitnerb
2013-03-02, 11:27:09
Einzeln. Ich kann die PCIe-Slots gezielt abschalten (und damit die Karten) per Dip-Schalter. Ich hab auch ein offenes Gehäuse, weil ich recht häufig an meiner Wakü bastle. Das ist also nicht das Problem. Dafür hab ich die Heizung an, das betrifft beide Karten gleichermaßen ;)

M4xw0lf
2013-03-02, 11:36:03
Ah, ok. Ich hätte nicht gedacht dass bei zwei identischen und eigentlich normal funktionierenden Karten da so große Unterschiede auftreten können.

boxleitnerb
2013-03-02, 11:39:29
Wir wollen das mal nicht überbewerten, das kann auch ein Ausreißer sein. Heißt ja nicht, dass das jede zweite Karte betreffen muss. Lüfter runter und nachsehen ist mir zuviel Umstand, vor allem weil die Pads erfahrungsgemäß da gerne Schaden nehmen.

M4xw0lf
2013-03-02, 11:44:07
Wir wollen das mal nicht überbewerten, das kann auch ein Ausreißer sein. Heißt ja nicht, dass das jede zweite Karte betreffen muss. Lüfter runter und nachsehen ist mir zuviel Umstand, vor allem weil die Pads erfahrungsgemäß da gerne Schaden nehmen.
Ich dachte du baust eh nen Wasserkühler drauf?

boxleitnerb
2013-03-02, 11:47:43
Ja, ich meinte jetzt umbauen bevor die Dinger da sind.

(del676)
2013-03-02, 12:06:45
Und du willst den Kuehler trotzdem umbauen? Sind das EVGAs?
Was machst du wenn die Karte auch mit Wakueler drauf wesentlich schlechter ist?
Ich kann mich da an gewisse nvidias erinnern die nach 5 Minuten mit Luftkuehler sofort 105° erreichten und gethrottelt haben, die wurden aber alle anstandslos ersetzt.

BigKid
2013-03-02, 17:06:46
Für den Fall, dass es jemanden interessiert:
Ich habe es grade nochmal überpüft: Der Titan will nicht mit einer anderen Karte im Rechner stecken...
Sobald ich eine der GTX670er dazustecke -> Standard VGA Treiber, GPU not found...
Ohne den Treiber wechseln zu müssen Funktioniert jedoch sowohl TITAN alleine, wie auch 1 oder 2 GTX670er ...
Was ist da los ?
Ich finde das zumindest mal seltsam...

Und die nächste Frage ist - wärend der Titan gerade bei Unigine Valley und 3DMark Fire Strike bei 1080p mit etwas OC mit einem GTX670 sli gleichzieht wird er dann bei 1440p abgehängt! Benche ich falsch?
Wobei man klar sagn muss dass ich vsync ein (flüssig) beim sli anmachen muss damit ein ähnlich guter eindruck entsteht und dann schenkt es sich nich mehr viel - allerdings scheint das sli dann mehr reservn zu haben...

TobiWahnKenobi
2013-03-02, 22:37:11
ich hatte jetzt keine lust mehr auf warten und hab mir auch eine geholt.. scheiss neugierde..

http://www.abload.de/thumb/img_0007l6jxp.jpg (http://www.abload.de/image.php?img=img_0007l6jxp.jpg)

edit:
http://www.abload.de/thumb/img_00094pkuu.jpg (http://www.abload.de/image.php?img=img_00094pkuu.jpg)

GTX690 schraube ich mir jetzt temporär in meinen phenom.. hab den klopper neulich auf wakü umgebaut und mal schauen, ob er @4GHz genug pumpt, um für steffi skyrim mit SGSSAA auf den projektor zu werfen. :-)



(..)

mfg
tobi

N0Thing
2013-03-02, 22:40:52
Doch DX 11.1 beim Titan? Oder hat Asus von Nvidia noch keine aktuelle Pressemitteilung erhalten? :D

phoenix887
2013-03-02, 23:11:24
Doch DX 11.1 beim Titan? Oder hat Asus von Nvidia noch keine aktuelle Pressemitteilung erhalten? :D

Glaube soweit ich weiss ist das nur Marketing von Asus. Jede Directx 11 kann 11.1, unterstüzt nur nicht alle Features, sowas in der Richtung habe ich gehört.

Meine Zotac ist gestern bei Caseking nicht eingetroffen. Montag wird die Anlieferung erwartet. Müsste dann am Mittwoch bei mir sein. Habe sowieso 2 Wochen Urlaub und genug Zeit. Kann mit der Karte noch lang genug experimentieren.

Den Urlaub hatte ich letztes Jahr schon so geplant, hat nichts mit Titan zu tun. So ein Freak bin ich auch nicht:freak:

Dural
2013-03-03, 10:09:00
was geht jetzt max OC unter lukü?

sind die 1200MHz mit lüfter @ 100% drin?

Raff
2013-03-03, 10:21:38
Mit Maximalspannung und etwas Glück: ja. Aber gewiss nicht bei jeder Karte und schon gar nicht bei jeder rockstable. Nur 1.006 MHz sind "sicher", 1.100 aber so gut wie.

MfG,
Raff

Dural
2013-03-03, 10:27:40
OK, da könnte theoretisch mit WaKü und mehr Spannung 1300-1400MHz drin sein, wenn die 6% nur nicht wären...

mir gibt das irgend wie das gefühl, dass NV die Karte künstlich einbremsen will.

Raff
2013-03-03, 10:29:30
Mehr als 1,21 Volt gibt's aber nur per Hardmod. Insofern würde ich mit Wasser und 1,2 GHz spekulieren. Möglicherweise bastelt ja wieder jemand Unlocked-BIOSe.

MfG,
Raff

Dural
2013-03-03, 10:32:36
ja klar mit vmod, so 1,35V dürfte der Chip unter WaKü sicher gut vertragen.
aber ich denke eben das die karte mit den nur 6% trosseln wird :(

habe mir am Freitag eine ASUS DC2 7970 gegönnt, da erwarte ich mit entsprechender Spannung und WaKü/Chiller die 1400MHz+

Grosse Chips mit max OC sind einfach geil ;) wenn ich da schon nur an die GTX280 denke, habe mit der @ 850MHz Crysis gespielt und vom gefühl her war das flüssiger als ein 3-Way SLI GTX280 System!!!

Raff
2013-03-03, 12:56:51
Glaub ich dir aufs Wort. Die Übertaktung ist aber heftig; meine hat trotz eines Acceleros unterhalb von 756 MHz dicht gemacht.

MfG,
Raff

TobiWahnKenobi
2013-03-03, 13:11:51
auf meiner seite macht sich nach einer durchgemachten nacht zufriedenheit breit.

spielen ohne AFR ist einfach schöner!


(..)

mfg
tobi

Raff
2013-03-03, 15:21:01
So geil, dass hier plötzlich lauter Single-GPU-Freunde spawnen, nachdem vorher ausgiebige AFR-Ausflüge anstanden. Glaubt den Testern doch einfach mal, wenn sie sagen, dass das nix taugt. ;)

MfG,
Raff

Godmode
2013-03-03, 15:27:13
So geil, dass hier plötzlich lauter Single-GPU-Freunde spawnen, nachdem vorher ausgiebige AFR-Ausflüge anstanden. Glaubt den Testern doch einfach mal, wenn sie sagen, dass das nix taugt. ;)

MfG,
Raff

Ich bleib bei mGPU. Mit Single GPU geht einfach zu wenig.

TobiWahnKenobi
2013-03-03, 15:50:27
So geil, dass hier plötzlich lauter Single-GPU-Freunde spawnen, nachdem vorher ausgiebige AFR-Ausflüge anstanden. Glaubt den Testern doch einfach mal, wenn sie sagen, dass das nix taugt. ;)

MfG,
Raff

ich war schon immer so eingestellt, dass mir spielgefühl "vor" frames geht. nur manchmal braucht man einfach mehr bums; allerdings ist das anwendungsgebiet bei MGPU zu beschränkt. das deckt im 24/7 -einsatz nur teilbereiche zufriedenstellend ab.

btw,
ich habe das zweifelhafte glück, dass hier von beamern bis TFTs und fernsehern alles auf FHD ausgerichtet ist. bissl 3DV dazu und natürlich schnelle schaltzeiten plus steinzeit-eingabegeräte -> immersion! und das auch mit der derzeit schnellsten single-GPU-karte.

in den ersten testläufen heute nacht habe ich bewusst gespielt und OSDs ausgelassen - das spielgefühl ist gut.

und wenn ein C3 nicht mit 8xMSAA + SSAA oder sonstwelchem brimborium läuft, dann ist das halt so. eine hohe einstellung mit AFR-stottern bei fixer FHD-auslösung ist für mein dafürhalten eher ein immersionskiller, als ne gemäßigte einstellung, die auf beiden lösungen läuft. und selbst wenn SGPU in jener dann nur mit 50fps rumkrebst, während MGPU noch 70fps schafft, so fühlen sich letztere nicht zwingend besser an. und das ist nunmal die krux.

edit:

beispiel bf3 letzte nacht:

2013-03-03 05:50:29 - bf3 (Karkand, 4xMSAA, ultra but FXAA low, Titan)
Frames: 6051 - Time: 55817ms - Avg: 108.408 - Min: 75 - Max: 141

so fühlen sich 75 minframes an? GEILO!!!!

aber moment.. *gtx690* rauskramt..

vergleichbares hatte ich doch vorher auch.. im januar schon..

2013-01-17 00:34:17 - bf3 (Karkand, 4xMSAA, ultra but FXAA low, GTX690)
Frames: 7603 - Time: 68157ms - Avg: 111.551 - Min: 79 - Max: 198

trotzdem, sowas von unterschiedlich im "gefühl" - 1:0 für titan. auf meiner strichliste... ;-)




(..)

mfg
tobi

aufkrawall
2013-03-03, 16:15:49
und wenn ein C3 nicht mit 8xMSAA + SSAA oder sonstwelchem brimborium läuft, dann ist das halt so. eine hohe einstellung mit AFR-stottern bei fixer FHD-auslösung ist für mein dafürhalten eher ein immersionskiller, als ne gemäßigte einstellung, die auf beiden lösungen läuft. und selbst wenn SGPU in jener dann nur mit 50fps rumkrebst, während MGPU noch 70fps schafft, so fühlen sich letztere nicht zwingend besser an. und das ist nunmal die krux.

Das ist mit dem AFR-Vsync ja nicht mehr so.
Ok, derzeit leider noch mit Tearing, aber sonstige Nachteile?
Spielgefühl durch mehr fps immer deutlich besser als mit Single-GPU, etwa bei BF3. ;)
Ich nutze mit so ziemlich jeder Anwendung SLI, und sei es alter Gammel mit 32xSSAA.
Bei einigen Anwendungen sind die Frametimes ungeglättet mit 2-Way SLI auch noch ziemlich gut.

Ein einzelner Titan wär mir jedenfalls bei vielen Anwendungen zu lahm.

Naennon
2013-03-03, 16:33:30
So geil, dass hier plötzlich lauter Single-GPU-Freunde spawnen, nachdem vorher ausgiebige AFR-Ausflüge anstanden. Glaubt den Testern doch einfach mal, wenn sie sagen, dass das nix taugt. ;)

MfG,
Raff

schon immer Raff, "mGPU is not an option!"

Naennon
2013-03-03, 16:33:57
OK, da könnte theoretisch mit WaKü und mehr Spannung 1300-1400MHz drin sein, wenn die 6% nur nicht wären...

mir gibt das irgend wie das gefühl, dass NV die Karte künstlich einbremsen will.

mit 1,21V gehen auch mit Wakü nicht mehr als die 1200...
1300-1400 sind sehr unrealistisch :)

TobiWahnKenobi
2013-03-03, 16:34:01
@krawall
so hat jeder sein bündel zu tragen :-)

btw,
für SLi spielchen werde ich GTX690 behalten und im moment daddelt meine bessere hälfte darauf skyrim auf dem neuen fernseher.. sieht glossy auf 60Hz gesynct und mit 2560x1440p mit 4xSGSSAA toll aus. ist halt nur nicht sooo smooth, aber sie spielt ja mitm pad und AFR habe ich ihr auch schon länger nicht mehr erklärt.. ;-)

http://www.abload.de/thumb/phenomjlzep.jpg (http://www.abload.de/image.php?img=phenomjlzep.jpg)
der zweitverwertungsrechner!

wenn von intel mal was gescheites neues kommen würde, könnte der alte kasten meinen i7 erben..



(..)

mfg
tobi

cR@b
2013-03-03, 17:08:37
spielen ohne AFR ist einfach schöner!


(..)

mfg
tobi

Und das aus deinem Mund hätte ich eigentlich nicht für möglich gehalten :D

TobiWahnKenobi
2013-03-03, 17:11:59
Und das aus deinem Mund hätte ich eigentlich nicht für möglich gehalten :D

*kopfkratz* weil?

MPGU ist da nötig, wo ne einzelne graka nicht ausreicht. in meinem fall war mir eine GTX680 zu lahm und eine tahiti zu AMD. daher hatte ich die GTX690. jetzt schafft es wieder eine SGPU-karte das abzulösen.

passt.


(..)

mfg
tobi

Dural
2013-03-03, 18:23:53
mit 1,21V gehen auch mit Wakü nicht mehr als die 1200...
1300-1400 sind sehr unrealistisch :)

vmod machen, da gehen sicher 100MHz noch drauf ;)

boxleitnerb
2013-03-03, 18:31:44
Ich weiß jetzt warum ich so niedrige Spannungen beim Übertakten habe.
Die GPU-Boost-Kurve hat ja ganz viele Taktpunkte, zu denen jeweils ein kleiner Spannungsbereich gehört. Der Offset verschiebt anscheinend (wie der Name schon sagt) die gesamte Kurve um den Offsetwert nach oben:

Standard:
1.0V, 836 MHz
...
1.062V, 902 MHz
...
1.162V, 1006 MHz

Mit +104 Offset:
1.0V, 940 MHz
...
1.062V, 1006 MHz
...
1.162V, 1110 MHz

D.h. durch das Hochziehen des Offsets werden nicht nur Taktraten/Spannungen oberhalb des höchsten Taktbins beeinflusst. Das ist genau das, was ich hier beobachten kann.
Eigentlich hätte ich damit gerechnet, dass die höheren Taktraten einfach die höchste verfügbare Spannung benutzen und der Rest untendrunter unangetastet bleibt:

1.0V, 836 MHz
...
1.062V, 902 MHz
...
1.162V, 1006 MHz
...
1.162V, 1110 MHz

Edit:
Das hieße ja auch, dass man mit dem Offset undervolten kann! Man müsste nur dafür sorgen, dass die obersten Bins nicht mehr erreicht werden.

cR@b
2013-03-03, 18:42:44
*kopfkratz* weil?

MPGU ist da nötig, wo ne einzelne graka nicht ausreicht. in meinem fall war mir eine GTX680 zu lahm und eine tahiti zu AMD. daher hatte ich die GTX690. jetzt schafft es wieder eine SGPU-karte das abzulösen.

passt.


(..)

mfg
tobi

Hmm also bei 1080p gibt es derzeit kaum ein Spiel wo die 680er nicht ausreichen würde. Entweder es stört einen das Verhalten von mGPU's oder nicht aber nur weil jetzt Titan ähnliche Leistung bringt, diese wieder besser sein soll als ne mGPU Lösung, ergibt nur wenig sinn...
Bin mal gespannt wann sich die Meinung wieder dreht... mit TitanGX2? :D

TobiWahnKenobi
2013-03-03, 18:49:05
Hmm also bei 1080p gibt es derzeit kaum ein Spiel wo die 680er nicht ausreichen würde. Entweder es stört einen das Verhalten von mGPU's oder nicht aber nur weil jetzt Titan ähnliche Leistung bringt, diese wieder besser sein soll als ne mGPU Lösung, ergibt nur wenig sinn...
Bin mal gespannt wann sich die Meinung wieder dreht... mit TitanGX2? :D

Wem genügt ausreichend? Wer definiert die Grenze zwischen ausreichend, mangelhaft und ungenügend?

60Hz und ich leben seit april 2008 getrennt. also seit ich wieder shuttere.


(..)

mfg
tobi

Knuddelbearli
2013-03-03, 18:51:56
@boxleitnerb danke fürs edit wollte gerade fragen wie es mit untervolting aussieht ^^

wobei ganz schlau werde ich aus deinem edit auch nicht werden nun bei untervolting im gegensatz zum overclocking alle spannungen gesenkt? Also auch die beim negativen Boost?

Alles in allem scheint untervolting + Overclocking aber extrem kompliziert ...

boxleitnerb
2013-03-03, 18:54:24
Ich würde mal behaupten auch beim negativen Boost, ja. z.B. gibts bei 705 MHz 0.925V standardmäßig. Ich versuch mal, +104 offset zu geben, aber das Powertarget zu senken. Mal sehen was passiert.

Standard:
823 MHz (negativer Boost) bei 0.987 V

Mit +104 offset und Power und Temperaturtarget auf 60%:
823 MHz (negativer Boost) bei 0.925 V

Das gilt genauso bei anderen Taktraten unterhalb dem Basistakt. Undervolting funktioniert also! :D

Unigine Heaven:
Hab am Drachen angehalten, gute 400W Verbrauch bei 1006 MHz@1.1625V. Getweakt 363W bei 1006 MHz@1.0625V. Ob es stabil ist, ist natürlich ne andere Frage. Das müsste man dann ausprobieren.

cR@b
2013-03-03, 19:14:35
Wem genügt ausreichend? Wer definiert die Grenze zwischen ausreichend, mangelhaft und ungenügend?

60Hz und ich leben seit april 2008 getrennt. also seit ich wieder shuttere.


(..)

mfg
tobi

Hmm und da reicht eine Titan? Wage ich fast zu bezweifeln. In BF3 evtl. noch aber sonst...
Ich wundere mich halt nur deswegen, weil ja deine 690er angeblich immer so sauber lief und nun mit erscheinen der Titan nicht mehr.
Wie auch immer... es scheint sich mancher Meinung mit dem Wind zu drehen. Konnte sowas noch nie ganz verstehen ;)
Wenn ich meine Meinung äußere, stehe ich auch dazu. mGPU ist für mich selbst bei einem längeren Balken ein absolutes no go und ich würde die 680er z.b. einer 690er oder Sli immer vorziehen, weil die vorhandenen Nachteile einfach überwiegen.

Knuddelbearli
2013-03-03, 19:36:11
ok damit ist oc bei der titan der größte scheiss da auch die Spannung bei den ganzen niedrigen frequenzen erhöht wird na toll ...

mal hoffen das galaxy bzw KFA² wirklich eine ohne Boost bringt ...
Ursprünglich mochte ich ja Boost nur wegen den Benchmarks nicht aber je mehr ich zum Thema OC dazu höre ...

boxleitnerb
2013-03-03, 19:39:37
Äh, das ist kein Scheiß. Überleg mal, was beim CPU-OC passiert, wenn du da mit einem Spannungsoffset arbeitest. Das ist mir vorhin eingefallen, da passiert nämlich genau dasselbe, nur in grün. Wenn ich im Bios +100mV gebe, sind die überall dran, auch im idle. Noch schlimmer, wenn du mit fixer Spannung übertaktest, egal ob CPU oder GPU, dann hast du die Maximalspannung überall anliegen (außer ggf. im idle). Also ist das, was der Boost beim OC macht, nicht wirklich ein Problem und auch nicht ungewöhnlich - entgegen dem, was ich ursprünglich dachte. Und das ist dann schätzungsweise bei allen Keplers so, nicht nur bei Titan.

TobiWahnKenobi
2013-03-03, 19:49:34
Hmm und da reicht eine Titan? Wage ich fast zu bezweifeln. In BF3 evtl. noch aber sonst...
Ich wundere mich halt nur deswegen, weil ja deine 690er angeblich immer so sauber lief und nun mit erscheinen der Titan nicht mehr.
Wie auch immer... es scheint sich mancher Meinung mit dem Wind zu drehen. Konnte sowas noch nie ganz verstehen ;)
Wenn ich meine Meinung äußere, stehe ich auch dazu. mGPU ist für mich selbst bei einem längeren Balken ein absolutes no go und ich würde die 680er z.b. einer 690er oder Sli immer vorziehen, weil die vorhandenen Nachteile einfach überwiegen.

leg mir da mal nichts in den mund - die GTX690 lief nicht nur; sie läuft noch.
und wenn sie nicht kaputtgeht, läuft sie auch noch munter weiter.

GTX690 produziert hier das sauberste MGPU-spielgefühl, seit ich SLi kenne - und AFAIR ist das seit tag 1.
GTX690 hat hier über die monate nicht ein problem bereitet. nicht mehrschirm, nicht audio über HDMI, nicht mit hohen BWF, nicht im shutterbetrieb, nicht beim arbeiten und nicht bezogen auf stabilität.


(..)

mfg
tobi

Knuddelbearli
2013-03-03, 19:57:03
Äh, das ist kein Scheiß. Überleg mal, was beim CPU-OC passiert, wenn du da mit einem Spannungsoffset arbeitest. Das ist mir vorhin eingefallen, da passiert nämlich genau dasselbe, nur in grün. Wenn ich im Bios +100mV gebe, sind die überall dran, auch im idle. Noch schlimmer, wenn du mit fixer Spannung übertaktest, egal ob CPU oder GPU, dann hast du die Maximalspannung überall anliegen (außer ggf. im idle). Also ist das, was der Boost beim OC macht, nicht wirklich ein Problem und auch nicht ungewöhnlich - entgegen dem, was ich ursprünglich dachte. Und das ist dann schätzungsweise bei allen Keplers so, nicht nur bei Titan.


ja nur war das bei GPUs bisher eben nicht der Fall ( ausgenommen Multimonitor wobei mich das auch schon immer geärgert hat wieso das keine eigene Spannung hat )

Auch zieht dein Beispiel mit der CPU nicht schließlich taktet deine CPU dann nie mit der Standardfrequenz sondern nur mit ihren fixen States zB bei Intel 1600 2400 und max

wenn 836Mhz Standardmäßig schon mit 1V laufen wieso sollte ich das erhöhen? Ich dachte bisher das da dann einfach weitere Spannungen freigeschaltet werden ...

Ich glaub die Idee mit der 680 lege ich jetzt endgültig ad acta, auch wenn der Negative Boost soviel Oldie Games wie ich spiele Klasse gewesen wäre und hoffe einfach auf Galaxy, sonst warte ich halt auf AMDs 9950

BigKid
2013-03-03, 19:59:25
Also ich bin grad hin und her gerissen...
Ich vergleiche SLI GTX670 Asus DC2 mit Titan...
Das SLI setzt sich bei 2560x1440 deutlicher ab als unter 1920x1080. Das SLI ist leiser.
Ich sehe das Potential bei Titan mit Wakü... In kaltem Zustand ist es mir einmal gelungen im Heaven das SLI Gespann bei 2560x1440 einzuholen... Im nächsten Lauf hat er dann aber dermaßen gebremst (nur noch 2/3 der Score davor) und das lies sich nur durch einen Reboot wieder beheben... Runterkühlen lassen alleine hat nicht gereicht.... Wakü geht mir aber einen Schritt zu weit...
Ich möchte den Titanen lieben aber aktuell ist der Eindruck: Nur unter Wasser oder mit richtig mächtigem Custom Cooler... Mit vsync (flüssig) scheint mir SLI von "flüssigkeitsgefühl" ebenbürtig...
Huelfaeee!!!!

aufkrawall
2013-03-03, 20:06:59
Also ich bin grad hin und her gerissen...
Ich vergleiche SLI GTX670 Asus DC2 mit Titan...
Das SLI setzt sich bei 2560x1440 deutlicher ab als unter 1920x1080. Das SLI ist leiser.

Würde je nach Gehäuseconfig nicht drauf wetten, dass das SLI unbedingt leiser ist.
Bei niedrigeren Auflösungen vermute ich, dass sich das SLI eher noch weiter von Titan absetzen würde als in höheren Auflösungen, nur sind SLI-Reviews i.d.R. idiotisch, weil die Tester zu dusselig sind, CPU-Limit, min-fps etc. entsprechend zu berücksichtigen.


Ich sehe das Potential bei Titan mit Wakü... In kaltem Zustand ist es mir einmal gelungen im Heaven das SLI Gespann bei 2560x1440 einzuholen... Im nächsten Lauf hat er dann aber dermaßen gebremst (nur noch 2/3 der Score davor) und das lies sich nur durch einen Reboot wieder beheben... Runterkühlen lassen alleine hat nicht gereicht.... Wakü geht mir aber einen Schritt zu weit...
Ich möchte den Titanen lieben aber aktuell ist der Eindruck: Nur unter Wasser oder mit richtig mächtigem Custom Cooler... Mit vsync (flüssig) scheint mir SLI von "flüssigkeitsgefühl" ebenbürtig...
Huelfaeee!!!!
Kommt vielleicht auch drauf an, wie lange du die Karten behalten willst. Das SLI kannst du vermutlich später wieder für mehr Geld loswerden, musst das aber eventuell etwas früher tun als mit Titan, weil bei zukünftigen Titeln die Gaming-Keplers eventuell stärker einbrechen werden.
Wenn die Kohle nicht so ne Rolle spielt, würd ich eher zu Titan mit WK raten.
Das P/L-Verhältnis ist im Vergleich zum 670er SLI natürlich völlig unverschähmt.

boxleitnerb
2013-03-03, 20:13:00
ja nur war das bei GPUs bisher eben nicht der Fall ( ausgenommen Multimonitor wobei mich das auch schon immer geärgert hat wieso das keine eigene Spannung hat )

Auch zieht dein Beispiel mit der CPU nicht schließlich taktet deine CPU dann nie mit der Standardfrequenz sondern nur mit ihren fixen States zB bei Intel 1600 2400 und max

wenn 836Mhz Standardmäßig schon mit 1V laufen wieso sollte ich das erhöhen? Ich dachte bisher das da dann einfach weitere Spannungen freigeschaltet werden ...

Ich glaub die Idee mit der 680 lege ich jetzt endgültig ad acta, auch wenn der Negative Boost soviel Oldie Games wie ich spiele Klasse gewesen wäre und hoffe einfach auf Galaxy, sonst warte ich halt auf AMDs 9950

Doch das CPU-Beispiel zieht sehr wohl, denn bei den fixen Zwischenzuständen liegen genauso höhere Spannungen an wie beim OC-Takt von sagen wir mal 4500 MHz. Es ist wirklich genau dasselbe wie beim CPU-OC mit Offset. Du dachtest falsch, ich auch.

Verstehe nicht, wie man das schlechtreden muss, wenn das überall passiert. Aber extra für dich schau ich mal was für Spannungen bei meiner CPU anliegen, wenn ich den Offset im Bios verändere.

Hier die Ergebnisse:

-0.06V offset
1800 0.888V
2200 0.952V
2800 1.05V

-0.01V offset
1800 0.936V
2200 1.0v
2800 1.1V

Du siehst, ALLE Taktraten haben jetzt 50mV mehr anliegen. Und über den Offset übertaktet die halbe Welt ihre CPUs, weil man so nämlich auch bei geringeren Taktraten nicht die vollen 1.2x oder 1.3x V drauf hat. Der CPU-Boost und der Kepler-Boost funktionieren genau gleich in dieser Hinsicht was overvolting und undervolting angeht.

iceman.s
2013-03-03, 20:20:24
Für den Fall, dass es jemanden interessiert:
Ich habe es grade nochmal überpüft: Der Titan will nicht mit einer anderen Karte im Rechner stecken...
Sobald ich eine der GTX670er dazustecke -> Standard VGA Treiber, GPU not found...
Ohne den Treiber wechseln zu müssen Funktioniert jedoch sowohl TITAN alleine, wie auch 1 oder 2 GTX670er ...
Was ist da los ?
Ich finde das zumindest mal seltsam...

Und die nächste Frage ist - wärend der Titan gerade bei Unigine Valley und 3DMark Fire Strike bei 1080p mit etwas OC mit einem GTX670 sli gleichzieht wird er dann bei 1440p abgehängt! Benche ich falsch?
Wobei man klar sagn muss dass ich vsync ein (flüssig) beim sli anmachen muss damit ein ähnlich guter eindruck entsteht und dann schenkt es sich nich mehr viel - allerdings scheint das sli dann mehr reservn zu haben...

Meine GTX 285 läuft ohne Probleme neben der Titan.

Sunrise
2013-03-03, 20:34:46
@boxleitnerb:
Das ist interessant, danke.

Kannst du mal was zum RAM-OC sagen? Ich habe jetzt schon öfter gelesen, dass das bei Titan fast nichts oder nichts bringt. Im overclockers.net-Forum hat einer den RAM bei effektiven 6.600MHz und gibt an, dass das nichts bringt. Hier der Link: http://www.overclock.net/t/1363440/nvidia-geforce-gtx-titan-owners-club/1770#post_19424842 (Steht ganz unten in seinem Beitrag.)

Kannst du das bestätigen? Hat er vielleicht zu niedrige Settings die zuwenig Bandbreite verlangen? Und falls ja, würde mich mal interessieren, was dafür der Grund sein kann? Die 580 gewinnt durch RAM-OC nämlich schon etwas dazu, wenn auch wenig relativ zum GPU-OC. Ist hier irgendwo ein Flaschenhals oder liegt das an den Caches bzw. am Speichercontroller? Hab leider noch kein Review gefunden, dass das mal genauer untersucht.

Lass dir Zeit, mich würde das aber mal interessieren.

boxleitnerb
2013-03-03, 20:54:12
Ich hab kurz mit gespielt, aber ausführliche Versuche mache ich erst wenn die Backplates da sind. Der Speicher wird recht warm hinten.

Godmode
2013-03-03, 20:58:16
Weiß man eigentlich, ob GK110 einen anderen Speichercontroller als GK104 hat, abseits des größeren Interfaces?

Iruwen
2013-03-03, 22:10:01
ja nur war das bei GPUs bisher eben nicht der Fall ( ausgenommen Multimonitor wobei mich das auch schon immer geärgert hat wieso das keine eigene Spannung hat )

Auch zieht dein Beispiel mit der CPU nicht schließlich taktet deine CPU dann nie mit der Standardfrequenz sondern nur mit ihren fixen States zB bei Intel 1600 2400 und max

wenn 836Mhz Standardmäßig schon mit 1V laufen wieso sollte ich das erhöhen? Ich dachte bisher das da dann einfach weitere Spannungen freigeschaltet werden ...

Ich glaub die Idee mit der 680 lege ich jetzt endgültig ad acta, auch wenn der Negative Boost soviel Oldie Games wie ich spiele Klasse gewesen wäre und hoffe einfach auf Galaxy, sonst warte ich halt auf AMDs 9950

Bist du sicher dass den Unterschied zwischen Boost und P-States verstanden hast? Ich hab so das Gefühl dass nicht.

PS: mit dem Kepler BIOS Tweaker kann man die Spannungen pro P-State einstellen: http://www.hardwareluxx.de/community/f14/nvidia-geforce-gtx-600-serie-bios-files-932143-35.html#post20114870

BigKid
2013-03-03, 22:40:35
Würde je nach Gehäuseconfig nicht drauf wetten, dass das SLI unbedingt leiser ist.

Ich sage das nicht ins Blaue - ich probiere es grade aus...
Ich musste etwas an den Lüftern drehen aber nun ist es so...


Bei niedrigeren Auflösungen vermute ich, dass sich das SLI eher noch weiter von Titan absetzen würde als in höheren Auflösungen, nur sind SLI-Reviews i.d.R. idiotisch, weil die Tester zu dusselig sind, CPU-Limit, min-fps etc. entsprechend zu berücksichtigen.

Hm... Auch hier wieder: Nein - sieht mir nicht so aus... Ich habe Unigine Valley und Firestrike Benches sowie FarCry (keine Benches sondern FPS beobachtet). Sieht es bei 1080 noch so aus als käme Titan an das SLI Gespann rann setzt es sich dann bei 1440p deutlicher ab...


Kommt vielleicht auch drauf an, wie lange du die Karten behalten willst. Das SLI kannst du vermutlich später wieder für mehr Geld loswerden, musst das aber eventuell etwas früher tun als mit Titan, weil bei zukünftigen Titeln die Gaming-Keplers eventuell stärker einbrechen werden.
Wenn die Kohle nicht so ne Rolle spielt, würd ich eher zu Titan mit WK raten.
Das P/L-Verhältnis ist im Vergleich zum 670er SLI natürlich völlig unverschähmt.
Letztlich ist mir die Kohle nicht soo wichtig - ich hatte gegen SLI auch Bedenken aber mit VSYNC an(flüssig) sieht es nicht so unrund aus und ist (bei mir) leiser...
Unter Wasser und mit mehr PT - sofort ... Mit Custom Kühler - vermutlich - denn Titan SLI - das macht für meine Zwecke keinen Sinn...
Ach verflucht - Gäbe nur nen richtig klaren Sieger...

(del676)
2013-03-03, 23:06:57
Bei mir ist das Crossfire auch leiser als eine 7950 alleine.
Waehrend man bei einer Karte die GPU zu 99% ausreizt um auf 50fps zu kommen, laufen bei Crossfire beide mit 60-70% und man hat immer durchgehend 60fps. Wenn dann mal eine extrem fordernde Szene kommt, hat man massigst Performanceueberschuss (wesentlich mehr als so ein GPU Boost 2.0 raushauen kann ;) ), den die Karten dann ausspielen koennen. Alles in allem, werden die 2 Karten aber bei weitem nicht so warm und laut, wie eine Karte die dauernd am maximum dahinhechelt.

Bei gewissen Games kann man sogar underclocken und undervolten und man faehrt noch immer locker ins 60fps Limit. Da rennt der GPU Luefter dann mit 20-30%. :)

Godmode
2013-03-03, 23:24:42
100% agree! War bei mir mit Dual 690 nichts anderes.

Knuddelbearli
2013-03-03, 23:26:54
Bist du sicher dass den Unterschied zwischen Boost und P-States verstanden hast? Ich hab so das Gefühl dass nicht.

PS: mit dem Kepler BIOS Tweaker kann man die Spannungen pro P-State einstellen: http://www.hardwareluxx.de/community/f14/nvidia-geforce-gtx-600-serie-bios-files-932143-35.html#post20114870

P3 und P0 hängen bei der Spannung nicht mehr zusammen wie bei meiner GTX 480? zumindest das mal ne gute Entwicklung.


@ box ja das mit der CPU hatte ich falsch im Kopf sorry

Aber trotzdem nur weill das bei den CPUs so ist muss man das doch nicht auch bei den GPUs so machen. wie gesagt wo ist der Sinn darin die Spannung für eine Frequenz zu erhöhen die eh schon stabil läuft ...

Sinnvoller wäre es ihmo wenn man nur weitere Max Spannungen und Frequenzen "freischaltet"
und auch stabiles Maximales OC stelle ich mir mistig vor. zB max Frequenz 1200Mhz und Spannung 1,25V wer sagt mir jetzt das auch 1100Mhz sicher stabil ist? Kann die Spannung dafür ja nicht getrennt einstellen

boxleitnerb
2013-03-03, 23:36:10
Die Frequenz- und Spannungsschritte sind immer gleich, und bei Standardtaktraten müssen auch alle Frequenzen stabil laufen. Das wird schon entsprechend validiert und funktioniert (13 MHz mehr laufen mit 12.5mv mehr stabil) - daher gibt es keinen Grund anzunehmen, dass das bei OC anders ist und plötzlich irgendwelche Anomalien entstehen mittendrin.

Wenn überhaupt, dann sind höhere Frequenzen kritischer, was die Spannungen angeht, das kennt man doch. Irgendwann muss man die Spannung deutlich erhöhen, um ein bestimmtes Ziel zu erreichen, während etwas darunter viel weniger ausreicht. Sprich, wenn die Maximalfrequenz stabil ist, ist auch alles darunter stabil.

Und sag mir mal, was für Spannungen bei einer AMD-Grafikkarte anliegen beim Übertakten? Würde mich ernsthaft interessieren.

(del676)
2013-03-03, 23:42:49
Also bei meinen (non boost) 7950 hab ich folgende Spannungen eingestellt.
400mhz - 0.950V
700mhz - 1.019V
850mhz - 1.050V
933mhz - 1.113V
1000mhz - 1.175V

Default ist 800mhz bei 1.094V

Knuddelbearli
2013-03-03, 23:43:23
kA habe zwar in meinem 2t rechner ne 5850 der hat aber schon lange keine Festplatte mehr verbaut ^^
kann also nicht nachgucken

Aber weshalb willste das wissen? ist doch eh egal da verschieden Architekturen

boxleitnerb
2013-03-03, 23:55:10
Weil ich mir eben vorstellen könnte, dass wenn man bei AMD die Spannung erhöht, dies auch auf die niedrigeren P-States eine Auswirkung hat.
Ich finde es jedenfalls nicht tragisch. Wenn man in niedrigeren Taktgefilden unterwegs ist, dann sowieso deshalb, weil die Karte nicht ausgelastet ist. Da bewirkt die höhere Spannung fast nichts, was den Verbrauch angeht. Das wäre das Einzige, was man gelten lassen könnte als Grund dagegen. Die meiste Zeit wird man die GPU bei sehr hoher Auslastung und den OC-Taktraten betreiben - deshalb übertaktet man ja überhaupt, weil die GPU an der Grenze ist und man mehr fps möchte.

Inzwischen bekomme ich die 1100-1150 MHz ziemlich stabil hin ohne throtteln. Das Schöne ist, dass wenn man das Powertarget trotz OC etwas senkt, die Taktraten stabiler sind als in der Standardeinstellung. Für maximales Übertakten ist der Boost nicht der Brüller unter Luft, aber bei moderaten Erhöhungen geht es mit diesem Trick ganz gut.

Knuddelbearli
2013-03-04, 00:08:13
nö ändert sich nur die obereste war bei NV ja auch imemr so nur das dort halt auch Multimonitor P3 an die P0 Spannugn gekoppelt ist

und was heisst hier bitte fast nichts. der niedrige takt wirkt sich kaum aus die spannung dagegen enorm ...
Dürftest ja schon mitbekommen haben das das einzige positive das ich bisher dem Boost abgewinnen konnte der negative Boost war zum Energiesparen, da man so nicht mehr dauernd mit dem Inspektor zwischen Profilen wechseln muss

Natürlich geht es mir da aber nicht um die Stromkosten sondern ist einfach ein tick von mir, wozu unnötig Energie verbraten, und die Spannungserhöhung ist das eben unnötig und unsinnig

boxleitnerb
2013-03-04, 00:19:42
Enorm? Beleg das doch mal mit Zahlen. Wir sprechen hier schließlich von Teillast. Aber wichtiger: Ich sage doch, wenn du übertaktest, fährst du meist sowieso die OC-Taktraten, und für die brauchst du die höheren Spannungen ja. D.h. es ist irrelevant, dass auch bei niedrigeren Taktraten höhere Spannungen anliegen, weil diese Taktraten selten bis nie zum Einsatz kommen. Und wenn ich ein durchgehend anspruchsloseres Spiel spiele, bei dem ich das OC nicht brauche, schalte ich es in einer Sekunde bequem per Hotkey aus.

Ich experimentiere ja gerade mit Undervolting. Im harten GPU-Limit macht das bis zu 50W aus. Im CPU-Limit praktisch nix.

Knuddelbearli
2013-03-04, 00:46:15
wieso teillast? der Sinn des boostes ist ja das er entsprechend zurück taktet bis es eben keine teillast mehr ist, da Spannung nunmal der Hauptverbraucher ist

und auch die niedrigen taktraten hat man oft genug anliegen ihr sprecht ja immer von adaptiven Vsynch da dort der Boost sich am besten entfaltet

und umschalten kann ich auch ohne Boost ...
da brauche ich das teil nicht das einen nur überall behindert

Skysnake
2013-03-04, 07:42:13
/sign.

Bei der Art und Weise wie der Boost implementiert ist, hätte man entweder komplett frei die Spannung wählen sollen für JEDEN Punkt, oder zumindest für mindestens 3 Boost-Stufen.

Oder halt nen Offset- und nen linearen-Paramter, mit dem sich die Spannung beeinflussen lässt.

Das wäre so ziemlich optimal.

Den Sinn vom Offset seh ich nur im Undervolting. Was bringts mir, das niedrigere Stufen auch die volle Spannung bekommen, wenn die höchste Taktrate schon stabil läuft? :ugly:

gnahr
2013-03-04, 08:29:06
große spannungssprünge sind nicht gerade dienlich für den stabilen betrieb von schaltkreisen an ihrem individuellen maximum.
aber lasst euch in eurer bestechenden logik nicht aufhalten. egal wie es ist, es muss ja falsch sein.

boxleitnerb
2013-03-04, 09:03:29
Gewaltiges Kommando zurück, ich hatte selbst einen Brainfart. Schaut euch die Werte doch nochmal an:


Standard:
1.0V, 836 MHz
...
1.062V, 902 MHz
...
1.162V, 1006 MHz

Mit +104 Offset:
1.0V, 940 MHz
...
1.062V, 1006 MHz
...
1.162V, 1110 MHz

Nehmen wir die 1006 MHz, die sind ja "niedrig" im Vergleich zu dem OC-Takt von 1110 MHz. Ohne Übertakten liegen dort 1.1625V an. Mit Übertakten liegen dort 1.0625V an, also weniger. Was ich beim Vergleich zum CPU-Turbo nicht bedacht habe ist, dass der CPU-Turbo die Maximalspannung erhöht, der Kepler-Turbo tut dies nicht. z.B. bei meinem 3930K beträgt die VID bei 4200 MHz 1.35V, das ist mehr wie bei Standardturbotaktraten von bis zu 3800 MHz. Auf diesen erhöhten Wert bezieht sich der Spannungsoffset. Bei Kepler bleibt die Maximalspannung aber bei 1.1625V und erhöht sich nicht.


Den Sinn vom Offset seh ich nur im Undervolting. Was bringts mir, das niedrigere Stufen auch die volle Spannung bekommen, wenn die höchste Taktrate schon stabil läuft? :ugly:

Bekommen sie ja NICHT. Beim Übertakten liegen dieselben bzw. niedrigere Spannungen an, je nach gerade aktiver Taktrate.

Fazit:
Aufregung um nichts. :freak:
Der Boost ist so gesehen ziemlich genial, denn er undervoltet die Karte bei geringer Last und übertaktet sie gleichzeitig bei hoher Last! Bei geringeren Taktraten wird der OC-Spielraum zur Spannungssenkung benutzt, bei höheren dann aber zur Taktsteigerung.

BigKid
2013-03-04, 09:27:03
Fazit:
Aufregung um nichts. :freak:
Der Boost ist so gesehen ziemlich genial, denn er undervoltet die Karte bei geringer Last und übertaktet sie gleichzeitig bei hoher Last! Bei geringeren Taktraten wird der OC-Spielraum zur Spannungssenkung benutzt, bei höheren dann aber zur Taktsteigerung.
Kannst du mir eventuell einen Tipp geben, wie ich am schnellsten "meinen" Sweet-Spot der Titan unter Luft finden kann ?
Ich suche was wo die Küfter knapp unter 55% bleiben und eine brauchbare Leistung anliegt... Mit K-Boost und Spannungsabsenkung oder wie auch immer...

boxleitnerb
2013-03-04, 10:24:42
Das ist natürlich stark von der Karte abhängig. Ich hatte vorher mit -0.15V in Skyrim einen Absturz. Mehr wie -0.1V würde ich nicht machen, das entspricht 8 12.5mV-Schritten, also 8x13=+104 MHz Offset.

Wo wir mit unserer Diskussion allerdings richtig lagen ist, dass es besser wäre, die Spannungen für die einzelnen Taktpunkte selbst einstellen zu können. Es könnte ja sein, dass die Karte bei 1.2V 1201 MHz (+15* 13 MHz = 195 MHz Offset) mitmacht.

Das bedeutet in hohen Taktregionen:
+195 MHz bei +37.5 mV

Aber in niedrigeren Taktregionen:
+0 MHz bei -187.5 mV
Sprich, hier "fehlen" die 37.5 mV vom Overvolting, die für die Stabilität entscheidend sein könnten.

Heißt, wenn man weit übertakten möchte, sollte man den Takt doch lieber festpinnen um dem vorzubeugen. Oder eben soweit möglich die Spannungen für die einzelnen Taktpunkte doch manuell einstellen, dass beim OC nicht zu weit undervoltet wird.

BigKid
2013-03-04, 11:43:58
Das ist natürlich stark von der Karte abhängig. Ich hatte vorher mit -0.15V in Skyrim einen Absturz. Mehr wie -0.1V würde ich nicht machen, das entspricht 8 12.5mV-Schritten, also 8x13=+104 MHz Offset.

Wo wir mit unserer Diskussion allerdings richtig lagen ist, dass es besser wäre, die Spannungen für die einzelnen Taktpunkte selbst einstellen zu können. Es könnte ja sein, dass die Karte bei 1.2V 1201 MHz (+15* 13 MHz = 195 MHz Offset) mitmacht.

Das bedeutet in hohen Taktregionen:
+195 MHz bei +37.5 mV

Aber in niedrigeren Taktregionen:
+0 MHz bei -187.5 mV
Sprich, hier "fehlen" die 37.5 mV vom Overvolting, die für die Stabilität entscheidend sein könnten.

Heißt, wenn man weit übertakten möchte, sollte man den Takt doch lieber festpinnen um dem vorzubeugen. Oder eben soweit möglich die Spannungen für die einzelnen Taktpunkte doch manuell einstellen, dass beim OC nicht zu weit undervoltet wird.
Ok... Aber deine Erkenntnisse sind leider über mehrere Posts verteilt - könntest du eventuell ein ganz kurzes "Undervolting für Dummies" erstellen ? :redface:

BiG OnE
2013-03-04, 11:57:19
Moin, moin
Also bei meinen (non boost) 7950 hab ich folgende Spannungen eingestellt.
400mhz - 0.950V
700mhz - 1.019V
850mhz - 1.050V
933mhz - 1.113V
1000mhz - 1.175V

Default ist 800mhz bei 1.094V

die Umschaltung machst Du von Hand oder automatisch?

Bis denne ...

boxleitnerb
2013-03-04, 12:16:56
Ok... Aber deine Erkenntnisse sind leider über mehrere Posts verteilt - könntest du eventuell ein ganz kurzes "Undervolting für Dummies" erstellen ? :redface:

GPU offset hoch, Powertarget runter, mehr ist es nicht.

Für 12.5mV weniger GPU-Spannung den GPU offset um +13 MHz hochziehen. Die Werte kann man mit beliebigen ganzen Zahlen multiplizieren, also z.B. mal 8, was dann 100mV und +104 MHz offset ergeben würde.

(del676)
2013-03-04, 12:35:56
Umschalten tu ich ueber Hotkeys am Keyboard
Strg + Alt + 1(bis 5)

Automatisch fahren sich die Karten aber trotzdem in einen 2D Modus wenn keine Last anliegt.

BigKid
2013-03-04, 12:43:21
GPU offset hoch, Powertarget runter, mehr ist es nicht.

Für 12.5mV weniger GPU-Spannung den GPU offset um +13 MHz hochziehen. Die Werte kann man mit beliebigen ganzen Zahlen multiplizieren, also z.B. mal 8, was dann 100mV und +104 MHz offset ergeben würde.
SUPER ! Genau so... Vielen Dank :) dann werde ich das heute nochmal testen und schauen ob es dem Titan bei mir noch ein paar Sympatiepunkte bringen kann... Aktuell liegt das SLI leicht vorne weil ich keine Wasserkühlung einbauen will... Das VSYNC an (flüssig) scheint nämlich wirklich richtig gut zu greifen, sodaß ich die FPS auch <60 als flüssig bezeichnen würde...
In Unigine Valley sieht man es sehr deutlich, in FarCry 3 auch... Ich hab Crysis noch nicht angetestet und heute kommt auch noch Tombraider... Hach so ein Stretch :)

(del676)
2013-03-04, 12:47:11
Was? Tombraider ist ja erst Morgen spielbar? Hab ich was versaeumt?

M4xw0lf
2013-03-04, 12:47:47
Release am 5.3. ist doch nix neues?

BigKid
2013-03-04, 12:50:01
Kommt heute per Post... Jaaaaaaa... Nur ich muss ja nebenher auch noch Arbeiten, ne Dienstreise vorbereiten, im Haushalt meinen Teil tun...
Titan und SLI testen und vergleichen - und die Zeit läuft ich will ja entweder die Titan oder die zweite (neue) GTX670 DC2 wieder zurücksenden :)
*STRESS**

Knuddelbearli
2013-03-04, 14:55:31
wie genau ist das Powerlimit eigentlich bei NV?

verbraucht die Karte wirklich maximal ca 260W ?

Habe mom nur ein kleines Netzteil da mein Corsair AX 750 sprichwörtlich abgeraucht ist und ich dafür mein geld wiederbekommen habe. Konnte mich noch nicht dazu aufraffen ein neues zu kaufen da meien 480 mom eh nur massiv untertaktet / voltet läuft

P@trick
2013-03-04, 15:57:45
Ihr könnt nacher mit Knuddels Frage weitermachen.

Mir ging es nur schnell drum zu fragen/festzustellen,spielt ihr echt Tomb-Raider?Na ja..... ,Geschmäcker sind verschieden,mein Fall war es nie.

Muss denn später boxleitnerb dann noch etwas zur OC-Leistungssteigerung fragen.

boxleitnerb
2013-03-04, 16:38:39
Richtig übertaktet wird erst mit Wasserkühlung :)

135i
2013-03-04, 19:15:37
Richtig übertaktet wird erst mit Wasserkühlung :)
Aber erst ab 2Karten , weil...was willste mit Einer "reissen" ?

Sunrise
2013-03-04, 19:27:38
http://www.computerbase.de/news/2013-03/inno3d-zeigt-geforce-gtx-titan-mit-accelero-hybrid-kuehler/

"Darüber hinaus hat der Kühlerhersteller Arctic heute in einer Pressemeldung bekannt gegeben, dass neben der besagten Hybrid-Lösung auch die Luftkühler Twin Turbo II und Accelero Xtreme III zur GeForce GTX Titan kompatibel seien."

Siehe auch http://www.arctic.ac

Na dann mal los, PCGH. Den Accelero drauf und ein Review, bitte! :D

Hugo78
2013-03-04, 19:49:24
2 TFLOPs DP im Video, Titan @ 1241MHz.
- http://www.pcgameshardware.de/Nvidia-Geforce-Hardware-255598/Downloads/Nvidia-Geforce-Treiber-31414-Beta-1058798/

Godmode
2013-03-04, 19:52:37
http://www.computerbase.de/news/2013-03/inno3d-zeigt-geforce-gtx-titan-mit-accelero-hybrid-kuehler/



Siehe auch http://www.arctic.ac

Na dann mal los, PCGH. Den Accelero drauf und ein Review, bitte! :D

Nicht mal geschenkt würd ich mir nen Accelero auf irgend eine Karte schnallen.

Sunrise
2013-03-04, 19:54:13
Nicht mal geschenkt würd ich mir nen Accelero auf irgend eine Karte schnallen.
Das passt bei deiner Konfig (SLI) auch irgendwie schlecht. Es geht hier eher um Single-Karten und um jene, die keine Wakü haben und es bedingungslos leise möchten (mit OC-Spielraum nach oben).

P@trick
2013-03-04, 20:18:44
Mich hat es einfach wunder genommen was bei einer hypothetischen 30 prozentigen - ,von 876MHz ausgegangen --> 1138.8 MHz Übertaktung bei aktuellen Spielen im Schnitt in etwa auf die Piste kommt.Von dem Standpunkt aus gesehen ist TahitXT ja ein Paradebeispiel,welcher ja nahezu linear mit dem Takt skaliert.

Dural
2013-03-04, 20:34:07
2 TFLOPs DP im Video, Titan @ 1241MHz.
- http://www.pcgameshardware.de/Nvidia-Geforce-Hardware-255598/Downloads/Nvidia-Geforce-Treiber-31414-Beta-1058798/

ich dachte das mit DP der takt fix bleibt?

Knuddelbearli
2013-03-04, 20:53:45
wie genau ist das Powerlimit eigentlich bei NV?

verbraucht die Karte wirklich maximal ca 260W ?

Habe mom nur ein kleines Netzteil da mein Corsair AX 750 sprichwörtlich abgeraucht ist und ich dafür mein geld wiederbekommen habe. Konnte mich noch nicht dazu aufraffen ein neues zu kaufen da meien 480 mom eh nur massiv untertaktet / voltet läuft


niemand?

boxleitnerb
2013-03-04, 21:00:15
106%. Eine Karte verbraucht im idle 12-13W, da werden gute 6% Powerlimit angezeigt mit GPU-Z. Wenn man das hochrechnet, kommt man also auf ca. 260W.

Saugbär
2013-03-04, 21:04:06
ich dachte das mit DP der takt fix bleibt?
Bleibt er ja auch... Turboboost disable und ein "wenig" mit dem offset herumspielen:rolleyes:

Knuddelbearli
2013-03-04, 21:13:29
106%. Eine Karte verbraucht im idle 12-13W, da werden gute 6% Powerlimit angezeigt mit GPU-Z. Wenn man das hochrechnet, kommt man also auf ca. 260W.

hui dann reicht mein 400W Netzteil ja sogar noch ^^ naja trotzdem mal Ausschau nach nem neuen halten

Godmode
2013-03-04, 23:10:29
Krasse VRAM Auslastung in C3:
Settings waren 3840x2160 16QxMSAA+8xSGSSAA ;D
5,7 GB :eek:

Ich sag euch, in ein paar Tagen werde ich das mit den anderen zwei Titanen mit 16 FPS zocken ;)

http://www.abload.de/thumb/crysis3_2013_03_04_23fzuvp.png (http://www.abload.de/image.php?img=crysis3_2013_03_04_23fzuvp.png)

Nightspider
2013-03-04, 23:14:45
Danke für die Beantwortung der Frage, wer denn 6GB VRAM brauchen würde. ;)

Und dabei ist C3 nicht mal ein NextGen Game.

In 1,5 Jahren kannst du sicherlich 8GB füllen.

Knuddelbearli
2013-03-04, 23:16:56
bei weiterhin 8.8 FPS ^^

abgesehen davon das es bei 4GB vermutlich nicht langsam werde, mit viel ram wird halt mehr vorgehalten

one of many
2013-03-04, 23:33:38
vermutlich eine sehr doofe frage aber stelle sie trotzdem mal.^^
ist 99% gpu auslastung immer das absolute maximum an hitzeentwicklung unabhängig davon woher die kommt, oder kann es je nach game auch bei 99% noch deutliche unterschiede geben was hitzeentwicklung angeht?

als test für das 106%/95° maximum in evga precision startete ich crysis 3 maxed out und liess das mit 99% 45min stehen als worst case szenario.
zu meiner überraschung stieg die temp nur gerade auf 83° dabei bei konstant 993mhz und 65% fan, ist das normal?
wenn ja wäre es bescheuert diese einstellung nicht dauerhaft zu fahren, oder? ^^

Godmode
2013-03-04, 23:36:06
vermutlich eine sehr doofe frage aber stelle sie trotzdem mal.^^
ist 99% gpu auslastung immer das absolute maximum an hitzeentwicklung unabhängig davon woher die kommt, oder kann es je nach game auch bei 99% noch deutliche unterschiede geben was hitzeentwicklung angeht?

als test für das 106%/95° maximum in evga precision startete ich crysis 3 maxed out und liess das mit 99% 45min stehen als worst case szenario.
zu meiner überraschung stieg die temp nur gerade auf 83° dabei bei konstant 993mhz und 65% fan, ist das normal?
wenn ja wäre es bescheuert diese einstellung nicht dauerhaft zu fahren, oder? ^^

Schwer zu sagen, aber ich denke schon das es noch Unterschiede gibt. Ein Mix aus Usage und Power hängen immer zusammen.

Ja das ist normal, beobachte ähnliches.

TobiWahnKenobi
2013-03-05, 07:41:14
den speicher zu belegen, der vorhanden ist (solange das spiel selbiges zulässt) ist doch das, was wir gewohnt sind. speicher freizuhalten ist sinnfrei; der freie RAM wäre überflüssiger speicher.


(..)

mfg
tobi

BigKid
2013-03-05, 09:46:01
Also ich kann mich immer noch nicht Entscheiden...
Ich würde die Titan wirklich gerne nehmen aber das Gesammtpaket kann mich nicht 100% überzeugen.
Warum ? Wenn man die Karte mal kalt bencht, dann sieht man was die Karte mit einer guten Kühlung leisten könnte. Der Kühler der jetzt drauf ist, ist ein Kompromiss - für Entusiasten, die unter Luft SLI machen wollen mag er besser sein - für alle anderen wäre aber ein dicker fetter Kühler mit mehr Lüftern vermutlich besser gewesen..
Wer ihn wasserkühlen oder eh SLI machen will wird also glücklich denke ich.

Für mich steht das aber nicht zur Diskussion also kann ich mir nur überlegen den Titanen auszuziehen und nen Accellero 3 oder Hybrid draufzusetzen (komplett Wakü lasse ich mir noch gefallen). Dazu müsste ich aber nun rausbekommen bei wem das nicht zu Garantieverlust führt (aktuell habe ich ne Zotac Titan).

Versteht mich nicht falsch - der Titan Kühler ist zweifellos einer der besten, vermutlich sogar DER beste Kühler den NV jemals ab Werk mitgeliefert hat. Er kann es aber NICHT mit einem Lüfter vom Format der DC2 Karten aufnehmen - aber dafür hat er DHE (bläst mehr Luft raus) als eine DC2 und ist somit für SLI oder schlechter belüftete Gehäuse vermutlich der bessere Kompromiss...

Aber er bremst den Titanen aus. Und wenn man das einmal bemerkt hat dann läß es einem keine Ruhe mehr.
Im Unigine Valley (Extreme HD) z.B. kommt der Titan mit dem bisschen OC das geht (PT106, TempLimit 90, +600Mhz Mem) in 2560x1440 mit 4xAA durchaus mal auf 1900 Punkte (kalt) - das SLI schafft etwa 2100. Aber wenn er WARM ist dann sind es manchmal plötzlich nur noch 1500-1600... Ähnlich sieht das Bild in Firestrike aus...

Auch kann Titan in der von mir angestrebten Auflösung (2560x1440 mit 2x oder 4x AA) nicht mehr so richtig zu einem SLI GTX670 aufschliessen. Bei den Dingen die ich probiert habe scheint NV auch gute Arbeit mit VSYNC Option für SLI "an(flüssig)" geleistet zu haben.
Zuletzt ist das Gespann aus 2 Asus DC2 GTX670ern leiser unter Last. Wir reden hier nicht von einem Orkan - der Lüfter der Titan erzeugt ein recht "angenehmes" Rauschen von der Frequenz her - aber ist Lauter als die DC2en (bei mir). Klar hat man beim Titan die Wahl - man setzt das TempLimit runter und schon beibt er dezent... Aber dafür bremst er denn auch...

So bleibt der Titan ein wirklich geiles Stück Technik das ich gerne behalten würde und auf mich mehr Anziehung ausübt als das SLI. Eine Single Karte die so nah rann an ein SLI kommt gab es schon lange nicht und die Frage ist wann es sowas wieder geben wird... Aber er ist nicht so perfekt wie er sein könnte und das zu wissen NERVT mich... Mir läuft die Zeit weg weil ich nur noch ein paar Tage habe bis ich den Titanen oder die zweite GTX670 zurück schicken muss...

Ich bin für jeden guten Rat dankbar...

Godmode
2013-03-05, 09:59:48
Da gibt es nur eine Option: Eine zweite Titan Karte. ;D

TobiWahnKenobi
2013-03-05, 10:01:14
wenn ich sowas lese.. +600MHz mem.. kühler wechseln.. leistung wird eingebremst..

leute, kauft das teil erstmal und spielt damit spiele (dafür wird er angeboten).

die speicherübertaktung ist utopie. ich dachte auch - WOW - der RAM geht krass hoch.. (bin bis +500MHz gegangen).. naja.. bis ich 3DM2011 @extreme getestet habe.. der erste bench, der bildfehler beim RAM-OC auswirft.

wenn ich ohne OSD spiele, ist das spielgefühl super und oft besser als mit meiner GTX690, weil das AFR wegfällt. schalte ich das OSD an, während ich spiele und die karte leicht übertaktet habe, liegt der takt erschreckend oft wischen 1100 und 1200MHz (idr. 1150 oder 1189MHz). das ist absolut okay und vergleichbar mit dem, was ich von GTX690 gewohnt bin.

nein, mein gehäuse ist zwar kühl (28-32°C lt. mainboard-sensor), aber kein kühlschrank.


(..)

mfg
tobi

BigKid
2013-03-05, 10:15:58
wenn ich sowas lese.. +600MHz mem.. kühler wechseln.. leistung wird eingebremst..
die speicherübertaktung ist utopie. ich dachte auch - WOW - der RAM geht krass hoch.. (bin bis +500MHz gegangen).. naja.. bis ich 3DM2011 @extreme getestet habe.. der erste bench, der bildfehler beim RAM-OC auswirft.

Die 600Mem macht er bei mir stabil über mehrere Gänge Unigine Valley und auch FireStrike... Ohne Bildfehler... AUch FarCry 3 kann ich damit ne Stunde zocken ohne Probleme...


leute, kauft das teil erstmal und spielt damit spiele (dafür wird er angeboten).

Hab ich doch... Nur ob ich ihn behalte...
Ich habe mir paralel dazu ne zweite GTX670 geholt und vergleiche das halt gerade aktiv miteinander... Natürlich benche ich da AUCH...
Und da merkt man dann halt, dass der Titan lauter ist als DC2 SLI und dass er kalt einfach sichtbar und messbar mehr Leistung bringt und dann anfängt zu drosseln...


wenn ich ohne OSD spiele, ist das spielgefühl super und oft besser als mit meiner GTX690, weil das AFR wegfällt. schalte ich das OSD an, während ich spiele und die karte leicht übertaktet habe, liegt der takt erschreckend oft wischen 1100 und 1200MHz (idr. 1150 oder 1189MHz). das ist absolut okay und vergleichbar mit dem, was ich von GTX690 gewohnt bin.

nein, mein gehäuse ist zwar kühl (28-32°C lt. mainboard-sensor), aber kein kühlschrank.


(..)

mfg
tobi
Trotzdem ist es gut Feedback von jemanden zu bekommen, der SLI Erfahrung hat. Frage: Hast du mit dem "neuen" VSYNC ein(flüssig) Erfahrungen sammeln können ? Ich sehe da einen deutlich Unterschied und die "gefühlte" Flüssigkeit des SLI steht dem Titan IMHO nicht mehr viel nach...

Also in meinem Fall (eine DC2 GTX670 ist schon vorhanden) spricht für den Titan nur das er ne Single-Karte ist und das AFR und Ruckeln entfällt... Aber genau das finde ich aktuell nicht so schlimm...
Gegen ihn spricht für mich, dass er lauter ist und IMHO zu stark drosselt (das nervt weil ich es halt jetzt weiss oder glaube zu wissen). [Also müsste ich mir da was einfallen lassen...
Wenn ich mir nun sicher sein könnte, dass ich ihn mit ner Accellero 3 RUHIG bekomme und das bei weniger gedrossle wegen TempLimit... DANN hätte ich meine Entscheidung endlich...

TobiWahnKenobi
2013-03-05, 10:24:41
ja natürlich - schon seit 310.70 wenn ich mich nicht irre. auch sämtliche anderen maßnahmen die negativ-effekte von AFR zu reduzieren. ich bin auch froh, dass es soviele optionen zur optimierung des spielflusses gibt, denn ein pauschales allheilmittel ist keine der optionen.

mein dauerbrenner skyrim z.b. wirkt am saubersten mit ingame-sync.

die AFR-smooth-sync, der adaptive sync, der sync auf ein viertel oder die hälfte des refreshs usw. sind aber nur mittel gegen symptome (wie kopfwehtabletten) und sie bekämpfen nicht die ursache (AFR).

titan habe ich erst seit samstag-abend. seit dem kam ich zwar zum spielen, aber kaum zum benchen. dazu kommt noch, dass ich gestern meinen i7 samt mainboard geschrottet habe, was dazu führte, dass ich mit dem umbau auf einen neuen i7 + neues mainboard beschäftigt war. zum benchen kam ich erst gestern abend, als der neue lief, aber da muss ich noch tagelang "grenzen ausloten". haarkleine austesterei dauert also noch einige tage.

GTX690 wohnt derweil im zweitrechner und keult dort im GPU-limit für meine freundin skyrim - mit bereits angesprochenem ingame-sync.

edit:
hier in meiner subjektiven welt (geprägt duch mein empfinden und meine ein/ausgabegeräte) hat GTX690 immer eine bessere figur gemacht, als z.b. zwei-way-sli mit GTX680 (hatte ich davor, war mir aber zu laut, zu heiss und lief auch "nur" mit 2x PCIe-2.0 @8x wg. sandybridge).


(..)

mfg
tobi

Godmode
2013-03-05, 13:20:50
Hab mal zusammen gerechnet, was die vier letztendlich auf die Waage bringen:

24 GB VRAM -> ja ich weiß das den nicht aufsummieren kann
28 Mrd Transistoren
10.752 1D ALUs
18,8 TFLOPs SP Leistung
192 ROPs
160 GPixel/s
896 TMUs
748 GTexel/s
1,15 TB/s Speicherbandbreite
1.000 W

;D

BigKid
2013-03-05, 13:23:46
vermutlich eine sehr doofe frage aber stelle sie trotzdem mal.^^
ist 99% gpu auslastung immer das absolute maximum an hitzeentwicklung unabhängig davon woher die kommt, oder kann es je nach game auch bei 99% noch deutliche unterschiede geben was hitzeentwicklung angeht?

als test für das 106%/95° maximum in evga precision startete ich crysis 3 maxed out und liess das mit 99% 45min stehen als worst case szenario.
zu meiner überraschung stieg die temp nur gerade auf 83° dabei bei konstant 993mhz und 65% fan, ist das normal?
wenn ja wäre es bescheuert diese einstellung nicht dauerhaft zu fahren, oder? ^^
PowerTarget und TempLimit sind ja nicht unabhängig. Will sagen: Mit einem PowerTarget von 106% erzeugt die Graka nicht genug Hitze um mit dem gegebenen Kühler die 83-84 Grad zu übersteigen. Dazu kommt, dass der Strombedarf des Lüfters laut Boxleitner ja mit ins PowerTarget fliest. Bedeutet: Dreht der Lüfter hoch braucht die Karte braucht mehr Strom, das PT muss eingehalten werden also drosselt die GPU zusätzlich...
Meiner Erfahrung nach macht es bei einem guten Luftstrom (und Zimmertemperaturen um 21,22 Grad) keinen Sinn das TempLimit auf mehr als 85Grad zu stellen, weil das EH nicht erreicht wird. Genauso wenig Sinn macht es das Powertarget hochzudrehen, wenn man das TempLimit auf 80 Grad läßt... IMHO wird die Titan SEHR vom Kühler limitiert aktuell...
Eine unlocked Titan (Powertarget höher) unter Wasser könnte IMHO die 1300Mhz knacken... Die 1200Mhz dürften aber wenns kein Totalkrüppel Montagschip ist sicher fallen...

robbitop
2013-03-05, 13:48:07
Da beherrscht jemand aber sehr sicher die Grundrechenarten... :D

Godmode
2013-03-05, 13:55:23
Da beherrscht jemand aber sehr sicher die Grundrechenarten... :D

Hab ich mich wo vertan? Ich finde es einfach beachtlich, was man sich heute in einen normalen Desktop Rechner stecken kann.

boxleitnerb
2013-03-05, 14:00:18
PowerTarget und TempLimit sind ja nicht unabhängig. Will sagen: Mit einem PowerTarget von 106% erzeugt die Graka nicht genug Hitze um mit dem gegebenen Kühler die 83-84 Grad zu übersteigen. Dazu kommt, dass der Strombedarf des Lüfters laut Boxleitner ja mit ins PowerTarget fliest. Bedeutet: Dreht der Lüfter hoch braucht die Karte braucht mehr Strom, das PT muss eingehalten werden also drosselt die GPU zusätzlich...
Meiner Erfahrung nach macht es bei einem guten Luftstrom (und Zimmertemperaturen um 21,22 Grad) keinen Sinn das TempLimit auf mehr als 85Grad zu stellen, weil das EH nicht erreicht wird. Genauso wenig Sinn macht es das Powertarget hochzudrehen, wenn man das TempLimit auf 80 Grad läßt... IMHO wird die Titan SEHR vom Kühler limitiert aktuell...
Eine unlocked Titan (Powertarget höher) unter Wasser könnte IMHO die 1300Mhz knacken... Die 1200Mhz dürften aber wenns kein Totalkrüppel Montagschip ist sicher fallen...

Moment, das hab ich nicht gesagt ;)
Es könnte auch sein, dass die Lüfterdrehzahl in die Boostberechnung mit einfließt. Man weiß es aktuell leider nicht.

robbitop
2013-03-05, 14:00:35
1000 W und 4000 € (für GPUs) sind keineswegs ein normaler Desktoprechner. In einen normalen Desktoprechner, wirst du das in > 4 Jahren haben. ;)

Godmode
2013-03-05, 14:06:54
1000 W und 4000 € (für GPUs) sind keineswegs ein normaler Desktoprechner. In einen normalen Desktoprechner, wirst du das in > 4 Jahren haben. ;)

War vielleicht etwas blöd ausgedrückt, meinte mit normal den Formfaktor. Klar der Preis ist eine andere Sache.

MarcWessels
2013-03-05, 14:15:07
edit:
hier in meiner subjektiven welt (geprägt duch mein empfinden und meine ein/ausgabegeräte) hat GTX690 immer eine bessere figur gemacht, als z.b. zwei-way-sli mit GTX680 (hatte ich davor, war mir aber zu laut, zu heiss und lief auch "nur" mit 2x PCIe-2.0 @8x wg. sandybridge).Also Vorteile durch den wegfallenden Umweg, die in einem in der Praxis flüssigeren Spielerlebnis im Vergleich zu zwei GTX680-Karten im SLI-Betrieb resultieren?

Godmode
2013-03-05, 14:16:57
Btw. hat hier jemand Titan auf einem SB-E Board mit PCIe 3.0 laufen?

TobiWahnKenobi
2013-03-05, 14:19:54
Also Vorteile durch den wegfallenden Umweg, die in einem in der Praxis flüssigeren Spielerlebnis im Vergleich zu zwei GTX680-Karten im SLI-Betrieb resultieren?

kann ich dir nicht sagen. zwei karten @SB (z68 und z77) je mit 8 2.0-lanes angebunden gegen zwei GPUs, die direkt über 16 PCIe-3.0 x16 lanes verbunden sind und die nach aussen mit PCIe-2.0 x16 laufen.. das waren die unterschiede.

und natürlich, dass die karten sich gegenseitig aufgeheizt haben.. war ja alles letzten sommer und an ein geschlossenes case war mit einzelkarten und trotz CPU-wasserkühlung nicht zu denken.


(..)

mfg
tobi

boxleitnerb
2013-03-05, 14:38:24
Btw. hat hier jemand Titan auf einem SB-E Board mit PCIe 3.0 laufen?

Ja, PCIe 3.0 geht hier wunderbar mit dem Patch.

Godmode
2013-03-05, 14:42:37
Ja, PCIe 3.0 geht hier wunderbar mit dem Patch.

Kannst du mal testen auf wie viel GB/s PCIe Bandbreite du kommst?

Der erste Luxxer hat seine Titan unter Wasser:
http://www.abload.de/img/heaven20hsmg.jpg

boxleitnerb
2013-03-05, 14:43:23
Wenn du mir bitte sagst, wie ich das machen soll, gerne.

Godmode
2013-03-05, 14:47:47
Einfach über die Console starten. Mit dem Parameter -device kannst du festlegen, welche GPU er auswählt.

-device=0
-device=1
-device=2
...

Ist aus dem offiziellen Cuda SDK für x64 von mir Kompiliert.

robbitop
2013-03-05, 14:48:35
100°C unter Wasser? WTF?

boxleitnerb
2013-03-05, 14:50:38
Einfach über die Console starten. Mit dem Parameter -device kannst du festlegen, welche GPU er auswählt.

-device=0
-device=1
-device=2
...

Ist aus dem offiziellen Cuda SDK für x64 von mir Kompiliert.

cudart64_50_35.dll is missing...

Godmode
2013-03-05, 14:55:37
cudart64_50_35.dll is missing...

Ok, sry. Da müsstest das Cuda SDK installiert haben. Vergiss es. Du kannst aber den Test von Skysnake benutzen:

http://extreme.pcgameshardware.de/attachments/630083d1362184438-opengl-bmp-viewer-inkl-opencl-morpher-skysnakes-benchsuite.zip

Einfach starten, dann rechtsklick und PCIe auswählen und dann c drücken.
In der Console siehst du jetzt die Geschwindigkeit.

Godmode
2013-03-05, 14:56:00
100°C unter Wasser? WTF?

45 nicht 100

Du schaust auf den Powergraph.

boxleitnerb
2013-03-05, 14:58:58
Ok, sry. Da müsstest das Cuda SDK installiert haben. Vergiss es. Du kannst aber den Test von Skysnake benutzen:

http://extreme.pcgameshardware.de/attachments/630083d1362184438-opengl-bmp-viewer-inkl-opencl-morpher-skysnakes-benchsuite.zip

Einfach starten, dann rechtsklick und PCIe auswählen und dann c drücken.
In der Console siehst du jetzt die Geschwindigkeit.

10.5 GB/s
Meine Wasserkühler wurden heute verschickt, morgen bau ich um :D

BigKid
2013-03-05, 15:04:52
10.5 GB/s
Meine Wasserkühler wurden heute verschickt, morgen bau ich um :D
Kannst du eventuell ein paar StepByStep Photos von der Demontage machen ? Ich bin am überlegen nen Accellero 3 drauf zu pappen und wenn ich mich dann zumindest schonmal an deinen Photos bei der Demontage langhangeln kann wäre das ne Hilfe...