PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 670: (P)Review-Thread


Seiten : 1 2 3 [4]

Knuddelbearli
2013-04-30, 23:25:39
AMD hat "geholfen", das MSAA zu implementieren.
Klingelts jetzt?

Tschüss.


wenn jemand sowas bei NV behaupten würdest hättest du ihm schon min 10 mal vorgeworfen ein fanboy zu sein ...

aufkrawall
2013-04-30, 23:26:27
wenn jemand sowas bei NV behaupten würdest hättest du ihm schon min 10 mal vorgeworfen ein fanboy zu sein ...
Hast maln Beispiel?

Knuddelbearli
2013-04-30, 23:57:54
Crysis 2 und die sinnfreie Tesselation des Wasser zB zu einer Zeit als NV bei theoretischer Tess Leistung deutlich besser dastand

aufkrawall
2013-05-01, 00:01:32
Ich seh mich in dem Beispiel nicht vorkommen.
Weißte was? Mach mich doch einfach nicht blöd von der Seite an...

Skysnake
2013-05-01, 01:23:28
Du hast aber noch immer nicht erklärt, wie das funktionieren soll.

Tesselation:klar
Texturen:klar
Shader: "klar"
MSAA:??? Absolut keine Idee

Wie soll man das bitte machen, das man bewusst über die 2GB kommt, aber unter 3 GB bleibt, was ja nicht mal funktioniert. :ugly:

Mit Texturen usw ja klar kein Ding, abermittels MSAA???

aufkrawall
2013-05-01, 10:05:45
Stell dich doch nicht blöd, nur weils um AMD geht. Wo du doch bei FCAT die Verschwörung hinter jeder Ecke gerochen hast...
Mit MSAA brechen die Geforces bei dem Spiel afair auch deutlich stärker ein als Radeons.
Wie naiv muss man da sein, keinen Zusammenhang zu sehen, wenn AMD das MSAA mit implementiert hat...

Na ja. Immerhin taugt es nichts und ist somit ein gutes Beispiel in einer Petition für DX11 AA-Bits.

boxleitnerb
2013-05-01, 10:09:42
Also da muss ich dann doch widersprechen. Der Einbruch prozentual gesehen ist fast gleich:
http://www.computerbase.de/artikel/grafikkarten/2013/test-nvidia-geforce-gtx-titan/37/

aufkrawall
2013-05-01, 10:45:43
Ok. Trotzdem ist der VRAM-Hunger stellenweise unnötig hoch.
Idealerweise sollte es auch nicht schlecht laufen, wenn der VRAM trotzdem voll ist.

N0Thing
2013-05-01, 12:47:38
Ich hatte mit meiner GTX 470 keine Probleme mit dem VRAM in Absolution, trotz aktiviertem MSAA. So schlimm können die Auswirkungen der Mithilfe von AMD für Nvidia-Nutzer also nicht sein. Und lieber ein halbgares MSAA als gar kein MSAA und nur Matsch-Post-AA. ;)

aufkrawall
2013-05-01, 12:50:38
Und lieber ein halbgares MSAA als gar kein MSAA und nur Matsch-Post-AA. ;)
SMAA + DS war imho wesentlich sinnvoller bei dem Spiel.
Und das sage ich, obwohl mir von qualitativ minderwertigem Treiber-DS gerne mal schlecht wird. :)

Skysnake
2013-05-01, 14:34:49
Stell dich doch nicht blöd, nur weils um AMD geht. Wo du doch bei FCAT die Verschwörung hinter jeder Ecke gerochen hast...

Weil es da ein sehr sehr sehr einfaches Problem gibt, das einen fast schon ins Gesicht springt.

Bei MSAA seh ich aber absolut keine Möglichkeit, wie man da was drehen soll, was du ja behauptest.

Du lieferst aber absolut keinen Ansatz dazu, wie das funktionieren soll. Bei FCAT habe ich dies sehr! detailiert gemacht. Ich versteh wirklich nicht, warum du das jetzt da mit rein bringst....


Mit MSAA brechen die Geforces bei dem Spiel afair auch deutlich stärker ein als Radeons.

Aha...
Wo brechen Sie denn stärker ein? Mir ist das nicht bekannt, so lange der RAM eben nicht überläuft...

Und wenn der RAM überläuft ist das VÖLLIG! normal, das man in unspielbare Framebereiche absackt im Normalfall.


Wie naiv muss man da sein, keinen Zusammenhang zu sehen, wenn AMD das MSAA mit implementiert hat...

Nochmal, WIE willst du denn bitte mit MSAA groß einen Vorteil/Nachteil generieren? Du kannst am VIELEN anderen Schrauben drehen wie Tesselation, Texturauflösung, usw usw. Aber daran, wie man die Sachen implementiert, damit MSAA funktioniert?

Wie gesagt, ich habe da jetzt nicht mal den geringsten Ansatzpunkt, was man da drehen könnte, und ich bin in so was wirklich kreativ...

Also dann sag doch bitte, was man da gemacht haben soll, wenn es für dich so offensichtlich ist....


Na ja. Immerhin taugt es nichts und ist somit ein gutes Beispiel in einer Petition für DX11 AA-Bits.
AA-Bits sind herumgedoktore an Symptomen... Das bringt uns nicht wirklich weiter, da man immer mir Kompromissen leben muss, und eben verdammt viel Zeit investieren muss, um ein oft zweifelhaften Vorteil zu erhalten.

Die Gamedeveloper sollen einfach gescheite Engines bauen/verwenden.... Und wenn Sie Probleme haben, die ganz prinzipieller natur sind, sich mit AMD/Intel/nVidia kurzschließen und eben darauf hinwirken, dass die Wünsche in zukünfigen Standards beachtet werden...

Ok. Trotzdem ist der VRAM-Hunger stellenweise unnötig hoch.
Idealerweise sollte es auch nicht schlecht laufen, wenn der VRAM trotzdem voll ist.
Das hat aber nicht zwingend etwas mit der MSAA Implementierung zu tun, sondern mit den High-Res-Texturen, MSAA an sich usw usw.

Du behauptest ja aber, das AMD dabei geholfen hat, MSAA so zu implementieren, dass nVidia benachteiligt wird. Ich bezweifle aber sehr stark, dass das überhaupt möglich ist, jetzt rein auf MSAA bezogen. Mir fällt wie nun schon mehrfach gesagt jedenfalls dazu absolut kein Ansatz ein, wo man da den Hebel ansetzen könnte.

dildo4u
2013-05-01, 14:38:55
Skysnake da muss schon einiges schief laufen wenn 3GB deiner 7970 nicht reichen im spielbaren FPS Bereich.Ich kann mir irgendwie nicht vorstellen,das du das vor dem Vollaufen vernünftige FPS Raten hast und es dann plötzlich total abkackt.Wobei das Thema ja hier eh die 670 ist wer sorgen hat kann sich ja ne 4GB Verion kaufen ist ja nich so als wenn man keine Auswahl hat.

aufkrawall
2013-05-01, 14:40:05
Bzw. sind die 4 GB eh bald auch bei NV Standard.

dildo4u
2013-05-01, 14:44:34
Ich sehe hier kein deutlichen Vorteil für 3GB Karten(selbst mit 8XAA) 7970 und 680 sind gleich schnell und wie gesagt die fps sind eh schon kritisch mit 4XAA und 1080p.

http://www.computerbase.de/artikel/grafikkarten/2013/amd-radeon-hd-7990-im-test/31/

aufkrawall
2013-05-01, 14:46:26
Ich sehe hier kein Vorteil für 3GB Karten und wie gesagt die fps sind eh schon kritisch mit 4XAA und 1080p.

http://www.computerbase.de/artikel/grafikkarten/2013/amd-radeon-hd-7990-im-test/31/
Balken bei VRAM-Mangel sind käse. Sieht man doch wieder beim pcper-Test mit 4k. Da hat die 680 2 GB bei BF3 auch gute Frameraten, bei den Frametimes sieht man aber unangenehme Ausreißer.

dildo4u
2013-05-01, 14:58:00
Das sollte eher zeigen das die FPS eh schon fürn Eimer sind bevor der Ram jemals voll laufen kann.4K ist genau so Sinnlos für eine 680,SLI ist ein Anders Thema.

Skysnake
2013-05-01, 15:06:43
Skysnake da muss schon einiges schief laufen wenn 3GB deiner 7970 nicht reichen im spielbaren FPS Bereich.Ich kann mir irgendwie nicht vorstellen,das du das vor dem Vollaufen vernünftige FPS Raten hast und es dann plötzlich total abkackt.Wobei das Thema ja hier eh die 670 ist wer sorgen hat kann sich ja ne 4GB Verion kaufen ist ja nich so als wenn man keine Auswahl hat.
Nö, da läuft gar nichts schief.

Es gibt halt paar Stellen, wo von ~60 FPS dropps auf ~5-10 FPS da sind/waren, einfach weil der RAM übergelaufen ist.

Das wird in Zukunft nicht besser, wenn die neuen Konsolen kommen.

dildo4u
2013-05-01, 15:12:00
Um so besser das NV rechtzeitig durch die Bank mehr V-Ram als AMD verbaut.
4,5 und 6GB. :)

Skysnake
2013-05-01, 15:16:19
ja, die 3 GB könnten sich eventuell echt noch rächen :ugly:

Hätte ich auch NIE erwartet, das so schnell 3 GB wirklich zu wenig werden können. Ok, es ist ein Einzelfall, der auch nur GANZ selten auftritt, aber es zeigt wohin die Reise geht in absehbarer Zeit.

Wenn ich bedenke, das ich noch 1GB mit der 5870 hatte, und da eigentlich kaum/nie Probleme hatte :ugly:

Hatte aber damals auch nicht DIE super duper mega aktuellen High-End GAmes am laufen. Naja, schaumer mal, was die Konsolen dieses und nächstes Jahr mit dem GPU-Markt so anstellen. :biggrin:

boxleitnerb
2013-05-01, 15:18:02
Das ist aber wirklich extrem ungewöhnlich, von sowas bei Hitman lese ich zum ersten Mal. Das würde ich erstmal genauer untersuchen. Wenn es immer dieselben Stellen sein sollten, wäre das eher ein Bug. Eine gute Engine sollte zwar cachen, aber den VRAM auch nicht unnötig vollstopfen. Dass du in einem Spiel, das nicht Open-World ist, in einem Level 3GB Texturdaten hast, kann ich mir nicht vorstellen. So toll sieht Hitman auch nicht aus, dass das optisch halbwegs ersichtlich wäre.

Ich wollte mir das Spiel eh mal anschauen, kannst du vielleicht bitte ein Savegame hochladen und/oder einen Screenshot von den Stelle machen, wo es so einbricht bei dir?

Raff
2013-05-01, 15:21:14
Crysis 3 macht das übrigens ziemlich schlau. Bei einer 1-GiB-Karte ist der Speicher in Maxed-1080p eigentlich immer voll, aber es läuft recht anständig. Eine 2-GiB-Karte meldet in den gleichen Einstellungen dann auch mal eine Belegung von 1,5 GiB, die Texturen laufen nach dem Laden aber schneller rein und es läuft aber insgesamt weicher. Effizientes Streaming ist der Schlüssel. Natürlich hilft das nicht immer, aber ich würde mir zumindest bei 3-GiB-Karten keine Sorgen machen.

MfG,
Raff

Skysnake
2013-05-01, 15:25:05
Das ist aber wirklich extrem ungewöhnlich, von sowas bei Hitman lese ich zum ersten Mal. Das würde ich erstmal genauer untersuchen. Wenn es immer dieselben Stellen sein sollten, wäre das eher ein Bug. Eine gute Engine sollte zwar cachen, aber den VRAM auch nicht unnötig vollstopfen. Dass du in einem Spiel, das nicht Open-World ist, in einem Level 3GB Texturdaten hast, kann ich mir nicht vorstellen. So toll sieht Hitman auch nicht aus, dass das optisch halbwegs ersichtlich wäre.

Ich wollte mir das Spiel eh mal anschauen, kannst du vielleicht bitte ein Savegame hochladen und/oder einen Screenshot von den Stelle machen, wo es so einbricht bei dir?
Ja, das kann durchaus ein Bug sein, da es an einer Levelgrenze immer passiert ist.

Wo genau das war weiß ich jetzt nicht mehr, habs mir nicht rausgeschrieben, und ist auch schon einige Zeit her. Falls es mir mal wieder unter kommt, notier ich es mir aber :up:

Mich hat ja auch der Schlag getroffen, als ich die 3GB voll gesehen habe ;D

dildo4u
2013-05-01, 15:27:26
Crysis 3 macht das übrigens ziemlich schlau. Bei einer 1-GiB-Karte ist der Speicher in Maxed-1080p eigentlich immer voll, aber es läuft recht anständig. Eine 2-GiB-Karte meldet in den gleichen Einstellungen dann auch mal eine Belegung von 1,5 GiB, die Texturen laufen nach dem Laden aber schneller rein und es läuft aber insgesamt weicher. Effizientes Streaming ist der Schlüssel. Natürlich hilft das nicht immer, aber ich würde mir zumindest bei 3-GiB-Karten keine Sorgen machen.

MfG,
Raff
Jup kann man nur hoffen das alle weit genutzten Engines das so lösen.Zum Glück muss niemand sonst den Schrott von Square nutzen.

aufkrawall
2013-05-01, 15:27:42
Ja, das kann durchaus ein Bug sein, da es an einer Levelgrenze immer passiert ist.

Ach? Wie gut, dass du dieses kleine Detail nicht gleich erwähnt hast...

Raff
2013-05-01, 15:33:54
Jup kann man nur hoffen das alle weit genutzten Engines das so lösen.Zum Glück muss niemand sonst den Schrott von Square nutzen.

Die haben auch Studios mit ordentlichen Engines unter ihren Fittichen. Die Avalanche-Engine beispielsweise (Just Cause 2) fetzt meiner Meinung nach, da wird eine riesige, schnieke Welt mit zahlreichen Texturen ohne Probleme und recht ressourcenschonend durchgepumpt. Die würde ich gern mal mit ordentlichen Hi-Res-Texturen sehen. Vielleicht in Just Cause 3 für die Next-Gen-Konsolen plus PC-Umsetzung? :naughty:

MfG,
Raff

aufkrawall
2013-05-01, 15:37:01
Just Cause 2 braucht auch selbst mit 8xMSAA kaum VRAM.

G 80
2013-05-05, 05:02:10
Wie testet ihr eigentlich wie weit ihr den GDDR 5 Takt aufdrehen könnt?

Bisher benutze ich mehrere Instanzen von MemtestG80 allerdings bin ich mir etwas unsicher wie ich die Ergebnisse richtig kritisiere; ein _paar wenige_ Fehler sind ja kein Weltuntergang. Aber soweit ists noch gar nicht ....

Grundsätzlich treiben mich die Kepler Karten hier bisher hauptsächlich in den Wahnsinn ... und ich hab mit MTG80 noch keine wirklich verwertbaren Resultate erhalten.

Wirkliche Aussagen kann ich nur mit Spielen treffen, aber die verraten mir ja nicht ab wann der Speichercontroller schon vor lauter Fehlern am abkotzen ist.

Framerateneinbruch? Toll wenns so wäre.

Diablo 3 ist scheinbar egal, das quittet nur irgendwan.
Crysis 3 ist recht empfindlich, quittet aber auch nur.
Heaven zeigt sowiso etwas zufällige Endergebnis-Höhe und quittet auch nur irgendwann.

Generell steigen die FPS bis zum Quitt aber bei mir tendenziell an. :hammer:

P.S.: Um es auch noch zu verkomplizieren: SLI.

aufkrawall
2013-05-05, 09:24:03
P.S.: Um es auch noch zu verkomplizieren: SLI.
Kann komisches Verhalten bei zu hohem VRAM-Takt geben. Bei mir etwa skalierte es auf einer GPU auf einmal nur noch durchgehend zu ~50-70%.
Würde einfach +600Mhz geben und, sofern du keine Probleme bemerkst, gut is.

G 80
2013-05-05, 12:39:33
Das kenn ich; wenn eine Karte aussteigt, aber die übliche "Der Anzeigetreiber wurde ..."-Meldung NICHT kommt und eine Karte dann mit OC und eine mit minimum Boost läuft. Die Bost Karte ist dann natürlich am Limit und die andere gleich der Taktdifferenz weniger ausgelastet - sehr :freak:ig.

Lustig ist aber, ich habs bisher genau so geregelt: ;D + 600 Mhz. Das scheint stabil zu sein; va Heaven das schnell mal zickt läuft damit durch.


Was mir fehlt sind DX 11 Games, denen ich vertraue nicht irgendwelche eigenen Probleme zu haben, und die jedes Fitzelchen Leistung aufsaugen.

Bisher lassen mich eigentlich nur TR 2013 und C 3 zweifeln.

Paar andere DX 11 Spiele und DX 9 mit SGSSA laufen ja, nur hab ich jetzt wieder die GPU Leistung für 60 FPS Vsync mit Leistungsreserve - dh es ist nicht Aussagekräftig.

Aber ok ich wollte mich eh schon lange mal intensiver mit Downsampling befassen; dann kann ich die Karten dazu bringen auch in C 2 oder B: Infinite abzukotzen. ;D

aufkrawall
2013-05-05, 14:55:12
Tools wie Kombustor taugen jedenfalls nicht wirklich als Stabilitätstest.
Crysis mit forciertem SGSSAA oder Crysis 3 mit MSAA/hoher Auflösung waren bei mir am anfälligsten.

LSSJBroly
2013-05-05, 16:08:29
Zum testen von Speicher-OC taugt das OCCT-Tool ganz gut. Das ist weitaus anfälliger als alle Games, die ich bisher gespielt habe. Zwar sind selbst 3600MHz bei meiner 680 in Crysis 3, TR, BF3, usw. vollkommen stabil, aber per OCCT-Tool sind eben nur 3480MHz vollkommen stabil (Keine Fehler).
Wenn das Tool rund 2 Stunden läuft, kann man recht sicher sein, dass der Takt ziehmlich stabil ist.

Raff
2013-05-05, 16:56:04
Wenn alle Spiele laufen, irgendein komisches Tool aber 120 MHz klauen will ... dann pfeif zumindest ich auf das Tool und lasse den Takt oben, bis ein Spiel herumzickt. Denn wir übertakten doch für Spiele, oder nicht? :)

MfG,
Raff

Knuddelbearli
2013-05-05, 16:58:10
und dann heisst es wenns mal abstürze gibt der spielerentwickler hat mist gebaut ^^ siehe TR

boxleitnerb
2013-05-05, 17:07:27
Du meinst, jeder, der diese Abstürze hatte, hat übertaktet? Wohl kaum. Und meinst du nicht auch, die meisten würden bei sowas erstmal auf Standardtaktraten zurückgehen und schauen, ob das tatsächlich die Ursache war?
Sinnloser Kommentar mMn.

LSSJBroly
2013-05-05, 17:21:44
Wenn alle Spiele laufen, irgendein komisches Tool aber 120 MHz klauen will

So denke ich zwar auch, aber immerhin gehe ich so auch auf Nummer sicher.

Wie testet ihr denn bei euch die Stabilität von Speicher-OC in euren schönen Tabellen im Heft?

Knuddelbearli
2013-05-05, 17:41:23
Du meinst, jeder, der diese Abstürze hatte, hat übertaktet? Wohl kaum. Und meinst du nicht auch, die meisten würden bei sowas erstmal auf Standardtaktraten zurückgehen und schauen, ob das tatsächlich die Ursache war?
Sinnloser Kommentar mMn.

nö aber viele, und ne das werden die wenigsten gerade NV user, AMD user sind es ja eher gewöhnt Probleme erstmal wo anders als beim spiel zu suchen ^^

Aber wie immer versuchst du einfach nur andere die nicht deiner Meinung sind ins lächerliche zu ziehen / provozieren ...
Armes tüftüf

boxleitnerb
2013-05-05, 17:45:27
nö aber viele, und ne das werden die wenigsten gerade NV user, AMD user sind es ja eher gewöhnt Probleme erstmal wo anders als beim spiel zu suchen ^^

Also sinnloser Kommentar von dir wiedermal.

Ein Hoch auf Pauschalisierungen :freak:
Und fühlst du dich jetzt toll, weil du mir meine eigenen Worte zurückgegeben hast? Was ein Kindergarten...

RoughNeck
2013-05-05, 18:37:10
und dann heisst es wenns mal abstürze gibt der spielerentwickler hat mist gebaut ^^ siehe TR

In Tomb Raider hatte ich mit der GTX 670 einen einzigen Absturz und der rührte von zu hohen RAM (nicht VRAM) OC. 2400 MHZ wollten meine Gskill nicht und nach 1 Stunde kam ein blauer.
Wie immer, wenn Nvidia mal Probleme mit einem Spiel hat, wo AMD kräftig dran beteiligt war, wird gnadenlos gehatet.

Wenn man mal unzufrieden mit AMD Treibern ist, ist man aber automatisch ein Nvidia Fanboy. Das finde ich immer sehr belustigend, wenn man eine AMD Karte in der SIG stehen hat, kann man mit vielen entspannt über die Treiber diskutieren, sobald man eine Nvidia Karte hat, ist man einfach nur ein "dummer" Fanboy der AMD schlecht machen will.

Knuddelbearli
2013-05-05, 19:42:10
Ein Hoch auf Pauschalisierungen :freak:
Und fühlst du dich jetzt toll, weil du mir meine eigenen Worte zurückgegeben hast? Was ein Kindergarten...


der einzige der hier pauschalisiert bist du, ich sagte nur "siehe TR" und du kommst dann gleich mit jeder.

und ja damit wollte ich dir zeigen wie lächerlich deine Kommentare ( naja eher Flammes da der andere Poster nicht deiner Meinung ist ) sind, was du ja scheinbar kapiert hast das du dich wie im Kindergarten benimmst ^^

Knuddelbearli
2013-05-05, 19:44:06
In Tomb Raider hatte ich mit der GTX 670 einen einzigen Absturz und der rührte von zu hohen RAM (nicht VRAM) OC. 2400 MHZ wollten meine Gskill nicht und nach 1 Stunde kam ein blauer.
Wie immer, wenn Nvidia mal Probleme mit einem Spiel hat, wo AMD kräftig dran beteiligt war, wird gnadenlos gehatet.

Wenn man mal unzufrieden mit AMD Treibern ist, ist man aber automatisch ein Nvidia Fanboy. Das finde ich immer sehr belustigend, wenn man eine AMD Karte in der SIG stehen hat, kann man mit vielen entspannt über die Treiber diskutieren, sobald man eine Nvidia Karte hat, ist man einfach nur ein "dummer" Fanboy der AMD schlecht machen will.

Jup TR ist einfach gnadenlos fordernd, kA wieso so eine optische Wucht ( wenn auch sehr hübsch gerade TressFX ) ist es ja auch wieder nicht, aber zumindest spricht es dafür das es scheinbar ordentlich programmiert wurde wenn es die Hardware entsprechend auslastet

G 80
2013-05-06, 07:25:24
Tools wie Kombustor taugen jedenfalls nicht wirklich als Stabilitätstest.
Crysis mit forciertem SGSSAA oder Crysis 3 mit MSAA/hoher Auflösung waren bei mir am anfälligsten.


Kombuster hab ich nie verwendet. Die, kurze, Phase als Powervieren ein zumindest uU brauchbares Tool waren ist lange vorbei - und wird es auch bleiben solang zurückgeregelt wird. Stabilität im totalen GPU Limit in Spielen sind interessant den dafür OCt man auch.

Crysis mit SGSSA läuft bei mir zB aber wtf säuft das. Außerdem versteh ich jetzt euren Terror vor den Eislvls. Der Unterschied zwischen Anfang-Eis in der Leistungsanforderung war mit meinem G 80 SLI nicht derartig gewaltig.

Crysis 3 crasht bei mir manchmal, eher noch beim Laden, aber ich kann uU auch wieder Stundenlang ohne Probleme spielen. Schlechte Ausgangslage da den Schuldigen zu finden ....




OCCT hab ich schon lange nimmer verwendet und gar nicht mehr dran gedacht, aber danke LSSJBroly werds mal versuchen.




TR ist die andere Sache. Das verreckt auch so nach 1-2h immermal wieder gerne. IMMERNOCH. Säuft wie schon erwähnt (zumindest SGSSA).
Obs die Karten sind weis ich nicht, ich hatte mal Battle Stations Pacific hier. Das ist immer verreckt sobald ich auch nur IRGENDEINEN Takt in IRGENDEINE Richtung gedreht habe. :freak:
Um es nochmal Klarzustellen: G 80 OC, jegliche Höhe, Böse. G80 UC, jegliche Höhe, genauso Böse. :freak::freak::freak: ;D
Stock lief zumindest gut. Obs 100 % Problemlos war weis ich nichtmehr, aber glaubs zumindest.
Da kann man vielleicht nicht sagen das Prog war "schuld", aber "unschuldig" wars dann genauso nicht. ;D


P.S.: Damit hab ich den Ersatz für Ail in meiner Sig gefunden. :D

[...] und ne das werden die wenigsten gerade NV user, AMD user sind es ja eher gewöhnt Probleme erstmal wo anders als beim spiel zu suchen ^^ [...]

:eek:

Wenn ich meine instinktive Fehler-Abklopf-Liste für Desktop und NB vergleiche muss ich zugeben, da ist was drann ...;D

kruemelmonster
2015-03-14, 15:54:33
*Thread ausbuddel*

Wer auch noch mit dem kleinen Kepler unterwegs ist den wird es vllt interessieren dass sich der GPU Boost 2.0 der 700er Karten mittels Biosflash auch auf den 600er Karten aktivieren lässt. Die Story (http://www.overclock.net/t/1409584/cl-bios-flash-can-enable-gpu-boost-2-0-on-gtx-600-series-gpus) ist nun auch schon etwas älter, aber leider sehr auf die GTX 680 bezogen auf welcher sich relativ problemlos ein GTX 770 Bios flashen lässt. Nun hat im Gegensatz dazu die GTX 670 kein Gegenstück in der 700er Reihe mit gleicher Shader Konfiguration, und nur über einen Hex Editor konnte ich nicht rausarbeiten was im Bios allein den Boost 2.0 ausmacht. Wie OCN User Scouty mit seiner Karte jedoch (auch schon vor einiger Zeit) rausgefunden hat lassen sich GTX 760 Biose auf 670er Karten flashen ohne das dabei etwas an der Shader Konfiguration geändert wird.

Nach etwas Bastelei sieht meine Karte jetzt im Inspector so aus:

http://abload.de/img/gtx670boost20pyuqx.jpg (http://abload.de/image.php?img=gtx670boost20pyuqx.jpg)

Man beachte den freigeschalteten Temperaturregler (samt dem Wegfall der ersten 70°C Drosselschwelle), die Overvoltage Option und den neuen Idle Modus mit 135 statt 324 MHz. Falls Interesse besteht werd ich mal eine Anleitung dazu zusammenstellen.

aufkrawall
2015-03-14, 16:33:38
Nett. Lässt sich das PT noch erhöhen?

kruemelmonster
2015-03-14, 16:39:41
Eigenartigerweise nicht mehr, da bin ich auch noch nicht hinter gestiegen. Weder der Inspector noch AB, GPU Caps Viewer oder AIDA64 können das aktuelle PT auslesen oder ändern.
Da man im Laufe der Mod aber eh das Bios mit dem Kepler bzw MaxwellBiostweaker anfässt um Taktraten und PT einzustellen kann ich damit gut leben, zumal ich jetzt direkt die Temperatur einstellen kann.

Eine weitere Änderung: die Standardspannung ist von 1.175 auf 1.187v hochgegangen, mit Overvoltage gehts dann ohne die 1.200v Zwischenstufe direkt auf 1.212v.

aufkrawall
2015-03-14, 16:42:03
Boost 2.0 soll ja auch einen weniger sprunghaften Takt haben.
Man wird wohl beim Spielen keinen Unterschied merken, aber interessant für Nerds ist es allemal. :D
Das TT kann natürlich bei nicht so guten Kühllösungen auch was bringen.

kruemelmonster
2015-03-14, 16:56:54
Große Sorgen mit dem Boost 1.0 hatte ich mit der Gigabyte WF3X eh nie gehabt da sie in >95% der Spiele unter 70°C geblieben ist.
Und klar, die paar MHz nach oben machen den Kohl jetzt auch nicht fett, dafür ist die Boost Charakteristik insgesamt schon besser geworden. Mit welchen Auswirkungen genau, das werd ich noch testen müssen... mehr Spannung bei weniger Einschränkungen ist aber immer interessant. :devil:

/e: Und ja, schon recht nerdig :biggrin: Das war ne Geschichte die mich schon länger beschäftigte, die blöde 70°C Grenze hat mich schon zum Release genervt. Btw und fyi, 100% PT sind hier 225w, das reicht der Karte in 99% der Fälle.

montey
2015-03-14, 17:31:26
Hallo!

Ich hätte Interesse an einem GTX 670 Flash Guide!
Gibt`s irgendwelche Nachteile? Konntest Du mit dem
Mod besser übertakten?

Gruß Nils

kruemelmonster
2015-03-14, 19:25:52
Nachteile gibts soweit erstmal keine, lediglich die Einschränkung das ich das PT nicht mehr auslesen oder ändern kann. Das kann aber auch nur meine Karte betreffen, ka.
Ein wenig besser sollte sich die Karte jetzt auch übertakten lassen durch etwas mehr Spannung bei gelockerten Temperaturregeln, da fehlt mir aber noch die Langzeiterfahrung. BF4 ist mir vorher mit 1254 MHz nach ~2h Stunden abgeschmiert so dass ich auf 1215 runter bin. Ich schätze mal der alte Wert sollte jetzt durch die zusätzlichen 125mv @ default wieder drin sein, evtl auch etwas mehr, mal sehen.

kruemelmonster
2015-03-14, 22:41:08
GeForce GTX 670 GPU Boost 2.0 Bios Mod

Vorraussetzungen:

eine GTX 670 mit einem GTX 760 Gegenstück auf gleicher PCB Basis, z.B. sämtliche Referenzkarten als auch manche Custom Varianten wie in diesem Fall die Gigabyte GTX 670 Windforce 3X OC (www.gigabyte.com/products/product-page.aspx?pid=4211) mit einer GTX 680 Platine.
GTX 670 Referenz|GTX 760 Referenz|GTX 670 Gigabyte WF3X|GTX 760 Gigabyte WF3X
http://abload.de/thumb/gtx670refnmusn.jpg (http://abload.de/image.php?img=gtx670refnmusn.jpg)|http://abload.de/thumb/gtx760ref5iuv2.jpg (http://abload.de/image.php?img=gtx760ref5iuv2.jpg)|http://abload.de/thumb/gbt670qlunf.jpg (http://abload.de/image.php?img=gbt670qlunf.jpg)|http://abload.de/thumb/gbt7607wuhl.jpg (http://abload.de/image.php?img=gbt7607wuhl.jpg)

Hex Editor z.B. HxD: http://mh-nexus.de/de/hxd/
KGB Kepler Bios Editor: http://www.xtremesystems.org/forums/showthread.php?284014-KGB-Kepler-BIOS-Editor-Unlocker
Maxwell II Bios Tweaker: http://www.hardwareluxx.de/community/f305/nvidia-geforce-gtx-700-600-serie-bios-files-932143.html
GPU-Z: http://www.techpowerup.com/gpuz/
GPU Caps Viewer: http://www.ozone3d.net/gpu_caps_viewer/
nvflash: http://www.techpowerup.com/downloads/Utilities/BIOS_Flashing/NVIDIA/
ein Backup des Originalbios!!!

neues Bios finden:

Ein wichtiger Unterschied zwischen den verfügbaren Biosen in der Datenbank von TPU besteht in der Frage ob Samsung oder Hynix Speicher verbaut ist, für beide Hersteller gibt es entsprechende Dateien. Nachdem man die in Frage kommenden Biose runtergeladen hat kann man anhand der Versionsnummer im Netz schauen für welchen Speicherhersteller sie gedacht sind. In meinem Fall bin ich im Tweaktown Forum (http://forums.tweaktown.com/gigabyte/58516-bios-needed-gigabyte-gtx-760-windforce-3x-4gb-rev-2-1-a.html) auf folgenden Screenshot gestoßen welcher mir Hynix für eines der runtergeladenen Biose bestätigte.

Gigabyte GTX 760 Bios aus der TPU Datenbank & Gigabyte GTX 760 Screenshot welcher Versionsnummer und Speicherhersteller angibt (die Markierung der Speichergröße stammt vom Tweaktown User und ist hier nicht relevant):
http://abload.de/img/biosed12n8bcp.jpg (http://abload.de/image.php?img=biosed12n8bcp.jpg)
A2 bzw 23 sind die Minor Revisions (analog zu den Treiber, z.B. 347.52 und 347.71), relevant für den Speicher ist hier der identische dritte Part mit C4

Bios bearbeiten Part 1:

Mit dem Maxwell Bios Tweaker (oder Kepler Bios Tweaker 1.27) werden nun die gewünschten Taktraten als auch das Power Target in das 760er Bios eingetragen, für höhere Custom Resolutions ohne DSR kann man noch die Display Clock von 540 auf 648 MHz anheben. Speichern, mit nvflash -4 -5 -6 bios.rom flashen und neustarten. Da sich durch das neue Bios Device IDs geändert haben wird Windows eine neue Karte erkennen und den Treiber neu installieren. Damit ist die Modifikation funktionsseitig schon abgeschlossen, die restlichen Änderungen sind dann kosmetischer Natur.
http://abload.de/thumb/biosed2sdugx.jpg (http://abload.de/image.php?img=biosed2sdugx.jpg)http://abload.de/thumb/biosed36luj5.jpg (http://abload.de/image.php?img=biosed36luj5.jpg)http://abload.de/thumb/biosed481ufk.jpg (http://abload.de/image.php?img=biosed481ufk.jpg)

Bios bearbeiten Part 2:

Ein wichtiger Hinweis vorweg: sämtliche Device ID, die über Tools wie GPU-Z, GPU Caps Viewer oder den Gerätemanager anzeigt werden, werden im Hex Editor andersrum angegeben. Aus der nVidia Kennung 10DE wird DE10, aus der GTX 760 Kennung 1187 wird 8711, aus der GTX 670 Kennung 1189 wird 8911, und (in meinem speziellen Fall) aus der Gigabyte GTX 760 Subsystem ID 360B wird 0B36 und aus der Gigabyte GTX 670 Subsystem ID 3542 wird 4235.

Der Biosname und die herstellereigene Versionsnummer sowie die Subsystem Device ID (siehe GPU Caps Viewer) als auch die Device ID verweisen noch auf die GTX 760, was sich mit einem Hex Editor wie HxD auf die Originalwerte zurücksetzen lässt. (Sowohl die Device ID als auch die Menge an Shadern ist hart verdrahtet und wird durch das Bios nicht beeinflußt, das macht auf den einen Seite Mods wie diesen möglich, auf der anderen Seite verhindert es Quadro Mods für Kepler aufwärts)
Den 760er Biosnamen findet man mit HxD relativ weit oben mit einer Textsuche nach "vga"; bei Gigabyte Karten steht direkt dahinter noch die eigene Versionsnummer (in diesem Fall F71) mit welcher das GBT-eigene Bios Update Tool arbeitet. Damit da erst keine Probleme auftreten könnten kann man auch diese Angabe an den Originalwert (hier F13) angleichen. Die Device ID 1187 bzw 1189 findet man mit einer Hexwert-Suche, sie wird zweimal im Bios direkt nach der NV Kennung 10DE angegeben und ist somit leicht zu identifizieren. Die Subsystem Device ID befindet sich einmal am Ende der ersten Zeile und ein zweites Mal zwischen dem "vga" Text und dem Biosnamen.
Da durch die manuellen Änderungen die Checksumme des Bios nicht mehr stimmt muss diese mit KGB korrigiert werden, der Befehl dazu lautet kgb bios.rom fix_checksum. Nun wieder mit nvflash -4 -5 -6 bios.rom flashen und neustarten.
http://abload.de/thumb/capsvieweru4y38.jpg (http://abload.de/image.php?img=capsvieweru4y38.jpg)http://abload.de/thumb/biosed7kru40.jpg (http://abload.de/image.php?img=biosed7kru40.jpg)http://abload.de/thumb/biosed8y2uma.jpg (http://abload.de/image.php?img=biosed8y2uma.jpg)http://abload.de/thumb/biosed9tdu5j.jpg (http://abload.de/image.php?img=biosed9tdu5j.jpg)http://abload.de/thumb/biosed1077uhp.jpg (http://abload.de/image.php?img=biosed1077uhp.jpg)http://abload.de/thumb/biosed54fu51.jpg (http://abload.de/image.php?img=biosed54fu51.jpg)http://abload.de/thumb/biosed6k8uts.jpg (http://abload.de/image.php?img=biosed6k8uts.jpg)

Viel Spaß!

montey
2015-03-15, 23:46:18
Kruemelmonster, sehr geil, danke Dir!
Der Mod hat bei meiner GTX 670 Windforce3x ohne Probleme geklappt.
Boost liegt bei konstant 1215MHz.

kruemelmonster
2015-03-16, 02:25:15
Schön zu hören dass es hingehauen hat, und interessant dass du auch eine Gigabyte WF3X hast.

Wie hat sich denn das Boost- und Taktverhalten bei dir geändert, und lässt sich bei deiner Karte nach der Mod das Powertarget noch anzeigen bzw ändern? Ist die Standardspannung noch 1.175v oder auch auf 1.187v hochgegangen?

kruemelmonster
2015-03-24, 18:27:38
BF4 ist mir vorher mit 1254 MHz nach ~2h Stunden abgeschmiert so dass ich auf 1215 runter bin. Ich schätze mal der alte Wert sollte jetzt durch die zusätzlichen 125mv @ default wieder drin sein, evtl auch etwas mehr, mal sehen.

Tja, Pustekuchen.

Mit 1254 MHz @ default 1.187v schmiert Valley nach kurzer Laufzeit ab und mit dem Maximum von 1.212v gibt es ab 1293 MHz Bildfehler nach einigen Minuten, 1280 MHz laufen noch stabil. Für nur 50 MHz mehr müsste ich also 250mv draufhauen, das lohnt absolut nicht.

Sehr lohnenswert dagegen ist das geänderte Boostverhalten. Während mit dem alten Boost 1.0 ab 70°C hart um einen Speedbin (laut NV eine Vorsichtsmaßnahme da man damals noch keine Langzeiterfahrung mit gleichzeitig hoher Spannung+Temp+Takt hatte) von 1215 MHz/1.175v auf 1202 MHz/1.163v gedrosselt wurde, läuft die Karte nun mit dem einen gratis Speedbin vom Boost 2.0 auf default 1228 MHz/1.187v und hält diesen Takt auch durchgehend da weder das 225w PT noch das 80°C TT erreicht werden.

Apropos PT: das direkte prozentuale Auslesen wie mit dem Original Bios klappt hier weiterhin nicht, dafür man kann mit der "Power limit" Anzeige im MSI AB zumindest erfahren ob das aktuelle PT erreicht wurde oder nicht.

Sir_Freezer
2016-08-27, 13:39:23
Ich grab den Thread jetzt auch nochmal aus.

Bin momentan etwas in Bastellaune und hatte mir die Anleitung von
Kruemelmonster (DANKE an dieser Stelle - ich steh auf solche nerdigen Sachen :freak:) zum Flash einer GTX 670 vor längerem mal reingezogen.
Wollte damit auch eigentlich schon begonnen haben, nur haben mich während der Vorbereitung mehrere Sachen letztlich davon (vorläufig) abgehalten!

1.) Es wird gesagt, dass das 3 Wertepaar der Bios Version bzgl. des Speichers identisch sein muss. Weiterhin steht dies in Abhängigkeit des verwendeten Speichers.
Bios Dateien soll es für jeden Speichertyp geben.

Meine recherschen ergaben da allerdings ein komplett anderes Bild.
Zumindestens für meine GTX 670 gibt es (leider) kein 760er Bios mit identischem 3. Hexa Bios WP.
Weiterhin sind die meisten "Biose" kompatibel zu SK Hynix, Samsung und nem anderen dritten Speicherhersteller Elpida, weswegen es dafür auch nur ein File gibt.
Desweiteren habe ich auch noch NIE eine Kepler oder Maxwell GPU mit Elpida vRam gesehen... :confused:

2.) Habe mir dann Aufgrund des nichtvorhandenen 760er Derivats zu meiner GTX 670 mal ein paar Revs reingezogen und bin auf pcgh und evtl. waren es auch andere... dann auch fündig geworden.

Namentlich nicht genannt, war der verbaute Speicher gleich (SK Hynix) und dennoch war das dritte WP durchaus verschieden.

3.) Als ich mein Bios mit dem Pendant der GTX 760 verglich, bekam ich dann vollends die Gewissheit den Flash (vorerst) nicht durchzuführen.
Es sind Wertepaare in der PowerTable des Kepler Bios Tweaker an anderer Stelle bzw. vertauscht!?!?
Es geht mir nicht um geringfügige Abweichungen im 10%-20% Bereich des primären oder sekundären PTs, sondern eher die WP, in denen bei mir 66W-77W eingetragen sind
und bei der anderen Karte einfach mal bis zu 225W.

Sind die Phasen bei GTX 6xx und GTX 7xx Serie doch unterschiedlich geschaltet?

4.) Bei der kosmetischen Namensvergabe wäre dann natürlich die "GTX 760 Ti" die Wahl gewesen. Der Chip entspricht IHR ja dann mehr, als der der GTX 670 :freak:
Die entsprechende ID sollte die 1193 sein, wenn ich mich recht entsinne. :biggrin:

Achso, bevor ich es vergesse: meine Modell ist die
ASUS GTX670-DCMOC-2GD5, 2GB GDDR5, 2x DVI, HDMI, DisplayPort (90YV03X1-M0NA00) (http://geizhals.de/asus-geforce-gtx-670-dc-mini-90yv03x1-m0na00-a928557.html)

Das entsprechende Rev war zb. das von Jarafi der GTX 760 Mini OC aus dem pcghx Forum, auf dem man auf einem Bild erkennen konnte, dass es SK-Hynix Speicher, wie bei mir, verbaut war.

Die angesprochenen Speedbins kann ich außerdem nicht nur bei 70 Grad C, sondern auch schon bei 50 und 60 Grad C feststellen und das obwohl meine schon krass UV, aber trotzdem schneller läuft!
Btw. gibts bei 80 Grad C auch noch eins. 83 Grad C ist Standard TT...
Aber so undervolted hat man wenigstens das Standard TT im Griff, vorallem in nem mini Cube Gehäuse :cool:

kruemelmonster
2016-08-28, 11:26:09
zu 1.) vergiss meine Ausführungen zur Speicherkompatibilität im Bios, hatte da wohl was in den falschen Hals gekriegt. Wenn du bereits ein passendes Bios hast umso besser, falls nicht musst du leider alleine weiter suchen.

zu 2.) Die Abweichungen in den einzelnen PTs werden auf Boost 2.0 zurückzuführen sein, ein 700er Bios sollte auch mehr PTs beinhalten als ein 600er Bios. Insofern wirst du wahrscheinlich nur in der Spalte verrutscht sein; wenn eine 600er und eine 700er Karte das gleiche PCB nutzen kann du auch das Bios crossflashen.

zu 3.) Die tatsächliche DeviceID lässt sich ab Kepler nur mit dem Lötkolben ändern, nur bis Fermi klappt das übers Bios. Der Hintergrund der kosmetischen Namensvergabe war daher nur das Angleichen der 760er Biosangaben an die unveränderliche DeviceID der GTX 670, damit AIDA64 und Konsorten auch immer 670 anzeigen.

Ein Wort der Warnung: das 760er Bios hat an sich keine negativen Auswirkungen, allerdings kann man damit die Karte bei höheren Temperaturen als vorgesehen mit höheren Taktraten als vorgesehen betreiben. Das muß auf Dauer nicht immer gutgehen, meine 670 lief so über Monate mit bis zu 85°C bei maximaler Spannung und 1241 MHz bis eines Tages nur noch bunte Streifen auf dem Bildschirm zu sehen waren.
Nach einmalig 30min bei 150°C im Backofen läuft sie bis dato wieder, allerdings mit einem zurecht gestutzen 760er "Life Support" Bios: maximale Temperatur von 75°C und gesenkte Taktraten, so dass beim Erreichen der Temperaturschwelle nur noch 1097 MHz anliegen.

Sir_Freezer
2016-08-28, 17:17:57
Der Übersicht halber nehm ich mal deine Nr. ab hier.

zu 1.) OK, supie, dann wär das ja geklärt.

zu 2.) Naja, von den meisten 670 zu 760 hat sich das nicht geändert.
Bei andere Kepler Karten kann ich mich entsinnen, dass ich da weitere WP gesehen hatte. Die 770 müsste auch dabei gewesen sein.
Unabhängig scheint davon auch die Anzahl der separaten PCI-E Connectoren zu sein. Die kleinen Asus Minis haben nur ein 8 Poligen, anstelle zweier 6 Polstecker

Leider ist halt der Kepler/Maxwell BIOS Tweaker generell genauso mächtig, wie er absolut stümperhaft dokumentiert ist.
Naja, zumindest liegt er da bei aktueller Software voll im Trend... :rolleyes:
Schade, dass man generell nicht an den Speichercontroller ran darf. ;(

zu 3.) Gut ist zwar schade drum, aber OK und damit auch geklärt.
Kann man das nerdige halt nicht vollends ausleben :freak:

Auf die Idee das Temp Target anzufassen bin ich aufgrund der Speedbins (die es Augenscheinlich bei Pascal noch genauso wie bei Kepler gibt) gar nicht gekommen. Macht imho quasi keinen wirklichen Sinn.
Ich bin gespannt, wie fein das aber ab Boost 2.0 wird.

Ich hab meine sowieso undervolted. Boostet je nach Game und Setting zwischen 1254Mhz und 1073Mhz. Meistens jedoch wischen 1110Mhz und 1189Mhz bei 1,1325V bei 100% Lüfterdrehzal.
Bei warnehmbaren, aberer dennoch erträglichen 50% Lüfterdrehzahl knickt sie halt gern auf bis zu 1058Mhz ein und erreicht nur sehr prunghaft kurz die 1189Mhz, obwohl das TT noch nicht erreicht ist. :confused:
Ich hoffe das Boost 2.0 dort die ensprechende Stabilität reinbringt.
Gerade für den 60 und 70 Grad C Raum.

Ich denke im übrigen nicht, dass es die Max Spannung von 1,2125V gewesen ist, was deine 670er fast um die Ecke gebracht hat.
Vielmehr tippe die die erweitert zulässige Peak Spannung von 240W :eek: aus dem sekundären PT, insofern du die nicht geändert hast.

Trotzdem nochmal kurz die Frage: Du hast, außer die Wertepaare angepasst, aber keines verschoben?
Bei deinem Stock Bios der GTX 670 ist das WP3 auf bis zu 240W terminiert, während es bei der 760 nur auf 66W beläuft...!?

kruemelmonster
2016-08-28, 18:37:07
Ich denke im übrigen nicht, dass es die Max Spannung von 1,2125V gewesen ist, was deine 670er fast um die Ecke gebracht hat.
Vielmehr tippe die die erweitert zulässige Peak Spannung von 240W :eek: aus dem sekundären PT, insofern du die nicht geändert hast.

Trotzdem nochmal kurz die Frage: Du hast, außer die Wertepaare angepasst, aber keines verschoben?
Bei deinem Stock Bios der GTX 670 ist das WP3 auf bis zu 240W terminiert, während es bei der 760 nur auf 66W beläuft...!?

Meine 670 hat ein 680er PCB mit 6+8pin, die Peakströme steckt die Platine locker weg. Die Problemursache wird wohl eher die Kombination aus hohem Takt und hoher Temp und hoher Spannung über einen längeren Zeitraum gewesen sein.

An meinem Modbios hab ich an zu vielen Stellen rumgebasteln um dir jetzt noch Details nennen zu können, wenn du aber von 66w sprichst kann das nur das Limit des PCIe Slots sein und natürlich nicht das der ganzen Karte.

Sir_Freezer
2016-08-28, 20:00:33
Ich tippe auch eher auf den Chip, als auf die Platine - gut, soll an der Stelle aber nicht weite von Belang sein.
Schön, dass Sie es trotzdem überlebt hat!... :)

Gut, da ich das Gefühl habe, dass wir beim Kepler Bios Tweaker aneinander vorbeireden, hab ichs mal visuell gemacht.
Das linke Bios ist dein Stock GTX 670, das rechte das Stock GTX 760
Angaben aus deinen Links entnommen, ums kurz zu machen.

In der Power Table:
Das dritte Wertepaar (alias WP - min,max,boost), oder 3er Paar ist nur an 3. Stelle komplett unterschiedlich/weicht ab...nenn es, wie du willst.
Daher das PIC, um den Sachverhalt ohne Missverständnisse zu klären bzw. klären zu können.
Ich habs extra rot eingeramt.

Das die 66W der PCI-E Slot sein müssen, ist mir auch klar.
Mir geht es um die Stelle, an der es steht, weil eben diese bei der 760 abweicht und das als einzige

Die anderen sind alle identisch bzw. weichen im toleranten Bereich ab.

Rest Siehe Anhang

Edit: auch taucht der Wert nirgends mehr auf (logisch bei nur einer Änderung und gleicher Anzahl WPs)