Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : GK110 Dual GPU/ GTX 790


Godmode
2013-01-04, 13:16:28
Ich habe soeben eine meiner GTX 690 Karten verkauft, da sie noch relativ viel Wert sind (750€) und ich dann bald auf GK110 aufrüsten will.

Die Frage die ich mir jetzt stelle ist, ob zum GK110 auch relativ zeitgleich ein Dual GPU Dings kommt. Normales SLI bringt mir nichts, weil zwei GK110 können keine vier GK104 ersetzen. Tripple SLI oder Quad mit vier Karten passt vom Mainboard und Gehäuse nicht so ganz. Zwei Dual Chip Karten wären mir wieder am liebsten, da sich diese Lösung mit der 690 recht gut bewährt hat.

Mit GK104 war die 690 relativ einfach möglich, da dieser nicht sehr viel Strom braucht. Mit GK110 müsste man wohl den Takt senken, bzw. Einheiten abschalten, wie schon bei den GTX 590 und den Vorgängern.

Was sind eure Erwartungen, bzw. was denkt ihr wird möglich sein? Kommt im März eine Dual GK110 Grafikkarte?

boxleitnerb
2013-01-04, 13:24:07
Würde ich nicht drauf wetten. Die 690 ist praktisch doppelt so schnell wie eine 680 - das wird eine 790, die ähnlich kastriert ist wie eine 590 mMn nur marginal besser schaffen, so dass sich das für NV evtl. nicht lohnt. Vergleich mal eine 560 Ti mit einer 590. Ein 560 TI SLI ist praktisch genauso schnell wie die 590. Mit Kepler könnte das noch drastischer werden, weil die Chips weiter auseinanderliegen bzgl. Transistorzahl und GK110 schon vergleichsweise recht niedrig taktet, was bei Fermi nicht der Fall war (772 vs 822 bei Fermi, 800-850 MHz vs 1050-1100 MHz bei Kepler). Takt senken geht halt auch nur bis zu einem bestimmten Punkt, wo es sich bzgl. des Verbrauchs richtig auszahlt - lasse mich aber gerne eines besseren belehren.

Andererseits wird es diesmal vielleicht eine HD8990 offiziell geben, der man etwas entgegensetzen will, und wenn man sich nur wenig von der 690 absetzen kann - es ist ja ein limitiertes Premiumprodukt. Vielleicht schöpft man aber auch die 375W komplett aus, auch eine Möglichkeit.

Abschließend würde ich sagen, dass es möglich ist, aber sicherlich nicht vor Mai/Juni. 3-way SLI sollte mit einem vernünftigen Board drin sein. Wer 2000+ Euro für GPUs ausgibt, kann sich auch für 300 Euro ein nettes Brett holen. 3x Dualslot + 1x Singleslot für Sound. So werde ich es machen. Wer mehr braucht wie Netzwerk, TV usw., muss halt irgendwo Abstriche machen.

Godmode
2013-01-04, 14:27:59
Würde ich nicht drauf wetten. Die 690 ist praktisch doppelt so schnell wie eine 680 - das wird eine 790, die ähnlich kastriert ist wie eine 590 mMn nur marginal besser schaffen, so dass sich das für NV evtl. nicht lohnt. Vergleich mal eine 560 Ti mit einer 590. Ein 560 TI SLI ist praktisch genauso schnell wie die 590. Mit Kepler könnte das noch drastischer werden, weil die Chips weiter auseinanderliegen bzgl. Transistorzahl und GK110 schon vergleichsweise recht niedrig taktet, was bei Fermi nicht der Fall war (772 vs 822 bei Fermi, 800-850 MHz vs 1050-1100 MHz bei Kepler). Takt senken geht halt auch nur bis zu einem bestimmten Punkt, wo es sich bzgl. des Verbrauchs richtig auszahlt - lasse mich aber gerne eines besseren belehren.

Andererseits wird es diesmal vielleicht eine HD8990 offiziell geben, der man etwas entgegensetzen will, und wenn man sich nur wenig von der 690 absetzen kann - es ist ja ein limitiertes Premiumprodukt. Vielleicht schöpft man aber auch die 375W komplett aus, auch eine Möglichkeit.

Abschließend würde ich sagen, dass es möglich ist, aber sicherlich nicht vor Mai/Juni. 3-way SLI sollte mit einem vernünftigen Board drin sein. Wer 2000+ Euro für GPUs ausgibt, kann sich auch für 300 Euro ein nettes Brett holen. 3x Dualslot + 1x Singleslot für Sound. So werde ich es machen. Wer mehr braucht wie Netzwerk, TV usw., muss halt irgendwo Abstriche machen.

Zum ersten könntest du wirklich recht haben, was ich schade finde. Man könnte sagen der GK110 wird im Schnitt 40% schneller als der GK104 die 50% glaube ich noch nicht so recht. Eine abgespeckte GTX 790 würde dann vielleicht nur 30% schneller als die aktuelle 690, was dann wirklich nicht mehr viel ist und ein Upgrade wohl nicht so lohnenswert macht.

Hab momentan ein Asus Rampage 4 Formula, aber ich stecke ungern mehr als zwei Karten ins Gehäuse, da das IMO oft zu Hitzeproblemen führt, vor allem wenn kein Abstand zwischen den Karten mehr ist.

Die 690 wurde ja glaub ich auch erst Ende April Anfang Mai vorgestellt, daher könnte das diesmal auch wieder hinkommen. Hoffen wir das Beste. :wink:

boxleitnerb
2013-01-04, 14:34:40
Wasserkühlung? :)
Mit der CPU hast ja schon angefangen. Bei so einem System bietet sich das doch richtig an. Leise, kühl und schnell.

Godmode
2013-01-04, 14:35:57
Wasserkühlung? :)
Mit der CPU hast ja schon angefangen. Bei so einem System bietet sich das doch richtig an. Leise, kühl und schnell.

Ich wechlse recht oft, daher ist mir das zu kompliziert, aber vielleicht muss ich ja wirklich noch mal umrüsten.

Grestorn
2013-01-04, 14:38:05
Kann ich nachvollziehen.

Aber ne WaKü spart viel Geld! Seit ich umgestellt habe, ist mein Bedarf nach neuester Hardware deutlich gesunken... einfach weil ich keinen Bock hab, ständig alles zu entleeren, beim Einbauen aufzupassen, dass kein Wasser irgendwo hinkommt, dann wieder auf Dichtigkeit zu prüfen usw...

Man überlegt sich jeden Kauf dreimal! Und das hat ja auch sein Gutes :)

boxleitnerb
2013-01-04, 14:40:15
Sind dir nicht damals ein paar Karten abgeraucht gleichzeitig? Sowas prägt, da wäre ich auch sehr vorsichtig :)

Spasstiger
2013-01-04, 14:46:20
Zwei GTX 780 werden nicht genug sein? :freak:
Overclocking gibts übrigens auch noch, da könnte bei der GTX 780 als Single-GPU-Karte relativ gesehen mehr gehen als bei der GTX 690.

aufkrawall
2013-01-04, 14:59:59
Das bleibt zu hoffen. PT von 150% wär nett.

boxleitnerb
2013-01-04, 15:05:06
Übertakten finde ich jetzt nicht so fürchterlich effizient. Erstens steigt die Leistungsaufnahme gerne mal überproportional an und zweitens müsste man auch den Speicher entsprechend mitübertakten können, um überall den vollen Nutzen aus dem Mehrtakt der GPU zu ziehen - das geht aber nur bedingt, Speicher kann da sehr empfindlich sein.

Bei einer 7970, die ihre Bandbreite augenscheinlich nicht so ganz ausreizt, klappt das noch, bei GK110 hab ich da aber nicht soviel Hoffnung. Kommt halt drauf an, mit wieviel man sich zufrieden gibt. 10-20% sind Peanuts, da kommt man nie an die +45% einer dritten Karte oder +90% einer zweiten Karte ran.

Grestorn
2013-01-04, 15:08:35
Sind dir nicht damals ein paar Karten abgeraucht gleichzeitig? Sowas prägt, da wäre ich auch sehr vorsichtig :)
Stimmt. Ich hab die beiden 480er immer noch als Trophäe im Schrank stehen :)

Duplex
2013-01-04, 15:14:03
Hoffen wir mal das Nvidia bis Release eine neue GK110 Revision hat, weniger Stromverbrauch und volle 2880 Shader Einheiten aka 15 SMX @850 GPU bei 250W TDP, dann wird die Dual Karte sogar besser ausfallen, vielleicht dann 2x 14 SMX @700GPU.

2x Single Karten mit 2880 Shader @1Ghz WaKü wären nicht schlecht! Die Karte wäre dann mit 1Ghz durchschnittlich 70% schneller als GTX680.

aufkrawall
2013-01-04, 15:21:56
Bei einer 7970, die ihre Bandbreite augenscheinlich nicht so ganz ausreizt, klappt das noch, bei GK110 hab ich da aber nicht soviel Hoffnung. Kommt halt drauf an, mit wieviel man sich zufrieden gibt. 10-20% sind Peanuts, da kommt man nie an die +45% einer dritten Karte oder +90% einer zweiten Karte ran.
Ich würde eher von mindestens 20% ausgehen, denn mit der GTX 680 schafft man immerhin auch an die 15%.
20% mehr min-fps im GPU-Limit können schon sehr nice sein.

boxleitnerb
2013-01-04, 15:25:55
Also ich konnte meine 580er gerade mal 10% übertakten, danach traten dann schon Fehler auf, auch wenn sie subtil waren. 850 MHz gingen nicht fehlerfrei überall trotz 1.1V. Klar, repräsentativ muss das nicht sein, aber OC ist nie garantiert. Wenn GK110 genauso austariert ist wie GK104, wo kriegst du die 20% mehr Speicherbandbreite her? Ich hab von genug Leuten gelesen, die mit VRAM-OC ihre Karte gegrillt haben. 5-10% geht noch, aber alles darüber ist verdammt riskant.

Ich sag nicht, dass OC schlecht ist, du kriegst mehr Performance für dein Geld. Aber zusätzliche Karten ersetzt es idR nicht.

aufkrawall
2013-01-04, 15:34:40
Also ich konnte meine 580er gerade mal 10% übertakten, danach traten dann schon Fehler auf, auch wenn sie subtil waren. 850 MHz gingen nicht fehlerfrei überall trotz 1.1V. Klar, repräsentativ muss das nicht sein, aber OC ist nie garantiert.

Stimmt, aber 10% sind schon ziemlich mickrig.
Ich hab meine 570 stabil auf 25% mehr Takt gegenüber des Referenzdesigns gekriegt.


Wenn GK110 genauso austariert ist wie GK104, wo kriegst du die 20% mehr Speicherbandbreite her? Ich hab von genug Leuten gelesen, die mit VRAM-OC ihre Karte gegrillt haben. 5-10% geht noch, aber alles darüber ist verdammt riskant.

Wie kommst du darauf, dass die 780 genau so im Bandbreitenlimit hängen wird wie die 680?
Mit 384 Bit und ähnlich hohem Speichertakt wie bei GK104 hätte man doch im Vergleich zur zusätzlichen Rechenleistung überproportional viel Bandbreite.


Ich sag nicht, dass OC schlecht ist, du kriegst mehr Performance für dein Geld. Aber zusätzliche Karten ersetzt es idR nicht.
Natürlich nicht. ;)

Grestorn
2013-01-04, 15:37:40
Es gilt die Regel des abnehmenden Ertrags. Das gilt natürlich auch für OC. Dafür hast Du bei SLI ja eben auch keine lineare Skalierung, sprich 2 Karten geben dir bei weitem keine 200%...

Mit Wakü kriege ich den Speicher meiner GTX 680 locker und mit Spielraum auf 3500 MHz, also etwa 17% OC. Es geht noch mehr, auch 3600 MHz sind noch stabil, aber ich lasse mir immer einen guten Sicherheitsabstand nach oben. Und meine Karte ist da sicher nicht besonders gut, da gibt es wohl noch ganz andere OC-Wunder...

Aber, wer das Geld ausgeben will, ist mit SLI sicher gut bedient. Mir war irgendwann der Aufwand mit den Profilen und vorallem der Lärm immer zu viel. Meine beiden 280er und die luftgekühlten 480er haben geklungen als würde ein Tornado im Rechner starten, wenn ich spielen wollte... Mit der einen 680 OC komme ich persönlich auch gut klar.

boxleitnerb
2013-01-04, 15:39:08
Wie kommst du darauf, dass die 780 genau so im Bandbreitenlimit hängen wird wie die 680?
Mit 384 Bit und ähnlich hohem Speichertakt wie bei GK104 hätte man doch im Vergleich zur zusätzlichen Rechenleistung überproportional viel Bandbreite.


50% mehr Rechenleistung und 50% mehr Bandbreite, davon gehe ich aus. Wenn es ein bisschen abweicht, ändert sich an der Situation nicht großartig was.

Wobei Brolys Benchmarks im Luxx gezeigt haben, dass die 680 nicht sooo bandbreitenlimitiert ist, wie ich dachte. Jedenfalls in den getesten Spielen.

aufkrawall
2013-01-04, 15:42:23
Es gilt die Regel des abnehmenden Ertrags. Das gilt natürlich auch für OC. Dafür hast Du bei SLI ja eben auch keine lineare Skalierung, sprich 2 Karten geben dir bei weitem keine 200%...

Mit SSAA ist man bei funktionierender Skalierung aber auch nicht so weit davon entfernt.


Mit Wakü kriege ich den Speicher meiner GTX 680 locker und mit Spielraum auf 3500 MHz, also etwa 17% OC. Es geht noch mehr, auch 3600 MHz sind noch stabil, aber ich lasse mir immer einen guten Sicherheitsabstand nach oben. Und meine Karte ist da sicher nicht besonders gut, da gibt es wohl noch ganz andere OC-Wunder...

3500 Mhz macht eigentlich fast jeder Speicher der "großen" Kepler-Karten mit.
Bei der 680 ist man auch quasi bitter drauf angewiesen, die 670 ist vernünftiger ausbalanciert.


Mir war irgendwann der Aufwand mit den Profilen und vorallem der Lärm immer zu viel. Meine beiden 280er und die luftgekühlten 480er haben geklungen als würde ein Tornado im Rechner starten, wenn ich spielen wollte... Mit der einen 680 OC komme ich persönlich auch gut klar.
Meine beiden 670s OC sind zusammen in etwa halb so laut wie die 570 OC vorher. :freak:
Mit Vsync/fps-Limiter sind die häufig sogar mucksmäuschenstill.

AnarchX
2013-01-04, 15:43:35
Zwei GTX 780 werden nicht genug sein? :freak:

Knapp 1 TeraTexel pro Sekunde für flüssige Darstellung der 131 Mio. Samples pro Frame sollten es wohl schon sein. :ulol:

Godmode
2013-01-04, 15:58:48
Kann ich nachvollziehen.

Aber ne WaKü spart viel Geld! Seit ich umgestellt habe, ist mein Bedarf nach neuester Hardware deutlich gesunken... einfach weil ich keinen Bock hab, ständig alles zu entleeren, beim Einbauen aufzupassen, dass kein Wasser irgendwo hinkommt, dann wieder auf Dichtigkeit zu prüfen usw...

Man überlegt sich jeden Kauf dreimal! Und das hat ja auch sein Gutes :)

Ich will ja gar nicht sparen nur mehr Leistung. :biggrin:

Zwei GTX 780 werden nicht genug sein? :freak:
Overclocking gibts übrigens auch noch, da könnte bei der GTX 780 als Single-GPU-Karte relativ gesehen mehr gehen als bei der GTX 690.

Hatte die beiden GTX 690 am Maximum laufen und sogar in D3 bin ich fast am Limit und das nur in FullHD. Also zwei GTX 780 sind mir zu wenig, da hab ich ja weniger Leistung als jetzt mit dem 690er Quad-SLI.

HisN
2013-01-04, 16:54:25
D3 (Diablo?) am Rohleistungs- oder VRAM-Limit? 2GB sind ja nicht gerade sehr üppig.

Wie bei jeder der letzten Graka-Generationen wird die Dual-GPU kommen. Fragt sich nur: Wann?

Warum sich jetzt nen Kopp um ungelegte Eier machen? Ich hätte die nächsten 6 Monate noch weiter mit Quad-SLI gezockt (wenn es denn sein muss, bei Dir scheinbar nicht, reicht ja auch eine GTX690) anstatt mir JETZT nen Kopf zu machen. Und um Geld geht es bei zwei GTX690 wohl auch nicht unbedingt, oder?

Ich hab mir auch die Anschaffung einer 2. GTX690 überlegt, aber ich hänge zu oft im VRAM-Limit. Bringt bei mir keine Punkte. Warten ist angesagt.

Godmode
2013-01-04, 17:20:22
D3 (Diablo?) am Rohleistungs- oder VRAM-Limit? 2GB sind ja nicht gerade sehr üppig.

Wie bei jeder der letzten Graka-Generationen wird die Dual-GPU kommen. Fragt sich nur: Wann?

Warum sich jetzt nen Kopp um ungelegte Eier machen? Ich hätte die nächsten 6 Monate noch weiter mit Quad-SLI gezockt (wenn es denn sein muss, bei Dir scheinbar nicht, reicht ja auch eine GTX690) anstatt mir JETZT nen Kopf zu machen. Und um Geld geht es bei zwei GTX690 wohl auch nicht unbedingt, oder?

Ich hab mir auch die Anschaffung einer 2. GTX690 überlegt, aber ich hänge zu oft im VRAM-Limit. Bringt bei mir keine Punkte. Warten ist angesagt.

Die Rohleistung geht meistens aus, VRAM langt eigentlich, da ich nur FullHD und einen Monitor hab.

Naja ich hab die Karte verkauft, weil sie jetzt noch einiges Wert ist (750€). Ein paar Monate muss ich mich dann halt mit weniger zufrieden geben.

Nightspider
2013-01-04, 18:05:17
Ich wette das zwei GTX780 mit Wakü und Übertaktung fast immer schneller sind als zwei GTX690.

Alleine deswegen weil SLI mit 4GPUs auch nicht mehr wirklich effizient arbeitet.

Dazu kommt, das GK104 bei DX11 und viel Tessellation kaum schneller ist als ne GTX580. Dort wird der GK110 den größten Sprung machen. Genau in einem solchen Szenario könnte eine 780 mit OC locker 70% schneller sein und sogar mehr (im Extremfall).

Hier ist eine GTX680 höchtens 34% schneller als eine 580 bei Crysis 2:

http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Test-Geforce-GTX-680-Kepler-GK104-873907/8/

Noch viel schlimmer ist es bei Metro2033 wo die 680 gerade mal ~12% schneller ist als eine 580:

http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Test-Geforce-GTX-680-Kepler-GK104-873907/12/

Genau DA wird die GTX780 sicherlich mehr als 50% schneller sein.

Die 680 ist zur 580 nichts anderes wie die 460 zur 285. Und die 460 sah alt aus gegen die 480 bei neuen Grafiklastigen Spielen. Genauso alt wird die 680 gegen die 780 wirken.

GK104 in 2013 = Mainstream
GK110 in 2013 = HighEnd

Deswegen werden sich zwei 780 im SLI immer schneller anfühlen als zwei 690 bzw. vier 680.

aufkrawall
2013-01-04, 18:29:55
Gibts Anlass zur Hoffnung, dass die 780 bei höheren Auflösungen wie die Radeons nicht mehr so einkackt?

Nightspider, die 680 war im Schnitt auch nur 35% schneller als die 580, da liegt das Crysis 2-Ergebnis völlig im Rahmen.
Bei Metro wird GK110 aber sicher nen dicken Boost bringen.

fondness
2013-01-04, 18:35:24
Gibts Anlass zur Hoffnung, dass die 780 bei höheren Auflösungen wie die Radeons nicht mehr so einkackt?


Die Geforce-Karten brechen bei hohen Auflösungen ja nicht ein, sie sind ganz einfach bei niedrigen Auflösungen deutlich effizienter als die Radeons. Solange NV an der Architektur nichts grundlegend ändert wird das also gleich bleiben.

boxleitnerb
2013-01-04, 18:38:38
Da GK110 bei der Rohleistung näher als je zuvor an die Radeons herankommen wird, dürfte das Thema mMn gegessen sein.

Godmode
2013-01-04, 18:40:35
Ich wette das zwei GTX780 mit Wakü und Übertaktung fast immer schneller sind als zwei GTX690.

Alleine deswegen weil SLI mit 4GPUs auch nicht mehr wirklich effizient arbeitet.


Hoffen wir des es so kommen wird, aber ich sag jetzt schon dass zwei 780 nicht reichen werden um ein Quad-SLI aus 680er oder 690er, mit genug Abstand schlagen werden, dass sich eine Investion lohnen würde. Außer vielleicht in Situation wo der 680/690 der Speicher ausgeht oder sowas in der Art.

Das mit der Effizienz kann ich allerdings nicht unterschreiben. Es kommt auf die Settings drauf an. Wenn du die GPUs genug forderst werden alle 4 Stück mit 95-99% belastet, natürlich wird das nicht 99% Effizienz entsprechen, aber es ist nicht so schlimm wie immer alle tun. Der Framelimiter kostet zb. immer ein paar % Leistung, aber am Ende bleibt genug über, dass man Settings nutzen kann, die mit zwei Karten einfach nicht drinnen sind.

fondness
2013-01-04, 18:41:51
Da GK110 bei der Rohleistung näher als je zuvor an die Radeons herankommen wird, dürfte das Thema mMn gegessen sein.

Man wird Tahiti bei der Rohleistung wohl deutlich überholen. Das ändert aber nichts an der Skalierung.

boxleitnerb
2013-01-04, 18:47:01
Man wird Tahiti bei der Rohleistung wohl deutlich überholen. Das ändert aber nichts an der Skalierung.

Wie schon vorher gesagt wurde (wurde von den Profis hier auch schonmal erklärt, das kommt nicht von mir), sind die Radeons bei niedrigeren Auflösungen eher ineffizient. In höheren Auflösungen zählt dann die Rohleistung. Sprich: Gleiche Rohleistung = gleiche Leistung, salopp gesagt. Man kann die Betrachtung eben von zwei Seiten her machen, nicht nur von einer.

Überholen glaub ich übrigens nicht:
2880*2*0,85 GHz = 4,9 TFLOP
2560*2*1,0 GHz = 5,1 TFLOP
Beides geschätzt natürlich.

fondness
2013-01-04, 18:56:41
Wie schon vorher gesagt wurde (wurde von den Profis hier auch schonmal erklärt, das kommt nicht von mir), sind die Radeons bei niedrigeren Auflösungen eher ineffizient.

Das habe ich oben auch schon gesagt. NV hat ganz einfach einen feinere Granularität in ihren Recheninheiten. Der Verschnitt ist wesentlich geringer bei kleinen Dreiecken mit wenig Pixel. Eine Erhöhung der Auflösung erhöht natürlich die Anzahl der Pixel pro Dreieck -> Die Effizienz der Einheiten bei AMD steigt stärker als bei NV (wo die Auslastung schon bei kleinen Auflösungen deutlich höher war).


In höheren Auflösungen zählt dann die Rohleistung. Sprich: Gleiche Rohleistung = gleiche Leistung, salopp gesagt. Man kann die Betrachtung eben von zwei Seiten her machen, nicht nur von einer.


Wie schon gesagt, es ändert nichts an der Skalierung. Ganz einfach weil AMD hohe Auflösungen benötigt um ihre Einheiten auszulasten. Klar kann GK110 auch noch bei hohen Auslösungen vorne sein, aber AMD wird potentiell aufholen. Außer NV ändert ebenfalls die Warp-Size auf 64 Threads, was aber wohl eher unwahrscheinlich sein dürfte.


Überholen glaub ich übrigens nicht:
2880*2*0,85 GHz = 4,9 TFLOP
2560*2*1,0 GHz = 5,1 TFLOP
Beides geschätzt natürlich.

Die 2560 ALUs bei AMD will ich erst mal sehen, IMO wird sich da nicht viel tun.

boxleitnerb
2013-01-04, 19:06:46
Aufholen ggü. den niedrigen Auflösungen ja. Oder bei anderer Betrachtungsweise in niedrigeren Auflösungen weiter zurückfallen. Es kommt auf den "Nullpunkt" der Betrachtung an, wobei man auch betrachten sollte, dass die Einheiteneffizienz irgendwo für beide eine theoretische Obergrenze haben müsste:

a) AMD hat bei höheren Auflösungen eine höhere Einheiteneffizienz als NV und bei niedrigeren vielleicht die gleiche Effizienz
b) AMD hat bei höheren Auflösungen die gleiche Einheiteneffizienz wie NV und bei niedrigeren eine niedrigere Effizienz

Meine Vermutung ist eben, dass b) der Fall ist, die Einheiten bei beiden schon (fast?) so effizient wie möglich arbeiten und AMD in den höheren Auflösungen nur wegen der größeren Rohleistung vergleichsweise stark ist. Und genau das hat sich mit Kepler (inkl. GK110) geändert, der bei der Rohleistung aufgeholt hat. a) finde ich unwahrscheinlich, denn für die 33% höhere Rohleistung UND eine höhere Einheiteneffizienz ist der Vorsprung in hohen Auflösungen mMn dann doch zu gering.

fondness
2013-01-04, 19:12:30
Aufholen ggü. den niedrigen Auflösungen ja. Oder bei anderer Betrachtungsweise in niedrigeren Auflösungen weiter zurückfallen. Es kommt auf den "Nullpunkt" der Betrachtung an, wobei man auch betrachten sollte, dass die Einheiteneffizienz irgendwo für beide eine theoretische Obergrenze haben müsste:

a) AMD hat bei höheren Auflösungen eine höhere Einheiteneffizienz als NV und bei niedrigeren vielleicht die gleiche Effizienz
b) AMD hat bei höheren Auflösungen die gleiche Einheiteneffizienz wie NV und bei niedrigeren eine niedrigere Effizienz

Meine Vermutung ist eben, dass b) der Fall ist, die Einheiten bei beiden schon (fast?) so effizient wie möglich arbeiten und AMD in den höheren Auflösungen nur wegen der größeren Rohleistung vergleichsweise stark ist. Und genau das hat sich mit Kepler (inkl. GK110) geändert, der bei der Rohleistung aufgeholt hat. a) finde ich unwahrscheinlich, denn für die 33% höhere Rohleistung UND eine höhere Einheiteneffizienz ist der Vorsprung in hohen Auflösungen mMn dann doch zu gering.

Da braucht es gar keine Vermutung. NV hat sowohl bei hohen als auch bei niedrigen Auflösungen eine höhere Effizienz. Nur AMD holt eben bei höheren Auflösungen auf, kann aber NV logischerweise nie einholen. Deshalb kostet AMD eine Erhöhung der Auflösung weniger fps.

zombiewars
2013-01-05, 06:50:54
Es wird definitv keinen "brauchbaren" Dual Chip von GK110 geben ....
Entweder kommt gar keiner oder so ne abgespeckte version wie bei der 590..
klar könnten sie 500W und mehr machen ..wenn da nicht die ökos unter den highend leuten wären den 375W schon zu viel sind :D

ne ma spaß bei seite..der threadersteller hat viel zu früh reagiert ...weil eine 780 wird ca. 10 %langsamer als eine 690 was ja schon sehr gut ist ..aber braucht man halt auch 2 um die 690 zu übertrumpfen ..

Hab auch "nur" eine 690 :D und bei 4K geht ihr echt die puste aus aber nur bedingt am speicher ..aber ich warte erst mal bis die serie aufm markt ist und bei wahrscheinlich eintretender leistung ist die überlegung schon da eine 2 reinzubauen, denn kein neuer dx standard (11.1 zählen wir mal nicht weil es wird sowieso nie ein spiel damit rauskommen :D)
also kein zwingender kaufgrund und falls ihr den bericht von tsmc gelesen habt wird die produktion teurer.. dh. 780 richtung 600€ und mehr...

geschweige denn dual chip :D 1200-1500€ xD (bei der 690 ham wir auch alle gesagt ihr spinnt 1000€ nie im leben :D)

und dann wegen 3-way sli ..also mit sli haperts ja schon hier und da mal (was aber meist schnell behoben ist) aber bei 3 karten will ich nicht wissen was man da für probleme bekommt...

Also meine Meinung ist abwarten was kommt und lieber Hardware noch behalten ( wie schnell wird der release mal um 3 monate verschoben oder es sind keine lieferbar .. und dann stehst du da 6-9 monate ohne karte :D:D:D) und wenns sein muss sogar nicht verkaufen ..weil ich hab 1100€ bezahlt (mit wasserkühler) und dass dann für 600-700€ zu verkaufen ist mir schon fast zu schade ;-)

Godmode
2013-01-05, 11:29:48
Es wird definitv keinen "brauchbaren" Dual Chip von GK110 geben ....
Entweder kommt gar keiner oder so ne abgespeckte version wie bei der 590..
klar könnten sie 500W und mehr machen ..wenn da nicht die ökos unter den highend leuten wären den 375W schon zu viel sind :D

ne ma spaß bei seite..der threadersteller hat viel zu früh reagiert ...weil eine 780 wird ca. 10 %langsamer als eine 690 was ja schon sehr gut ist ..aber braucht man halt auch 2 um die 690 zu übertrumpfen ..

Hab auch "nur" eine 690 :D und bei 4K geht ihr echt die puste aus aber nur bedingt am speicher ..aber ich warte erst mal bis die serie aufm markt ist und bei wahrscheinlich eintretender leistung ist die überlegung schon da eine 2 reinzubauen, denn kein neuer dx standard (11.1 zählen wir mal nicht weil es wird sowieso nie ein spiel damit rauskommen :D)
also kein zwingender kaufgrund und falls ihr den bericht von tsmc gelesen habt wird die produktion teurer.. dh. 780 richtung 600€ und mehr...

geschweige denn dual chip :D 1200-1500€ xD (bei der 690 ham wir auch alle gesagt ihr spinnt 1000€ nie im leben :D)

und dann wegen 3-way sli ..also mit sli haperts ja schon hier und da mal (was aber meist schnell behoben ist) aber bei 3 karten will ich nicht wissen was man da für probleme bekommt...

Also meine Meinung ist abwarten was kommt und lieber Hardware noch behalten ( wie schnell wird der release mal um 3 monate verschoben oder es sind keine lieferbar .. und dann stehst du da 6-9 monate ohne karte :D:D:D) und wenns sein muss sogar nicht verkaufen ..weil ich hab 1100€ bezahlt (mit wasserkühler) und dass dann für 600-700€ zu verkaufen ist mir schon fast zu schade ;-)

Da ich zwei 690 hatte, konnte ich eine relativ leicht verkaufen. 3-way SLI kenne ich nicht, aber mit 4-way läufts meistens sehr gut. Hatte nur in Windows manchmal Probleme mit dem Treiber. Wenn man mal weiß wies geht, ist eigentlich ganz einfach.

Ich warte jetzt mal die nächsten Tage ab und vielleicht wird ja auf der CES was im geheimen gesagt, was dann wieder irgendwer leaked :)

zombiewars
2013-01-05, 18:14:52
@godmode

hab die kleine aber feine aussage überlesen.. "einer meiner "
war doch etwas müde :D

aber wenn du 2 hattest, mal ne frage an dich wie gut skaliert dass überhaupt ?? und hast du auch die möglichkeit gehabt auf 4K zu downsamplen??(oder zumindest ein setting über full hd) weil unter fullhd dürften 2 690er bis auf max payne 3 und far cry 3 keinen wirklichen Performanceschub geben oder ?(zumindest keinen sinnvollen wie z.b. von 110fps auf 180 fps :D)

Godmode
2013-01-05, 18:40:38
@godmode

hab die kleine aber feine aussage überlesen.. "einer meiner "
war doch etwas müde :D

aber wenn du 2 hattest, mal ne frage an dich wie gut skaliert dass überhaupt ?? und hast du auch die möglichkeit gehabt auf 4K zu downsamplen??(oder zumindest ein setting über full hd) weil unter fullhd dürften 2 690er bis auf max payne 3 und far cry 3 keinen wirklichen Performanceschub geben oder ?(zumindest keinen sinnvollen wie z.b. von 110fps auf 180 fps :D)

Ja das überließt mach leicht. ;D

Also ich kann dir nur ein aktuelles Beispiel geben: Man schafft es sogar mit D3 diese 4 GPUs auszulasten. Mit Auslasten verstehe ich 90% Last auf allen 4 GPUs. Man muss nur mit den Settings hoch genug gehen. (8xAA, 8xSGSSAA, 16xHQAF, HQAO, 3Vision, SweetFX: Lumasharpen). Wenn du dass alles aufdrehst hast du echt Top Bildqualität und die Karten müssen dann hart arbeiten.

Ja ich nutze auch Downsampling von 4k auf FullHD. Bei Spielen die kein AA unterstützen die beste Lösung und ja ich hatte dann immer 4k Downsampling, weil ja genug Leistung da war. Hab mehrere Spiele in 4k gespielt. Wenn man mehr Speicher hätte, ginge wohl noch 4k + 8xAA jetzt geht meistens nur 4xAA. Naja momentan wieder nur eine Karte und man muss mit allem etwas zurückstecken, damit man das gleiche Spielgefühl erhält.

Kriton
2013-01-05, 18:58:06
Die Geforce-Karten brechen bei hohen Auflösungen ja nicht ein, sie sind ganz einfach bei niedrigen Auflösungen deutlich effizienter als die Radeons.

Das nenne ich mal einen rethorischen Kniff. Beides beschreibt dieselbe Tatsache korrekt. Die jeweilige Form der Aussage bestimmt lediglich ob ich es für Nvidia oder AMD besser formulieren möchte...

Edit: boxleitnerb beschreibt ganz gut was ich meine.

Locuza
2013-01-05, 19:36:04
War das nicht so, dass bei AMD eine Wavefront 64 Threads breit ist, bei Nvidia 32 und das mit hohen Auflösungen der Verschnitt geringer ist, weswegen AMD bei hohen Auflösungen mehr profitiert als Nvidia.

Also es wäre wie boxleitnerb gesagt hat, AMD hat bei niedrigen Auflösungen ihre Problemchen die sich bei hohen Auflösungen etwas lösen, Nvidia steht dagegen auf den ersten Blick nicht so gut da, da deren Effizienz immer gut ist und man von hohen Auflösungen nicht im gleichem Maße profitiert.

zombiewars
2013-01-05, 20:46:08
@godmode

OK dann sieht dass doch nach einem wechsel für mich aus :-( weil ich auch neuere spiele wie metro 2034 in 4K oder zumindest richtig brutalen settings spielen möchte..

@Locuza
Also dass mit dem Profitieren bei hohen Auflösungen kann man sehen wie man will aus meiner sicht bei sli/crossfire ist die höhere fps zahl bei amd ein scherz weil du dann so brutale mikroruckler bekommst ..dass es dir nur auf dem papier was bringt 20 fps mehr zu haben ...

wie der Computerbase bericht mit 3-way sli und crossfire x gezeigt hat

drmaniac
2013-01-06, 01:25:55
Kann ich nachvollziehen.

Aber ne WaKü spart viel Geld! Seit ich umgestellt habe, ist mein Bedarf nach neuester Hardware deutlich gesunken... einfach weil ich keinen Bock hab, ständig alles zu entleeren, beim Einbauen aufzupassen, dass kein Wasser irgendwo hinkommt, dann wieder auf Dichtigkeit zu prüfen usw...

Man überlegt sich jeden Kauf dreimal! Und das hat ja auch sein Gutes :)

sorry für OT, aber bei mir ist das gaaaaanz genauso, absolut der selbe Effekt ;D