PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GF11x - GeForce-500-Serie (Q4 2010 - Q2 2011)


Seiten : 1 [2] 3 4 5

BigKid
2010-11-30, 11:51:50
Drückt man eine GTX 480 idle auf unter 40°, hat die idR auch unter 40W.
Hmmm... Aber ist das nicht ein Zirkelbezug ?
Höhere Leakage -> höhere Temp -> höhere Leakage -> ...
Also einfach nur zu sagen bei gleicher Tempereatur hat eine 480 auch weniger Verbrauch ist dann doch zu auch kurz gesprungen - denn die 40 grad bei der 480er zu erreichen erfordert uU mehr Leistung auf Seiten der Kühllösung...
Im Prinzip müsste man mehrere Vertreter beider Karten mit der selben Kühllösung identischer Raumtemperatur, im selben Case (oder eben ohne) bei festgenagelter Lüfterdrehzahl, gleicher Spannung und gleichem Takt betrachen um hier einen echten Vergleich machen zu können und selbst dann hätte man immer noch die deaktivierten/aktivierten Einheiten zu berücksichten ? Klingt nicht so trivial...

Gipsel
2010-11-30, 13:21:25
Hmmm... Aber ist das nicht ein Zirkelbezug ?
Höhere Leakage -> höhere Temp -> höhere Leakage -> ...Nein zum Zirkelschluß. Denn wenn Du mehr Leistung in den Lüfter steckst, ist der wirkliche Verbrauch (also abzüglich der Kühllösung) ja in Wirklichkeit noch niedriger. Der Lüfter auf der GTX580 zieht aufgrund des besseren Designs (Vapor-Chamber, größerer Durchmesser) bei gleicher Kühlleistung weniger Strom.
Das mit der höhere Leakage -> höhere Temp -> höhere Leakage -> ...
kann übrigens wirklich passieren und nennt sich thermal runaway. Bei (sehr) hohen Temperaturen steigt die Leakage schneller als die Effizienz der Kühllösung (das geht bei fester Lüfterdrehzal ungefähr proportional zum Temperaturunterschied von der GPU zur Luft). Mit einem unterdimensionierten Kühler wird das also wirklich irgendwann zu einem selbstverstärkenden Effekt.

Kalmar
2010-11-30, 13:33:04
Man sollte mal einen GTX-580-Kühler auf eine GTX 480 montieren und sich dann den Unterschied anschauen. Würde mich wirklich interessieren.



das wär doch dann mal wirklich interessant, ne 480 mit dem 580er kühler und auch umgekehrt ne 580 mit dem 480er kühler, dann man temps und verbrauch angucken was sich so tut ..

raff, y33H@ könnten doch mal nen Praktikanten basteln lassen, wenn die lüfter kompatibel sind :crazy:

vielleicht ist der abstand ja gar net sooo groß mit gleichen lüfter usw.

LovesuckZ
2010-11-30, 13:44:52
Hmmm... Aber ist das nicht ein Zirkelbezug ?
Höhere Leakage -> höhere Temp -> höhere Leakage -> ...
Also einfach nur zu sagen bei gleicher Tempereatur hat eine 480 auch weniger Verbrauch ist dann doch zu auch kurz gesprungen - denn die 40 grad bei der 480er zu erreichen erfordert uU mehr Leistung auf Seiten der Kühllösung...


Das ist es auch. Beim IDLEN bekommt man eine GTX480 nicht auf unter 40°C, außer man senkt die Zimmertemperatur rapide ab. Eine GTX580 bleibt dagegen immer unter 40°C.
Es ist aufgrund des höheren Verbrauches der GTX480 beim IDLEN erheblich schwieriger, sie mit gleichem Aufwand auf die selbe Temperatur zu bringen. Immerhin muss die Wärme auch vom Kühlkörper abgeführt werden, was wiederum eine gewisse Drehzahl benötigt.

Und alleine, dass ein System mit einer GTX580 auf dem zweiten P-State und Temperaturen über denen einer idlenen GTX580 genauso viel verbraucht wie ein System, dass komplett Idlet mit einer GTX480 sollte reichen, um zu erkennen, dass GF110 einfach deutlich weniger Strom bei gleicher Taktung, Spannung und Temperatur benötigt.

Gipsel
2010-11-30, 14:11:42
Und alleine, dass ein System mit einer GTX580 auf dem zweiten P-State und Temperaturen über denen einer idlenen GTX580 genauso viel verbraucht wie ein System, dass komplett Idlet mit einer GTX480 sollte reichen, um zu erkennen, dass GF110 einfach deutlich weniger Strom bei gleicher Taktung, Spannung und Temperatur benötigt.
Definitiv ein großes Nein. Da fehlen so einige Informationen, damit Du das schließen kannst.

P2(GTX580@Temp_x) > P1(GTX580@Temp_y) mit Temp_x > Temp_y
P1(GTX480@Temp_z) = P2(GTX580@Temp_x) mit Temp_x <= Temp_z ? (und anderer Spannung?)

Was willst Du daraus schließen, selbst wenn man die ganzen schon erwähnten Probleme bei diesem Vergleich mal außen vor läßt?

Aber egal, mit grundlegenden Zusammenhängen zu argumentieren, fruchtet ja offensichtlich nicht bei Dir. Glaub' doch, was Du willst. Ist mir im Prinzip auch egal.

BigKid
2010-11-30, 14:59:56
Der Lüfter auf der GTX580 zieht aufgrund des besseren Designs (Vapor-Chamber, größerer Durchmesser) bei gleicher Kühlleistung weniger Strom.

Ja - das schliesst aber nicht aus, dass er DAZU noch weniger Leisten muss, weil die 580 Aufgrund der Optimierungen weniger warm wird...
Da wir aber nicht wissen, wie effizient welche Kühllösung bei welcher Temparatur nun genau ist, kann es immernoch sein, dass die GTX480 im Idle auch deshalb wärmer ist, weil sie eben an höheren Leckströmen leidet und nicht NUR weil die Kühllösung ineffizient wäre...

Daher bin ich der Meinung, dass man endgültige Gewissheit nur mit einem gewissen Aufwand bekommen kann:

- identischer Testaufbau, Raumtemp. etc.
- gleicher Takt und Spannung
- mehrere Exemplare jeder Karte (mal mindestens 2-3)

- selbe Kühllösung bei gleicher Lüfterdrezahl auf beiden Karten
- selbe Kühllösung bei gleicher Temp und variabler Lüfterdrehzahl

Und nur so kann man imho eine Ahnung von den Verbesserungen abseits der Kühllösung bekommen - was bleibt ist der Unterschied durch die untersch. Anzahl an Einheiten.

So ein Test wäre durchaus Interessant und für mich z.B. auch Hilfreich bei der Entscheidung 470 SOC oder 570 ...

aths
2010-11-30, 15:14:51
Man sollte mal einen GTX-580-Kühler auf eine GTX 480 montieren und sich dann den Unterschied anschauen. Würde mich wirklich interessieren.

Allerdings sagt NVIDIA ja, sie nutzen jetzt auch noch einen "Medium"-Transistor und sind die Schaltungen durchgegangen bei denen sie weniger Leakage einsetzen können. Das sollte eigentlich schon etwas gebracht haben, wenn sie da die Wahrheit sagen.Ja, der Chip ist auf jeden Fall besser als der GF100. Die Kühlung trägt aber auch ihren Teil dazu bei.

BigKid
2010-11-30, 15:30:12
Ja, der Chip ist auf jeden Fall besser als der GF100. Die Kühlung trägt aber auch ihren Teil dazu bei.
Wie sieht es mit dem Übertaktbarkeit der 580er aus ? Gibt es dazu schon mehr Erkenntnisse und kann man daraus eventuell etwas für den 570er ableiten ?

Ich bin da grad etwas verwöhnt. Wärend ich Übertakten bisher eigentlich als nicht relevant angesehen habe hat sich mein Bild da mit dem Core/Core2 und nun der 460er geändert...
4 Kerne auf 3.75Ghz anstelle von 2.8 Ghz laufen zu haben und eine GTX460 auf 850 anstelle von 675 Mhz und das Quasi ohne Aufrpeis (mal abgesehn von den Kosten für ein vernünftiges MoBoard + Kühler bzw. Customkühler bei der gtx (und beides sind eh vernünftige Investitionen weil auch dazu noch leiser) ) - das sind mehr als ein paar Prozent :freak:

Dural
2010-12-03, 21:22:08
ich find es immer noch recht komisch das hier über lüfter leistung usw. diskutiert wird wo es höchstens ein par watt unterschide geben kann... bei einer 250Watt real und über 300Watt furmark grafikkarte... :freak:

aber was am ende zählt ist die tatsache das die GTX580 klar effizienter als die GTX480 ist, wie das NV erreicht hat spielt am ende ja eigenlich auch keine rolle... aber auch bei gleicher temperatur wird die ziemlich sicher besser dastehen als die GTX480, da sie am ende halt auch immer noch 18% im schnitt mehr Leistung hat als eben diese und die holt man mit gleicher oder ein par watt weniger leistung ganz bestimmt nicht raus...


aber egal macht nur weiter ;)

ach ja, stellt euch vor die GTX580 hat durch takt reduzierung die exakt selbe Leistung wie die GTX480, wie viel watt würden dann wohl am ende zwischen den Karten stehen... aber ja bestimmt alles wegen dem kühler :freak:

Ailuros
2010-12-03, 23:47:55
Es spielt eine verdammt grosse Rolle von der technischen Perspektive wie NV den GF110 effizienter gestalten konnte. Erstens haben einige Herren Blutz geschwizt es zeitig an den Mann zu bringen und zweitens wird es den engineers hoffentlich helfen aehnliche Fehler wie beim GF100 zu vermeiden.

ach ja, stellt euch vor die GTX580 hat durch takt reduzierung die exakt selbe Leistung wie die GTX480, wie viel watt würden dann wohl am ende zwischen den Karten stehen... aber ja bestimmt alles wegen dem kühler

Exakt wohl sicher nicht: http://www.anandtech.com/show/4012/nvidias-geforce-gtx-580-the-sli-update/3

Mancko
2010-12-04, 14:04:19
Es spielt eine verdammt grosse Rolle von der technischen Perspektive wie NV den GF110 effizienter gestalten konnte. Erstens haben einige Herren Blutz geschwizt es zeitig an den Mann zu bringen und zweitens wird es den engineers hoffentlich helfen aehnliche Fehler wie beim GF100 zu vermeiden.



Exakt wohl sicher nicht: http://www.anandtech.com/show/4012/nvidias-geforce-gtx-580-the-sli-update/3

Für den Markt / Kunden spielt es aber keine Rolle. Da zählt was hinten rauskommt und das ist bei der 580 aller erste Sahne!

Gaestle
2010-12-04, 18:40:26
Hmm.
Der zu erwartende Vorsprung der 580 zur 480 durch den zusätzlichen Shadercluster
liegt bei 6.7%.

Lediglich 4 von 11 Benchmarks (Civ5 wegen CPU-Abhängigkeit nicht mitgezählt) zeigen "mehr" als diesen Versprung, davon könnte dieses "mehr" bei 2 Spielen (Battlefield und Metro) auch im Bereich der Messungenauigkeit liegen.

Bleiben 2 von 11 Spielen, die ein gesichertes "mehr" als die erwartbare Steigerung durch den zusätzlichen Shadercluster zeigen. Könnte dieses selektive "mehr" vielleicht auch eine Treibersache sein?

Sie haben bestimmt was verbessert, aber ob das per se mehr Leistung bringt, sehe mit dem anandtech-test eher skeptisch. Möglicherweise haben sie sich doch mehr auf eine bessere Produzierbarkeit und die thermischen bzw. Stromverbrauchs-Verbesserungen konzentriert.

http://images.anandtech.com/graphs/graph4012/33984.png

y33H@
2010-12-04, 18:49:00
Single-Cycle-FP16 und Early-Z-Culling wurden verbessert, daher ist die GTX 580 der GTX 480 mehr voraus als nur das ALU- und Taktplus.

Gaestle
2010-12-04, 18:53:01
Und das sehe ich in der anandtech-Grafik wo? Nur bei HAWX und Dirt2?

LovesuckZ
2010-12-04, 18:59:35
Arma2 und NfS:Shift gehören ebenfalls zu den Spielen, die einen deutlichen Vorteil zeigen (ca.25%). In Crysis und Lost Planet 2 sind es dagegen nur ein paar Prozent (ca. 20% Vorsprung).

Raff
2010-12-04, 18:59:53
Und das sehe ich in der anandtech-Grafik wo? Nur bei HAWX und Dirt2?

In Spielen, wo die genannten Dinge wirken können (d.h. limitieren).

MfG,
Raff

Spasstiger
2010-12-04, 19:13:41
In der Anandtech-Grafik zeigt sich auch bei Battlefield und Metro 2033 ein Effekt.
Interessant wird ein taktbereinigter Vergleich mit der GTX 570, die hat ja 480 SPs wie die GTX 480. Man hat dann nur das Problem der ungleichen Pixelfüllrate (Speicherbandbreite kann man natürlich angleichen).

y33H@
2010-12-04, 19:34:17
Die Pixelfillrate hängt an den SMs, nicht an den ROPs. Ergo Bandbreite anpassen und gut ist's.

Ailuros
2010-12-04, 21:00:10
Für den Markt / Kunden spielt es aber keine Rolle. Da zählt was hinten rauskommt und das ist bei der 580 aller erste Sahne!

Mit dem Unterschied dass einige Leser eben nicht dem Otto-Normalverbraucher entsprechen und es doch hier und ein gewisses technisches Interesse gibt.

Coda
2010-12-04, 21:40:17
Die Pixelfillrate hängt an den SMs, nicht an den ROPs. Ergo Bandbreite anpassen und gut ist's.
Wat? Natürlich hängt die Pixelfüllrate an den ROPs.

Raff
2010-12-04, 21:50:22
Die Pixelfillrate hängt an den SMs, nicht an den ROPs. Ergo Bandbreite anpassen und gut ist's.

Wat? Natürlich hängt die Pixelfüllrate an den ROPs.

Er meint vermutlich das hier: Geforce GTX 470/480: Füllraten-Rätsel gelöst (http://www.pcgameshardware.de/aid,744470/Geforce-GTX-470/480-Fuellraten-Raetsel-geloest/Grafikkarte/Test/)

MfG,
Raff

AnarchX
2010-12-04, 21:50:36
In spite of having 48 ROPs the GeForce GTX 480 is limited to 32 pixels per cycle, or less. Strangely, at a higher clock, it is generally a hair’s breadth behind the GeForce GTX 285, with two exceptions. The first of these is with a single 32-bit channel surface where the GF100 does better. The second is with 128-bit blending that is very demanding in terms of bandwidth.

Strangely, while it is to be expected that the GeForce GTX 400s be limited upstream of their ROPs, this is a limitation lower down than we would have expected. What’s more, they can’t use all their ROPs at 64 and 128-bit formats. Nvidia told us that the reason for this extra limitation we noticed is linked to the datapath between SMs and ROPs.
http://www.behardware.com/articles/787-7/report-nvidia-geforce-gtx-480-470.html

2 Pixel pro SM.

Spasstiger
2010-12-04, 21:51:50
Kommt drauf an. Ohne AA limitieren die Raster-Engines (32 Pixel pro Takt), mit AA oder fp16/fp32 die ROPs (24 Pixel pro Takt mit fp16 ohne AA auf GTX 480/580, 12 Pixel pro Takt mit fp32).

Gaestle
2010-12-05, 14:46:08
In der Anandtech-Grafik zeigt sich auch bei Battlefield und Metro 2033 ein Effekt.
Interessant wird ein taktbereinigter Vergleich mit der GTX 570, die hat ja 480 SPs wie die GTX 480. Man hat dann nur das Problem der ungleichen Pixelfüllrate (Speicherbandbreite kann man natürlich angleichen).


Bei den von Dir genannten Spielen liegt das angesprochene "mehr" bei 3%. Diese drei Prozent bedeuten bei Battlefield ca. 1,3fps und bei Metro 0.7 fps. Für mich bedeutet das noch Messungenauigkeit, solange man da nicht mehrere Durchläufe mit gleichgerichtetem Ergebnis durchgeführt hat.

@Raff und y33h@
Early-Z? Kann da noch was verbessert werden? Das wird ja nun seit der Einführung auf der GF3 (?) ständig verbessert.
http://alt.3dcenter.org/artikel/2003/03-20_b.php

@Lovesuckz
Bei Crysis liegt der Vorspung bei Taktgleichheit laut anandtech bei 7%, also genau im "Soll".

Aber in Endeffekt ist es für mich persönlich als Konsument Wurscht, weil die 580 eben nicht mit 480er Taktraten ausgeliefert wird, sondern eben eine eigenständige Karte ist, die als Karte an sich einen Vorsprung von X gegenüber einer 480 hat.

LovesuckZ
2010-12-05, 15:53:44
@Lovesuckz
Bei Crysis liegt der Vorspung bei Taktgleichheit laut anandtech bei 7%, also genau im "Soll".

Aber in Endeffekt ist es für mich persönlich als Konsument Wurscht, weil die 580 eben nicht mit 480er Taktraten ausgeliefert wird, sondern eben eine eigenständige Karte ist, die als Karte an sich einen Vorsprung von X gegenüber einer 480 hat.

Anandtech.com ist nicht die einzige Seite, die heutzutage Benchmarks durchführt.
Hardware.fr misste z.B. ca. 20% Mehrleistung: http://www.hardware.fr/articles/806-14/dossier-nvidia-geforce-gtx-580-sli.html
Selbst 17% sind gut, weil es eine fast 1:1 Skalierung wäre.

Gaestle
2010-12-05, 17:39:36
Hardware.fr misste z.B. ca. 20% Mehrleistung:

Bei gleichem Takt?
Darum ging es doch. Dass der GF110 bei gleichem Takt schneller ist als "nur" der Vorsprung durch den zusätzlichen Shadercluster.

Dass die 580 im normalen Auslieferungszustand schneller ist, als eine 480 im normalen Auslieferungszustand und dabei noch kühler bleibt und weniger Strom verbraucht ist unbestritten.

Ailuros
2010-12-05, 17:44:54
Bei gleichem Takt?
Darum ging es doch. Dass der GF110 bei gleichem Takt schneller ist als "nur" der Vorsprung durch den zusätzlichen Shadercluster.

Dass die 580 im normalen Auslieferungszustand schneller ist, als eine 480 im normalen Auslieferungszustand und dabei noch kühler bleibt und weniger Strom verbraucht ist unbestritten.

Kann es sein dass Ihr beide uebersehen habt dass Anandtech im obrigen link rein ZUFAELLIG Crysis getestet hat und Hardware.fr Crysis Warhead?

Gaestle
2010-12-05, 17:49:36
Ähem ... ich für meinen Teil ja. Aber sind die Unterschiede zwischen beidem so groß?* Haben die Franzosen mit gleichem Takt getestet?

* Also mir ist klar, dass es unterschiedliche Games sind und dass die erreichbaren fps "out of the box" bei warhead höher sind als bei crysis. Die Frage nach dem Unterschied bezieht sich darauf, dass ein kleiner prozentualer Unterschied zwischen beiden Chips bei Crysis zu einem großen Unterschied bei Warhead wird?

Ailuros
2010-12-05, 17:57:16
Ähem ... ich für meinen Teil ja. Aber sind die Unterschiede zwischen beidem so groß?* Haben die Franzosen mit gleichem Takt getestet?

* Also mir ist klar, dass es unterschiedliche Games sind und dass die erreichbaren fps "out of the box" bei warhead höher sind als bei crysis. Die Frage nach dem Unterschied bezieht sich darauf, dass ein kleiner prozentualer Unterschied zwischen beiden Chips bei Crysis zu einem großen Unterschied bei Warhead wird?

Alles was Du braust ist ein review zu finden wo Crysis und Crysis Warhead auf dem gleichem System gebencht wurden. ***edit: ich muss mich selber korrigieren, denn Anand hat doch tatsaechlich Warhead gebencht in dem Test. Nach genauerer Uebersicht hat hw.fr enthusiast quality benutzt und Anand gamer quality + enthusiast shaders.

LovesuckZ
2010-12-09, 22:56:50
Laut jemanden auf dem Beyond3d.com Forum könnte die GTX560 schon am 24.01.2011 erscheinen:http://forum.beyond3d.com/showpost.php?p=1500892&postcount=7637

Fetza
2010-12-09, 23:01:04
http://www.behardware.com/articles/787-7/report-nvidia-geforce-gtx-480-470.html

2 Pixel pro SM.

Ist das eigentlich ein ernsthafter flaschenhals, der dem chip in zukunft ein problem bereiten könnte?

Hugo78
2010-12-09, 23:15:51
Laut jemanden auf dem Beyond3d.com Forum könnte die GTX560 schon am 24.01.2011 erscheinen:http://forum.beyond3d.com/showpost.php?p=1500892&postcount=7637

Na ich hoffe sie wird schon auf der CES in einem Monat vorgestellt. :)

ShinyMcShine
2010-12-10, 07:42:48
Ich hoffe auf die GTX 560 auch lieber früher als später... ;D

VG
Shiny

boxleitnerb
2010-12-10, 07:44:47
Sehr nice, Nvidia macht Druck! Was ich weniger schön finde, ist, dass die Verfügbarkeit inzwischen doch ziemlich abgesackt ist. Nur im Bereich 500 Euro und mehr findet man noch lieferbare Karten.

Die gelbe Eule
2010-12-10, 08:30:27
Ach Karten gibt es zur Zeit genug, die Verfügbarkeit ist bei uns mit zur Zeit 75 Karten sehr hoch. Nicht jeder gibt mal eben 350-450€ aus.

Dural
2010-12-10, 09:28:55
dann gib uns doch welche ab, wir haben ständig zu wenig da :eek:

die kommen hier immer nur häufchenweisse rein und gehen meistens auch gleich wider raus.

es gibt sogar krasse preis unterschide von nicht lieferbaren zu lieferbaren karten von über 60.- Euro

wer derzeit eine haben möchte muss hier tief in die tasche greifen!

AffenJack
2010-12-10, 11:43:29
Ach Karten gibt es zur Zeit genug, die Verfügbarkeit ist bei uns mit zur Zeit 75 Karten sehr hoch. Nicht jeder gibt mal eben 350-450€ aus.

Ich hoffe das macht sich bald in den preisen bemerkbar, dass durchgehend welche für 315€ lieferbar werden.

Die gelbe Eule
2010-12-11, 00:43:06
Eher nicht, weil gekauft werden sie auch zu den hohen Preisen. Kein Grund wegen Weihnachten schon an der Preisschaube zu drehen. Aber das liegt eben an der nächsten Woche was AMD drauf hat.

AnarchX
2010-12-12, 19:24:49
Not sure what the current rumours are, but I just heard one for GF114 releasing in late Jan, 384 SP, 775MHz core clock, 256bit bus, 200W load power consumption (gaming not Furmark) 150W TDP.
http://forum.beyond3d.com/showthread.php?p=1502541#post1502541

Bei linearer Skalierung wohl ~1GHz Speichertakt. Wohl gute 20% schneller als eine Referenz GTX 460 1GiB.

LovesuckZ
2010-12-12, 19:27:02
Das Ding wäre annährend 30% schneller als eine GTX460. GF1xx skaliert prächtig, selbst ohne höhrere Bandbreite.

Hugo78
2010-12-12, 19:28:02
Wäre man damit nicht schon 10-15% über der 470?

y33H@
2010-12-12, 19:28:45
336 auf 384 sind +14% und 675 auf 775 MHz sind +15%. Addiert +29%, in der Praxis schlagen eher +20 bis +25% durch. Das wäre auf Höhe einer GTX 470 oder HD 5870. Damit will man wohl der HD 6950 (oder was auch immer da noch kommen mag) Paroli bieten, da die GTX 470 EOL gehen dürfte.

AnarchX
2010-12-12, 19:29:42
15% mehr ROP/Front-End-Leistung
30% mehr ALU und Tex-Leistung
wohl 15-20% mehr ALU-Leistung

30% sind da schon wohl eher der Best-Case. Im Durchschnitt wohl knapp über 20%, was auch einen angemessenen Abstand zu GTX 570 erlaubt.

Interessanter ist, da doch was GF114 als wohl echter GF11x (GF110 ist ja nur GF100b ;)) mit sich bringen könnte im Bezug auf Die-Size-Optimierungen, Features und Leistungsoptimierungen.
Es wäre doch mal Zeit für eine Eyefinity Alternative von NV. ;)

Vento
2010-12-12, 19:30:20
Wäre man damit nicht schon 10-15% über der 470?

Mit +20% auf eine Referenz GTX 460 1GiB wäre man im Bereich einer 470er +1-2% je nach Setting bezogen auf 1680x1050 4xAA/8xAA, 1920x1200 4xAA.
Mit 30% wäre man schon im Bereich einer HD5870, je nach Auflösung und Setting darüber oder darunter.

Hugo78
2010-12-12, 19:31:04
Ein 565 mit GF110 wird damit unwahrscheinlicher.
Was macht NV dann mit all den schlechter als 480cores GF110 Chips?
Wandern die alle in Quadro Produkte? Schwer vorstellbar für mich.

LovesuckZ
2010-12-12, 19:31:07
336 auf 384 sind +14% und 675 auf 775 MHz sind +15%. Addiert +29%, in der Praxis schlagen eher +20 bis +25% durch. Das wäre auf Höhe einer GTX 470 oder HD 5870. Damit will man wohl der HD 6950 (oder was auch immer da noch kommen mag) Paroli bieten, da die GTX 470 EOL gehen dürfte.

Es schlagen sich die kompletten 29% durch, weil bis auf Bandbreite alles mitskaliert und die Architektur auf eine bestimmte Anzahl an SM pro Setup-Engine designt wurde. Und an Bandbreite mangelt es GF1xx nicht.

AnarchX
2010-12-12, 19:32:05
Ein 565 mit GF110 wird damit unwahrscheinlicher.
Was macht NV dann mit all den schlechter als 480cores GF110 Chips?
Wandern die alle in Quadro Produkte? Schwer vorstellbar für mich.
Quadro, Tesla und vielleicht eine neue GTX 500M.

Hugo78
2010-12-12, 19:35:08
Ja gut, als 500M wirds sicherlich viel Bedarf geben.

y33H@
2010-12-12, 19:44:10
Es schlagen sich die kompletten 29% durch, weil bis auf Bandbreite alles mitskaliert und die Architektur auf eine bestimmte Anzahl an SM pro Setup-Engine designt wurde. Und an Bandbreite mangelt es GF1xx nicht.Sofern du im absoluten GPU-Limit bist, ja. Nur ist das in der Praxis nicht immer der Fall, daher meine niedrigeren Werte.

LovesuckZ
2010-12-12, 19:48:42
Sofern du im absoluten GPU-Limit bist, ja. Nur ist das in der Praxis nicht immer der Fall, daher meine niedrigeren Werte.

Das CPU-Limit existiert bei den anderen Karten genauso.

Bucklew
2010-12-12, 19:48:50
Was macht NV dann mit all den schlechter als 480cores GF110 Chips?
Wandern die alle in Quadro Produkte? Schwer vorstellbar für mich.
Die kleinste Quadro mit GF100 hat 256 cores. Und hat ein doch leicht höheres Volumen als die Quadros da drüber ;)

AnarchX
2010-12-12, 20:16:54
Ja gut, als 500M wirds sicherlich viel Bedarf geben.
Ein 416/448SPs 320-Bit Upgrade für die GTX 480M(352SPs 256-Bit) wäre wohl durchaus sinnvoll, immerhin wird AMD mit Barts eine leistungsstarke HD 6900M präsentieren können.

Hugo78
2010-12-13, 00:05:50
Die kleinste Quadro mit GF100 hat 256 cores. Und hat ein doch leicht höheres Volumen als die Quadros da drüber ;)

Stimmt, diese Singleslot Quadro hab ich auch schon gesehen. ;)

Bucklew du bist doch an der Quelle...
Wie schauts denn allgemein aus mit den Stückzahlen im Profibereich aus?

Gewinn soll NV ja zu 2/3 nur dort machen, wobei ich davon ausgehe, dass hier auch das OEM Geschäft gemeint war.
Aber sind die Absatzzahlen der Fermi Quadros und Teslas merklich gestiegen, im Vergleich zu den Vorgängerversionen auf GT200 Basis und älter?!
Sprich gibts ne Reihe von Neukunden, über die bisherigen Quadro/Tesla Stammkunden hinaus?

Die Geschichte mit den Top500 Supercomputern ist ja schicke PR, aber ich frag mich, ob NV mit Fermi auch in der breiten Masse punkten und mehr Neukunden dafür interessieren konnte.

@AnarchX
Jo, Barts als 6900M ist vorstellbar, aber auch als mobile FirePro?

aths
2010-12-13, 09:43:32
336 auf 384 sind +14% und 675 auf 775 MHz sind +15%. Addiert +29%, in der Praxis schlagen eher +20 bis +25% durch. Das wäre auf Höhe einer GTX 470 oder HD 5870. Damit will man wohl der HD 6950 (oder was auch immer da noch kommen mag) Paroli bieten, da die GTX 470 EOL gehen dürfte.Nicht addieren, sondern multiplizieren.

1,14 * 1,15 = 1,311. Es sind also +31%.

y33H@
2010-12-13, 10:27:57
Ah, du hast Recht.

AnarchX
2010-12-13, 11:02:43
Ist die 775MHz 384SPs Karte nur eine GTX 555 oder GTS 550?

Hier meint man, die GTX 560 hätte 384SPs @875MHz, bei einem gutem Stromverbrauch: http://translate.google.de/translate?u=http%3A%2F%2Fitbbs.pconline.com.cn%2Fdiy%2F12275720.html&sl=zh-CN&tl=en&hl=&ie=UTF-8

dildo4u
2010-12-13, 11:06:41
Jeweils 15% zwischen 560-570-580?Dann dürfte man mit dem GF104 gegen die 6950 antreten.

AffenJack
2010-12-13, 11:17:18
875mhz? lol nee, das glaub ich auf keinen fall. Das ist viel zuviel, vor allem bei gutem Stromverbrauch und noch etwas luft nach oben die man lassen muss.

dildo4u
2010-12-13, 11:21:11
875mhz? lol nee, das glaub ich auf keinen fall. Das ist viel zuviel, vor allem bei gutem Stromverbrauch und noch etwas luft nach oben die man lassen muss.
Die GTX580 liegt schon bei 780 es ist eigentlich normal das das Midrange kleinere Chip's mit höherem Takt nutzen.Siehe z.b 9800GTX+(768mhz) und GTX 285.(650mhz)

AnarchX
2010-12-13, 11:24:59
In accordance with the Pharaoh explosion, GTX560, TDP 185W, 6 +6 PIN power supply interface, the core frequency of 875, shader in accordance with the Fermi rule of 1750, the full 384SP, 64TMUs, 32rop, these specifications have been estimated to be beyond the HD5870, and the GTX570 is not the gap between more than 20%
http://we.pcinlife.com/thread-1572757-1-1.html

Ailuros schrieb vor langer Zeit ja einmal, dass die GTX 560 sehr interessant werden würde.

Raff
2010-12-13, 11:25:11
Die GTX580 liegt schon bei 780 es ist eigentlich normal das das Midrange kleinere Chip's mit höherem Takt nutzen.Siehe z.b 9800GTX+(768mhz) und GTX 285.(650mhz)

Die 9800 GTX hatte 675 MHz, die 9800 GTX+/GTS 250 738 MHz Chiptakt.

MfG,
Raff

igg
2010-12-13, 11:27:12
Ailuros schrieb vor langer Zeit ja einmal, dass die GTX 560 sehr interessant werden würde.
weiß man wann die 560 kommen soll?

AnarchX
2010-12-13, 11:27:53
Etwa um den 24. Januar wird spekuliert.

LovesuckZ
2010-12-13, 11:29:37
Das da oben wäre dann schon 6950 Niveau.
Alleine um Char-Lie's Ausreden zu hören, warum dieser Chip schlecht wäre, sollte es wahr sein. :lol:

dildo4u
2010-12-13, 11:30:06
Die 9800 GTX hatte 675 MHz, die 9800 GTX+/GTS 250 738 MHz Chiptakt.

MfG,
Raff
Das Plus steht da. ;)

ShinyMcShine
2010-12-13, 11:33:58
GTX 560 @ 875MHz? :love2: :massa: :up:

Edit: Hmm, gerade mal durchgerechnet, mit dem Takt wäre die GTX 560 @ 384 SPs auf GTX 480 (ergo GTX 570) Niveau (außer bei der Speicherbandbreite). Also wohl keine Chance! 775 MHz erscheinen da dann doch realistischer...

VG
Shiny

V2.0
2010-12-13, 11:58:42
Power hungry and unmanufacturable. :D

AnarchX
2010-12-13, 13:19:59
Vielleicht stimmt die Taktrate, aber nicht die Zahl der SPs?
GF114 besitzt vielleicht weniger als 384SPs?

V2.0
2010-12-13, 13:33:03
So unmöglich finde ich 875 nicht, wenn man sieht dass kaum ein GF104 unter 800 bleibt. Als Ziel für die Entwicklung ist 875 denkbar. Da dies selten erreicht wird, kann ich mir echte 825mhz @ 384SP durchaus vorstellen.

Warum nicht so?

560 mit 384@825@256Bit
550 mit 336@750@256Bit

ShinyMcShine
2010-12-13, 13:56:39
Fällt der Abstand zur GTX 570 denn nicht zu gering aus, wenn eine GTX 560 mit 384SPs auf >825MHz läuft?

Gab es denn schonmal 'ne GPU von NV, die mit mehr als 800 MHz ab Werk kam? Ich kann mich an keine erinnern...

VG
Shiny

dildo4u
2010-12-13, 14:03:56
Fällt der Abstand zur GTX 570 denn nicht zu gering aus, wenn eine GTX 560 mit 384SPs auf >825MHz läuft?

Gab es denn schonmal 'ne GPU von NV, die mit mehr als 800 MHz ab Werk kam? Ich kann mich an keine erinnern...

VG
Shiny
Der Takt steigt mit jeder Generation es gab auch noch keine High-End Karte von NV mit 770mhz wie jetzt die GTX 580.Der Abstand wird bei 15% zur 570 liegen,die wiederum auch nur 15% unter der 580 liegt passt also.

AnarchX
2010-12-13, 14:43:26
Nun auch PHK:
http://translate.google.de/translate?u=http%3A%2F%2Fbbs.expreview.com%2Fthread-38537-1-1.html&sl=zh-CN&tl=en&hl=&ie=UTF-8
384SPs
875MHz
20. Januar
1GB VRAM

LovesuckZ
2010-12-13, 14:56:40
Das wäre fast die gleiche Rechenleistung wie eine GTX480 und deutlich mehr Texturleistung als die GTX580...

Klingt irgendwie unglaubwürdig. Aber interessant wäre es. Damit ginge man wohl locker gegen eine 6950.

ShinyMcShine
2010-12-13, 14:57:24
1.344 GFlops GTX 560 vs. 1.345 GFlops der GTX 480!
Also mit den Specs würde die Karte quasi ungesehen gekauft! ;D

igg
2010-12-13, 15:01:56
Das wäre fast die gleiche Rechenleistung wie eine GTX480 und deutlich mehr Texturleistung als die GTX580...
das lässt vermuten, dass da noch irgendein haken ist...

AnarchX
2010-12-13, 15:02:07
Das wäre fast die gleiche Rechenleistung wie eine GTX480 und deutlich mehr Texturleistung als die GTX580...

Vielleicht hat GF114 nur 48 TMUs. ;)

LovesuckZ
2010-12-13, 15:03:14
Vielleicht hat GF114 nur 48 TMUs. ;)

Wie soll das gehen? :confused:
Vielleicht gehen sie auch auf GF110/2.

V2.0
2010-12-13, 15:05:32
Geht von "Targets" aus. Bisher hat kaum einer seine Takt-Targets in 40nm TSMC erreicht.

AnarchX
2010-12-13, 15:05:33
Wie soll das gehen? :confused:

Vielleicht hat NV wieder an den Clustern etwas geändert.

Spekulativer GF114:
3 GPCs
12 Cluster ( 4 TMUs, 2x 16SPs, keine DP-fähige ALU, Super-Skalarität mit nur einem Dual-Port-Sheduler)

Oder Cluster mit 8 TMUs und 64SPs, eben den superskalaren Ansatz noch etwas ausgebaut um Die-Size zu sparen und Transistoren in Takt investieren zu können.

ShinyMcShine
2010-12-13, 15:05:56
Mit 48 TMUs wäre diese Karte ja exakt auf GTX 480 Level:
1.344 GFlops
21.000 MPix/s
42.000 MTex/s

Fehlt natürlich noch eine Angabe zum Speichertakt...

AnarchX
2010-12-13, 15:08:56
Auf dem Papier, in der Praxis könnte die Superskalarität und zwei Quad-TMUs an einem Cache bei GF114 etwas Leistung kosten.

Ailuros
2010-12-13, 15:09:00
Geht von "Targets" aus. Bisher hat kaum einer seine Takt-Targets in 40nm TSMC erreicht.

Cayman hat sie erreicht.

=Floi=
2010-12-13, 15:10:05
336 auf 384 sind +14% und 675 auf 775 MHz sind +15%. Addiert +29%, in der Praxis schlagen eher +20 bis +25% durch. Das wäre auf Höhe einer GTX 470 oder HD 5870. Damit will man wohl der HD 6950 (oder was auch immer da noch kommen mag) Paroli bieten, da die GTX 470 EOL gehen dürfte.

brainfuck? :freak:
du musst 114% mal den mehrtakt rechnen und das macht schon einen unterschied aus.

edit
in der praxis kann man die 560er sicherlich auch bis auf 900mhz prügeln und man verbaut auch ggf. noch einen besseren vram und erhällt somit eine deutliche steigerung und nicht "nur" +20%. Vielleicht wartet nv auch deswegen, um ati mit dem GF114 das wasser abzugraben. Dort kann nv noch nachlegen und man so die teurere konkurrenz ganz gut in schach halten. dann hat man auch mal den kleineren DIE und die günstigere karte, bei ähnlicher performance!


ja, ls hat hier recht. Die GF1XX skalieren wirklich erstaunlich gut mit dem takt.

AnarchX
2010-12-13, 15:10:26
Cayman hat sie erreicht.

Aus Erfahrung mit 40nm hat man wohl das Ziel etwas niedriger gesetzt?

Ailuros
2010-12-13, 15:16:17
Aus Erfahrung mit 40nm hat man wohl das Ziel etwas niedriger gesetzt?

Ich bezweifle dass AMD auch bei der 28nm Generation keine besonderen Takt-unterschiede haben wird.

Ich hab aber ein besseres Raetsel fuer's Publikum: wenn es je eine GX2 unter 40G geben sollte, welcher chip waere dafuer logischerweise attraktiver?

Deinorius
2010-12-13, 15:21:26
Vielleicht hat NV wieder an den Clustern etwas geändert.


Nachdem der GF110 praktisch keine Veränderung erfahren hatte, obwohl es soo viele Spekulationen dazu gab, sollen jetzt beim GF104 auch noch die Cluster verändert worden sein, obwohl dieser der erfolgreichste der Fermi-Reihe ist?

Ich hab aber ein besseres Raetsel fuer's Publikum: wenn es je eine GX2 unter 40G geben sollte, welcher chip waere dafuer logischerweise attraktiver?


GF104 bzw. GF114?

Godmode
2010-12-13, 15:26:21
Nachdem der GF110 praktisch keine Veränderung erfahren hatte, obwohl es soo viele Spekulationen dazu gab, sollen jetzt beim GF104 auch noch die Cluster verändert worden sein, obwohl dieser der erfolgreichste der Fermi-Reihe ist?




GF104 bzw. GF114?

Das ist die Frage! Man müsste wissen wieviel Strom ein GF104 im Vollausbau benötigt. Ich könnte mir vorstellen das zwei Dicke auf nem Board mit genug Untervolting auch nicht blöd wären.

V2.0
2010-12-13, 15:27:18
Für ne x² der GF114 und wenn der sich lohnen soll muss er schneller sein als GF104 in Form der 460, da Antilles sicher auf Cayman (Pro) aufbauen wird.

Deinorius
2010-12-13, 15:43:58
Das ist die Frage! Man müsste wissen wieviel Strom ein GF104 im Vollausbau benötigt. Ich könnte mir vorstellen das zwei Dicke auf nem Board mit genug Untervolting auch nicht blöd wären.


Vom Vollausbau brauchst nicht viel mehr erwarten, die paar SPs machen das Kraut nicht fett. Die Takterhöhung wird hier eher den Stromverbrauch antreiben.
Deswegen könnte ich mir zwei GF104/114 mit Vollausbau, aber niedrigerem Takt!, einigermaßen vorstellen. Aber das ist nur meine Meinung. ^^

Dural
2010-12-13, 15:57:18
es sind 15% mehr Leistung ca.



875MHz :eek:

also wenn die so kommen sollte... das wäre locker 6950 Leistung...

Ailuros
2010-12-13, 16:01:47
Für ne x² der GF114 und wenn der sich lohnen soll muss er schneller sein als GF104 in Form der 460, da Antilles sicher auf Cayman (Pro) aufbauen wird.

Wie Denorius schon notierte spart man viel mehr Watt mit niedrigerer Frequenz als einem deaktiviertem cluster. Man braucht sich lediglich die mGPUs der letzten Zeit dafuer ansehen.

Das einzige worueber ich immer noch ernsthaft zweifle ist dass NV eine mGPU mit <300W TDP gestalten kann die auch um wenigstens um einen Schnitt schneller ist als Antilles.

***edit: uebrigens http://forum.beyond3d.com/showpost.php?p=1502859&postcount=7675

Dural
2010-12-13, 16:06:02
Wie so den nicht, Cayman ist ja ein schluck specht schlecht hin, wahrscheinlich sogar mehr als eine GTX570...


Das dürfte für die Leistungs-Krone mit zwei selektierten 512SP / 48ROPs @ ca. 600MHz Chips locker reichen... rechnerisch wäre das sogar etwas mehr als zwei volle 5870 plus ein erheblicher DX11 vorteil und wenn sie das unter 300Watt oder etwas darüber bringen wäre das OK.


Edit:
Die 875MHz können kaum stimmen, das wäre ja schon fast GTX480 / GTX570 leistung, dürfte wohl eher um die 7xxMHz sein.

Ailuros
2010-12-13, 16:15:16
Das dürfte für die Leistung-krone mit zwei selektierten 512SP / 48ROPs @ ca. 600MHz Chips locker reichen... rechnerisch wäre das sogar etwas mehr als zwei volle 5870 plus ein erheblicher DX11 vorteil.

Eher ~550MHz und weniger ROPs aber was wuerde ich wohl darueber wissen heh...


Edit:
Die 875MHz können kaum stimmen, das wäre ja schon fast GTX480 / GTX570 leistung, dürfte wohl eher um die 7xxMHz sein.

Es duerften ueber 800MHz durchaus moeglich sein mit 200W vollem TDP; 875 ist mir dann schon etwas zu hoch.

Dural
2010-12-13, 16:16:19
die karte die im umlauf sind haben aber 48ROPs und 384Bit ;)

möglich JA, aber wo ist der sinn???

Leistungs-Ziel seitens NV dürfte nur die 6950 sein und die dürfte wenn überhaupt nur ganz knapp über der 5870 sein

Ailuros
2010-12-13, 16:23:33
die karte die im umlauf sind haben aber 48ROPs und 384Bit ;)

möglich JA, aber wo ist der sinn???

Wie waere es wenn Du Dir nochmal die 295 anschauen wuerdest? Weniger ROPs und daher geringere Busbreite koennten eventuell weniger Gesamt-speicher bedeuten, weniger Stromverbrauch und eventuell niedrigerer Preis. Sonst was die Frequenzen betrifft, Du brauchst etwas von ca. 170W TDP und nicht 190+.

Leistungs-Ziel seitens NV dürfte nur die 6950 sein und die dürfte wenn überhaupt nur ganz knapp über der 5870 sein

Meinst Du damit jetzt GF114? Dafuer brauchen sie keine 875MHz Frequenz. Vendors muessen auch noch ihren Spass haben bis zu dieser Frequenz und hoeher uebertakten zu koennen. Stets IMHO.

=Floi=
2010-12-13, 16:47:43
wie sieht es eigentlich mit dem GF110 bei den tesla und quadro karten aus? wird es hier auch ein mächtiges update geben? vor allem die höhere rechenleistung würde den karten gut tun.

V2.0
2010-12-13, 17:03:16
Wie Denorius schon notierte spart man viel mehr Watt mit niedrigerer Frequenz als einem deaktiviertem cluster. Man braucht sich lediglich die mGPUs der letzten Zeit dafuer ansehen.

Das einzige worueber ich immer noch ernsthaft zweifle ist dass NV eine mGPU mit <300W TDP gestalten kann die auch um wenigstens um einen Schnitt schneller ist als Antilles.

***edit: uebrigens http://forum.beyond3d.com/showpost.php?p=1502859&postcount=7675

Ich meinte auch nicht Cayman Pro, sondern eher einen Cayman XT stark selektiert und im Takt so reduziert, dass die Leistung noch unter der Pro liegen dürfte. Sagen wir -35% im Takt.

Kalmar
2010-12-13, 17:58:45
schon bekannt ? : http://www.pcgameshardware.de/aid,803978/Nvidia-Geforce-GTX-560-Technische-Daten-und-Release-Termin-aufgetaucht/Grafikkarte/News/

Laut dem User soll die Grafikkarte mit GF114-GPU über 384 Shader-Einheiten verfügen, das entspricht allen verfügbaren SIMDs der "Vorgänger-GPU" GF104. Diese Angaben decken sich mit Informationen, die schon vor einigen Wochen im Internet veröffentlicht wurden. Weiterhin hat der User bekannt gegeben, dass die GPU mit 875 MHz laufen soll und über 1.024 Megabyte Videospeicher verfügen wird

Dural
2010-12-13, 18:02:46
Wie waere es wenn Du Dir nochmal die 295 anschauen wuerdest? Weniger ROPs und daher geringere Busbreite koennten eventuell weniger Gesamt-speicher bedeuten, weniger Stromverbrauch und eventuell niedrigerer Preis. Sonst was die Frequenzen betrifft, Du brauchst etwas von ca. 170W TDP und nicht 190+.


Die GTX590 hat 48ROPs / 384Bit punkt :rolleyes:

1,5GB werden sie auch haben müssen, da Antilles ganz bestimmt mit 2GB daher kommt...

takt min. 600MHz

y33H@
2010-12-13, 18:03:00
Hat phk vorhin gebracht, wurde iirc verlinkt.

Dural
2010-12-13, 18:19:19
könnte mir sogar vorstellen das die GTX590 GPUs nicht mal alle 512SP aktiv haben, aber sicher nicht wegen dem verbrauch sondern um die kosten und stück-zahlen zu verbessern, 480SP würden bei so hochwertigen GPUs sicher einiges güstiger kommen bei fast keinem Leistungs-Verlust. halt je nach dem was NV mit dem GF110 so für eine ausbeute hat.

Bucklew
2010-12-13, 20:01:20
Bucklew du bist doch an der Quelle...
Wie schauts denn allgemein aus mit den Stückzahlen im Profibereich aus?
Genaue Stückzahlen muss ich aktuell leider passen ;)

Es läuft aber sehr gut, was zum Teil auch damit zu tun hat, dass natürlich viele Firmen während der Finanzkrise Investitionen zurückgefahren haben und jetzt nachholen.

AnarchX
2010-12-14, 18:28:02
875MHz waren wie vermutet doch etwas hoch:
820MHz/1640/4000MHz,384SP
http://bbs.expreview.com/thread-38537-1-1.html

Damit dürfte man wohl 25-30% schneller sein als eine GTX 460 1GB, sofern es keine größeren Architektur-Änderungen gibt.

LovesuckZ
2010-12-14, 18:30:47
875MHz waren wie vermutet doch etwas hoch:

http://bbs.expreview.com/thread-38537-1-1.html

Damit dürfte man wohl 25-30% schneller sein als eine GTX 460 1GB, sofern es keine größeren Architektur-Änderungen gibt.

Warum so pessimistisch? GF1xx skaliert prächtig mit Einheiten. Texturleistung, Tessellationleistung, Rechenleistung und Pixelleistung gehen ebenfalls hoch. Dazu kommt, dass die GPCs auf 4SM optimiert sind. Ich rechne mit 35%+.

Und 820Mhz sind selbst weitaus mehr als ich dachte. Damit geht man wirklich gegen Cayman Pro. Und das wäre ziemlich übel für AMD...

Ailuros
2010-12-14, 18:39:51
875MHz waren wie vermutet doch etwas hoch:

http://bbs.expreview.com/thread-38537-1-1.html

Damit dürfte man wohl 25-30% schneller sein als eine GTX 460 1GB, sofern es keine größeren Architektur-Änderungen gibt.

Pah! 820 sind sogar ein winziges Stueck ueber dem clock target. Und nein ich bin kein Hellseher ;)

Die GTX590 hat 48ROPs / 384Bit punkt :rolleyes:

Genauso wie GF114 angeblich auf 875MHz offiziell taktet....errrr Punkt?

1,5GB werden sie auch haben müssen, da Antilles ganz bestimmt mit 2GB daher kommt...

takt min. 600MHz

Antilles kommt wohl mit mehr...tschuldigung dass ich es nicht vergesse Doppelpunkt.

AnarchX
2010-12-14, 18:41:55
Diese Dual-GF110-Karte kam jedenfalls von Nvidia, wie man am PCB sieht: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=494593

Oder wurde diese, wie auch die GF104GX2 gecancelt?

mapel110
2010-12-14, 18:42:17
Wieso gibts überhaupt einen neuen Chip? GF104 hat also doch Fertigungs-Probleme?

AnarchX
2010-12-14, 18:44:38
Vielleicht konnte man die Transistordichte optimieren. Mit 5,3 Mio Tr. pro mm² liegt man deutlich hinter AMD.

Auch wäre ein Multi-Monitor-Support für >2 Displays nett.

Ailuros
2010-12-14, 18:50:45
Warum so pessimistisch? GF1xx skaliert prächtig mit Einheiten. Texturleistung, Tessellationleistung, Rechenleistung und Pixelleistung gehen ebenfalls hoch. Dazu kommt, dass die GPCs auf 4SM optimiert sind. Ich rechne mit 35%+.

Ein bisschen an Effizienz schnippelt das "superskalare" Zeug schon weg. Nicht besonders viel aber trotzdem. Irgendwo um die 30% duerfte das Resultat aber schon liegen. Mich wuerde interessieren ob vendor Initiativen mit 2GB Speicher etwas bringen koennten, aber viel Hoffnung mach ich mir da nicht.

Und 820Mhz sind selbst weitaus mehr als ich dachte. Damit geht man wirklich gegen Cayman Pro. Und das wäre ziemlich übel für AMD...

Clock target war afaik bei +/-800MHz. Von Herstellern wuerde ich aber durchaus 875-er OC Varianten erwarten. Ich sagte ja vor einiger Zeit dass GF114 das heisseste Eisen im GF11x Ofen sein wird.

Diese Dual-GF110-Karte kam jedenfalls von Nvidia, wie man am PCB sieht: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=494593

Oder wurde diese, wie auch die GF104GX2 gecancelt?

Ich hab nicht die blasseste Ahnung mit was NV intern herumexperimentiert fuer GX2's in letzter Zeit. Mir hoert sich nach wie vor eine GX2 mit 2*GF114 um einiges billiger an als 2*GF110. Der wichtigste Pluspunkt der ersten These ist dass die perf/W Relation insgesamt besser aussieht; unter der Vorraussetzung dass eine 114 bei 820MHz einen vollen TDP von 200W hat.

LovesuckZ
2010-12-14, 18:51:53
Ein bisschen an Effizienz schnippelt das "superskalare" Zeug schon weg. Nicht besonders viel aber trotzdem. Irgendwo um die 30% duerfte das Resultat aber schon liegen.

Das betrifft aber jegliche Konfiguration. Im Worst-Case steigt die Reichenleistung alleine aufgrund des zusätzlichen SM mit den 3 Vec16 Einheiten.

Ailuros
2010-12-14, 19:12:14
Das betrifft aber jegliche Konfiguration. Im Worst-Case steigt die Reichenleistung alleine aufgrund des zusätzlichen SM mit den 3 Vec16 Einheiten.

Fuer den Endverbraucher ist es zwar wurscht, aber ich habe das Gefuehl dass NV etwas mit dem "superskalarem" Zeug herum-experimentiert bis sie das Ganze auf quasi "2D" oder 4 Vec16 langfristig auf Trab bekommen.

LovesuckZ
2010-12-14, 19:15:07
Sie müssen ihr Design so oder so für die Zukunft ändern. Ist eben die Frage, ob sie schon auf 40nm einen Probelauf machen. Ich erwarte ehrlich, dass sie für 28nm genauso einen Sprung mit der Rechenleistung hinlegen wie mit der Geometrieleistung von GT200 auf GF100 (mir würde schon der halbe Sprung reichen :D).

V2.0
2010-12-14, 19:21:40
Riecht aber wie eine geile Karte. Wenn die ein PCB haben, dass so kompakt ist wie die 460 und dann wieder ne schöne Gigabyte SOC:

ShinyMcShine
2010-12-15, 07:54:31
Das Abschneiden der neuen Radeon HD 6950 (eigentlich regelmäßig vor der GTX 470) macht mir Hoffnung auf eine GTX 560 in ähnlichen Leistungsregionen. ;D
Wenn NV mit der GTX 560 eine Leistung ähnlich der alten GTX 470 anvisiert, dann kann das eigentlich nicht ganz passen, da NV sicher auch einen Counterpart zu dieser Karte haben will.
Außer natürlich die neue GTX 560 wäre wesentlich billiger als eine Radeon HD 6950. Aber in dieser niedrigeren Preisklasse wildern ja eigentlich noch die GTX 470 und GTX 460...

VG
Shiny

dildo4u
2010-12-15, 08:08:54
Das Abschneiden der neuen Radeon HD 6950 (eigentlich regelmäßig vor der GTX 470) macht mir Hoffnung auf eine GTX 560 in ähnlichen Leistungsregionen. ;D
Wenn NV mit der GTX 560 eine Leistung ähnlich der alten GTX 470 anvisiert, dann kann das eigentlich nicht ganz passen, da NV sicher auch einen Counterpart zu dieser Karte haben will.
Außer natürlich die neue GTX 560 wäre wesentlich billiger als eine Radeon HD 6950. Aber in dieser niedrigeren Preisklasse wildern ja eigentlich noch die GTX 470 und GTX 460...

VG
Shiny
Die 470 wird ende Januar verschwinden die 560 wird auf dem Level der 6950 liegen um 220€.

ShinyMcShine
2010-12-15, 08:33:15
Die 470 wird ende Januar verschwinden die 560 wird auf dem Level der 6950 liegen um 220€.

220€ für den NV-Counterpart zur 6950? Das wäre fast zu schön! :D
Wenn man sich die Leistung der 6950 so anschaut, ist ein Chiptakt von >= 800MHz für die GTX 560 gar nicht so abwegig. Hoffentlich hält die Karte, was ich mir von ihr verspreche. Bin auch gespannt auf den Stromverbrauch bei dem relativ hohen Takt... -> Argh, und dann dauert das noch mind. 4 Wochen bis die rauskommt (+ ein wenig Wartezeit, um nicht den Launchpreis zahlen zu müssen). ;(

VG
Shiny

boxleitnerb
2010-12-15, 11:19:13
Lässt sich die Power Control Unit deaktivieren? Ich glaube, ich hab dazu mal was gelesen, aber ich weiß nicht mehr wo.

LovesuckZ
2010-12-15, 11:20:22
Lässt sich die Power Control Unit deaktivieren? Ich glaube, ich hab dazu mal was gelesen, aber ich weiß nicht mehr wo.

Bei nVidia? Ja, zZ durch GPU-Z.

ShinyMcShine
2010-12-15, 11:21:59
Schon krass, dass AMD bei der 6950 auf 2GB VRAM setzt! :eek: Und dann noch so hoch getaktet, dass muss doch auch recht teuer sein? Trotzdem ist die 6950 relativ billig...
Ich kann mir aber nicht vorstellen, dass NV eine GTX 560 mit 2GB VRAM als Referenz rausbringen wird.
NV will ja der GTX 570 mit einer GTX 560 + 2GB VRAM nicht das Wasser abgraben. Bin gespannt wie lange es dauert, bis erste Custom-Designs mit 2GB VRAM rauskommen. In Abhängigkeit vom Referenzdesign muss ich dann wohl noch länger warten, bis ich mir die GTX 560 hole... :(

VG
Shiny

boxleitnerb
2010-12-15, 11:24:22
Bei nVidia? Ja, zZ durch GPU-Z.

Wo genau? Ist die Option nur sichtbar, wenn man eine 580/570 hat? Hast du bitte einen Screenshot?

AnarchX
2010-12-15, 11:26:47
Schon krass, dass AMD bei der 6950 auf 2GB VRAM setzt! :eek: Und dann noch so hoch getaktet, dass muss doch auch recht teuer sein? Trotzdem ist die 6950 relativ billig...

Man setzt eben auf die neuen 2GBit Chips, die mit 0,4ns 2011 wohl auf nahezu jeder schnelleren Karte zu finden werden sein. Eine Custom GTS 450 hat sie auch schon.

Imo sind aber die 2GiB in der <=250€ Klasse eher ein Nice-to-have und werden erst mit Crossfire/SLI sinnvoll.
Mal sehen ob Nvidia eine 2GiB 560 erlaubt, vielleicht gibt es im gleiche Zug 2,5/3GiB GTX 570/580.

ShinyMcShine
2010-12-15, 11:44:13
Für meine Auflösung (1920x1200) sollte 1GB auch erstmal genug sein. Extreme-Texture-Mods oder so benutze ich 'eh nicht.
Davon abgesehen will ich nicht auf Customdesigns mit 2GB VRAM warten müssen. ;)

Mich wundert es nur ein wenig, dass AMD bei der 6950 gleich 2GB einsetzt. Alleine die zusätzlichen Kosten dieses schnellen VRAM müssen doch gehörig an der Gewinnmarge nagen. Ich denke 1GB VRAM wäre hier erstmal die bessere Lösung gewesen.

VG
Shiny

LovesuckZ
2010-12-15, 11:57:20
Wo genau? Ist die Option nur sichtbar, wenn man eine 580/570 hat? Hast du bitte einen Screenshot?

Man muss es mit einem bestimmten Command-Befehl starten.
Sollte per Google auffindbar sein. Ich hab die Seite bzw. den Post nicht im Kopf. Schau einfach bei Wizzard ins GTX580 Review. Dort ist es glaube verlinkt.

boxleitnerb
2010-12-15, 12:07:46
Gefunden, danke.
http://www.techpowerup.com/forums/showthread.php?t=134458

Dural
2010-12-15, 12:09:50
Genauso wie GF114 angeblich auf 875MHz offiziell taktet....errrr Punkt?


Meinst du das NV ihr referenz GTX590 mit 384Bit über den haufen wirft nur weil es dem Herr Ailuros nicht passt???



Antilles kommt wohl mit mehr...tschuldigung dass ich es nicht vergesse Doppelpunkt.


und ich meinte logischerweisse 2x2GB, da steht es 3GB vs 4GB auf der Verpackung, mit allem andere kann NV eh nicht daher kommen

Die 384Bit sind schon auch nur auf die Bandbreite bezogen logisch, NV wird und kann der Speicher bei einer GX2 kaum so hoch takten (wegen den bekannten "problemen") wie es AMD macht, zu dem dürften die 384Bit energie technisch mit wenig takt ganz klar besser sein als eben anders rum.

Raff
2010-12-15, 12:20:06
Mich wundert es nur ein wenig, dass AMD bei der 6950 gleich 2GB einsetzt. Alleine die zusätzlichen Kosten dieses schnellen VRAM müssen doch gehörig an der Gewinnmarge nagen. Ich denke 1GB VRAM wäre hier erstmal die bessere Lösung gewesen.

VG
Shiny

Möglicherweise Taktik. Das ist ein Pluspunkt ("zukunftssicher"), auch verhilft es den Karten zum guten Abschneiden in Extremtests. Das war IMO die richtige Entscheidung.

MfG,
Raff

V2.0
2010-12-15, 12:42:29
Die 2GB waren eine Notwendigkeit um einen Vorsprung vor der 1GB 5870 zu sichern.

Iruwen
2010-12-15, 12:56:02
Hat ja toll geklappt :tongue:

scnr

LovesuckZ
2010-12-15, 12:57:54
Und man wollte nicht schlechter gegen nVidia stehen - eine 6970 mit 1GB für 329€? ...

ShinyMcShine
2010-12-16, 08:49:30
Die Aussage, dass 1GB wohl sinnvoller gewesen wäre, war nur auf die HD 6950 bezogen. ;)

Dass man der 6970 2GB mitgibt ist OK. Schliesslich kann man eine 6970 mit 1GB nicht gegen eine GTX 570 mit 1,25GB ranlassen. ;) Von daher also (zumindest auch marketingtechnisch :D) logisch, dass man 2GB auf die Karte packt.

Aber bei der 6950 wäre 1GB doch viel wirtschaftlicher gewesen. Schliesslich tritt man hier gegen eine (zukünftige) GTX 560 mit ebenfalls 1GB an. Und dass die 6950 2GB hat um gegen die alte HD 5870 in der 30" Auflösung zu gewinnen, halte ich dann eher für übertrieben.

VG
Shiny

Dural
2010-12-16, 09:17:40
bei der 6950 ist es doch das gleiche, man musste auf 2GB gehen weil sie sich nur so von der 5870 etwas absetzen kann, zudem die ganzen gegen Produkte alle schon min. 1GB und mehr haben zb. die GTX470

Da sind 2GB einfach der grössere anreitz um "aufzurüstens"

ShinyMcShine
2010-12-16, 09:38:03
Sicher sind 2GB ein zusätzlicher Anreiz aufzurüsten, aber in den Auflösungen bis 1920x1200 wird doch kein großer Unterschied zwischen 1GB und 2GB bei der 6950 bestehen, wenn man nicht gerade SSAA und/oder ExtremeTextureMods benutzt? Und dann reicht die Leistung der Karte 'eh nicht mehr... :wink:

Von daher denke ich, dass sich eine HD 6950 unter "normalen" Settings nicht besser gegen eine HD 5870 abetzt, egal ob 1GB oder 2GB.

Außerdem werden wahrscheinlich die wenigsten von einer 5870 auf eine 6950 gehen. Also liegt der Aufrüstungsanreiz wohl doch eher bei der Leistung (z.B. von 4870 auf 6950) als bei der Größe des VRAMs?

Natürlich nimmt man die 2GB gerne mit. Aber ich denke, AMD wäre besser gefahren, wenn man nur 1GB verbaut hätte, oder zumindest eine 1GB und 2GB Version der 6950 präsentiert hätte.

Aber egal, die AMD-Jungs werden schon wissen was sie tun. :)

VG
Shiny

N0Thing
2010-12-16, 13:08:50
Es läßt die neuen Karten besser aussehen und gerade uninformierte Kunden greifen gerne zu Karten mit mehr Grafikspeicher, sieht man ja schön an den Medion-PCs oder günstigen Notebooks, die neben schwacher Grafikkarte und CPU 2GB Grafikspeicher bieten und dies auch in Prospekten deutlich hervor gehoben wird.

igg
2010-12-19, 20:01:36
Weiß man denn schon in etwa wie nah die GTX560 an die GTX570 in Auflösungen wie 1920x1200 kommen wird? Die 460 hat, insbesondere mit OC, die 470 ja quasi kannibalisiert...

Spasstiger
2010-12-19, 22:24:52
Schlage 10-15% an Performance auf die GTX 460 1024 MiB drauf und du hast die GTX 560. Nach dem Computerbaserating in 1920x1200 mit 4xAA und 16:1 AF wäre dann die GTX 570 um ca. 35% schneller als die GTX 560. Es wird ab Werk definitiv keine OC-Varianten der GTX 560 geben, die einer GTX 570 Paroli bieten können. Dafür hat NV die GTX 570 zu stark (zu nahe an der GTX 580) ausgelegt. Entsprechend wird zwischen der GTX 560 und der GTX 570 auch immer eine große preisliche Lücke klaffen (imo GTX 560 ~150-200€, GTX 570 ~250-300€ im Laufe von 2011).

Mein Tipp für die GTX 560: 384 SPs, 64 TMUs, 256 Bit SI, 32 ROPs, 700 MHz Chiptakt, 1400 MHz Shadertakt, 1000 MHz Speichertakt (4 Gbps), 1 GiB VRAM. Die OC-Varianten dürften taktmäßig absolut gesehen ähnlich landen wie bei der GTX 460.

/EDIT: Wobei, wenn ich mir die HD 6870 anschaue, wird NV die GTX 560 wohl doch etwas stärker auslegen. Also evtl. gleich 750 MHz Chiptakt und mehr als 1000 MHz Speichertakt. Man darf natürlich nicht den Abstand zur GTX 570 zu klein werden lassen, um einen hohen Preis für die GTX 570 rechtfertigen zu können. Ein Verschleudern der GTX 570 für 200€ wie bei der GTX 470 wird es imo nicht geben. Man muss ja mit der GeForce-500-Serie das ganze Jahr 2011 überstehen mangels neuer Fertigungsprozesse.

Duplex
2010-12-19, 22:48:31
@Spasstiger
und was ist wenn die 560GTX auf dem GF110 basiert und 448 Shader hat, dann ist Sie aber stärker als vermutet, die muss nicht gleich auf dem GF104 basieren!

mapel110
2010-12-19, 22:54:48
Die 560er wird auf GF114 basieren.

airbag
2010-12-19, 22:55:57
@Spasstiger
und was ist wenn die 560GTX auf dem GF110 basiert und 448 Shader hat, dann ist Sie aber stärker als vermutet, die muss nicht gleich auf dem GF104 basieren!
Warum sollte sie ? Das würe keinen Sinn ergeben.

Spasstiger
2010-12-19, 22:56:03
So eine Karte wird imo GTX 565 heißen. Als Antwort auf die HD 6950 fehlt die natürlich noch. Auf Basis des GF104/GF114 wird man die HD 6950 nicht kontern können. Man darf nicht vergessen, dass die HD 6950 rund 40% schneller ist als die GTX 460 (CB-Rating 1920x1200, 4xAA, 16:1 AF: 38%). Und von 336 SPs auf 384 SPs gibts bestenfalls 14% mehr Performance, auf die 38% bräuchte man dann noch eine Chiptaktanhebung von mindestens 21%, das wären 817 MHz. Und dazu eine adäquate Speichertaktanhebung von 900 MHz auf 1250 MHz, was mit dem Fermi-IMC wohl nicht drin zu sein scheint. Ergo noch mehr Chiptakt (~900 MHz), was in einer ziemlichen Hitzeschleuder resultiert wie man an stark übertakteten GTX 460 sieht.
Ergo wird man die HD 6950 mit dem GF110 kontern.

AnarchX
2010-12-19, 23:05:51
Aber da ist kaum noch Platz zwischen der in Asien spekulierten GTX 560(384SPs, 64 TMUs, 256-Bit 825/1650/1000MHz) und der GTX 570.

Spasstiger
2010-12-19, 23:08:56
Ich kann mir nicht vorstellen, dass NV im Referenzdesign 825 MHz vorsehen wird. Darunter leidet die Energieeffizienz und das OC-Potential. Die GTX 460 ist unter anderem wegen diesen zwei Punkten so beliebt.
Zumal man mit 825/1000 MHz noch nicht in Schlagweite zur HD 6950 liegt, aber doch klar in der >200€-Klasse (schneller als HD 6870/GTX 470).
Eine GTX 565 auf GF110-Basis als HD-6950-Gegner klänge für mich durchaus plausibel. Dann muss sich die GTX 560 auf GF114-Basis auch nur auf die HD 6870 konzentrieren.

AnarchX
2010-12-20, 09:18:15
PHK als Quelle dafür ist aber nun eben ziemlich glaubwürdig.

http://bbs.expreview.com/data/attachment/forum/201012/20/143348huzo09ubv10uw0ah.jpg
http://bbs.expreview.com/thread-38732-1-1.html

TDP soll bei ~180W liegen, sodass GF114 vielleicht die Pro-Watt-Leistung auf AMD HD 5800/6950 Niveau bringt.

Dural
2010-12-20, 09:22:29
die GTX560 wird gegen die 6950 gestellt und da muss sie mit ca. 800MHz kommen, zwischen GTX460 und der 6950 liegen 38%

Die einheiten machen ca. ein plus von +14% aus

der rest macht eben der takt von 675 auf 820MHz aus, das sind mal eben +22%

(man weis schon länger das Fermi mit mehr Einheiten und Takt exelent skaliert)


dann noch die GF114 verbesserungen, die villeicht auch noch etwas bringen...


Das alles zusammen ergibt ziemlich genau die 38% ;)


Gegen die 6870 wird dann ein GF114 mit 336SP und so gestellt...

aths
2010-12-20, 11:14:38
Weiß man denn schon in etwa wie nah die GTX560 an die GTX570 in Auflösungen wie 1920x1200 kommen wird?In etwa zu 80-85%.

AnarchX
2010-12-20, 11:43:21
Gegen die 6870 wird dann ein GF114 mit 336SP und so gestellt...
Vielleicht aber auch ein 384SPs Chip mit den 460 Taktraten bzw. nur sehr knapp darüber, der durch verbesserte Pro-Watt-Leistung mit 1x 6-Pin auskommt. Hier ist die 6850 immer noch konkurrenzlos.

Die GTX 560 wird sich mit diesen Taktraten aber wohl eher zwischen 6870 und 6950 setzen und hier mit Preis, Tess-Leistung und Features punkten.

Dural
2010-12-20, 12:14:09
Nein glaub ich nicht, da wird NV lieber etwas mit 336SP brigen



TDP soll bei ~180W liegen, sodass GF114 vielleicht die Pro-Watt-Leistung auf AMD HD 5800/6950 Niveau bringt.


das hatte GF104 schon immer! man sah es bei der GTX460 nur auf den ersten Blick nicht, dank weniger Einheiten und ziemlich wenig takt, der Peak wert liegt beim GF104 deutlich höher als eben die 675MHz

Die ideale Pro-Watt-Leistung dürfte beim GF104 um die 750MHz sein, mit 384SP wären das ca. 25% mehr Leistung zur GTX460 mit ca. 10-15Watt mehr Verbrauch als diese


GF110 hat das jetzt fortgesetzt und GF114 / GTX560 wird es ganz Offiziell machen ;) obwohl die 800MHz+ da sicher etwas an der Effizients kratzen wird...

fondness
2010-12-20, 16:23:53
PHK als Quelle dafür ist aber nun eben ziemlich glaubwürdig.

http://bbs.expreview.com/data/attachment/forum/201012/20/143348huzo09ubv10uw0ah.jpg
http://bbs.expreview.com/thread-38732-1-1.html

TDP soll bei ~180W liegen, sodass GF114 vielleicht die Pro-Watt-Leistung auf AMD HD 5800/6950 Niveau bringt.

Die Bandbreite steigt ja da schonmal gar nicht. Die GTX460 hat ja auch 1000Mhz oder? Mal sehen wieviel Leistung da Schlussendlich übrig bleibt. IMO zu wenig für eine 6950.

y33H@
2010-12-20, 16:31:10
+40% sind halt eine Hausnummer. 384 ALUs und 820 MHz sind 1,14*1,22= +39%, allerdings nur +11% mehr Bandbreite - wenngleich Fermi da selten dran klebt. Dennoch wird das für die HD 6950 nicht reichen, sondern die GTX 560 wohl etwas darunter landen.

airbag
2010-12-20, 17:22:35
Die Bandbreite steigt ja da schonmal gar nicht. Die GTX460 hat ja auch 1000Mhz oder? Mal sehen wieviel Leistung da Schlussendlich übrig bleibt. IMO zu wenig für eine 6950.
Nein nur 900 Speichertakt. Also wird bei gleichbleibenden SI die Speicherbandbreite ansteigen.

Thunder99
2010-12-20, 17:36:54
+40% sind halt eine Hausnummer. 384 ALUs und 820 MHz sind 1,14*1,22= +39%, allerdings nur +11% mehr Bandbreite - wenngleich Fermi da selten dran klebt. Dennoch wird das für die HD 6950 nicht reichen, sondern die GTX 560 wohl etwas darunter landen.
Also doch die bessere "470", bin dann gespannt wie hoch die 470 getaktet werden muss damit sie +/- der GTX560 entspricht (für das Gewissen :D )

AwesomeSauce
2010-12-20, 17:50:54
Da muss ich meinen Fake GPU-Z Screen, den ich letzte Woche erstellt habe, gar nicht mehr in Umlauf bringen:D
http://www.abload.de/thumb/gf114_gtx560wt29.png (http://www.abload.de/image.php?img=gf114_gtx560wt29.png)

Thunder99
2010-12-20, 17:54:49
Da muss ich meinen Fake GPU-Z Screen, den ich letzte Woche erstellt habe, gar nicht mehr in Umlauf bringen:D
http://www.abload.de/thumb/gf114_gtx560wt29.png (http://www.abload.de/image.php?img=gf114_gtx560wt29.png)
Der sieht aber echt aus :eek: , bis auf der Tatsache, dass GPU-Z die Karte eigentlich net kennen sollte :D

AwesomeSauce
2010-12-20, 17:56:40
Hoffen wir, dass das Datum etwa hinkommt;) Es ist so simpel, diese Screens zu faken. Ich glaube mittlerweile keinem GPU-Z Screen mehr. Bisschen Buchstaben und Ziffern vertauschen und fertig ist der nächste Foren-Aufschrei.

Dural
2010-12-21, 00:20:30
es wird reichen, die 6950 liegt im schnitt zwischen 30 bis 38% über der GTX460, ausser bei 2560x1600 da dürfte man mit 1GB probleme gegen die 2GB bekommen.

Obwohl es gibt ja schon jetzt 2GB GTX460 karten... mal schauen ob es NV auch bei der 560 erlaubt. Man wird mit 820MHz aber auf jedenfall in direkter schlag distanz zur 6950 sein.


jedenfalls wird man einen ziemlichen kassen schlager mit der GTX560 auf den markt bringen, preislich dürfte diese karte sehr gut aufgestellt sein.


offentlich diesmal mit 3-Way SLI :) mit 2GB Karten könnte das eine sehr interessante variante was kosten/verbrauch/leistung anbelangt sein.

boxleitnerb
2010-12-21, 07:11:05
Also mit der Speicherbestückung bin ich nicht so zufrieden. 1.5GB scheint ein guter Kompromiss zu sein, aber gerade für SLI und Downsampling/SSAA ist es doch etwas zu wenig. Eigendesigns mit 3GB gibts wohl nicht und selbst wenn, passen keine Wasserkühler drauf.
Hoffentlich kommt da mit der nächsten Generation mehr von Haus aus.

aths
2010-12-21, 12:06:01
Also doch die bessere "470", bin dann gespannt wie hoch die 470 getaktet werden muss damit sie +/- der GTX560 entspricht (für das Gewissen :D )Die 470-er ist 0-15% langsamer.

offentlich diesmal mit 3-Way SLI :)Daran glaube ich nicht. In diesem Segment bietet Nvidia traditionell das normale 2-way SLI.

AnarchX
2010-12-21, 12:11:17
Eigendesigns mit 3GB gibts wohl nicht und selbst wenn, passen keine Wasserkühler drauf.
Hoffentlich kommt da mit der nächsten Generation mehr von Haus aus.
Sind genügend 2GBit Speicherchips am Markt, wie sie die HD 6900 schon verwenden, steht einen Speicherverdopplung ohne Design-Änderungen nichts im Wege.

Insofern könnte wohl Nvidia im Frühjahr 2011 die Erlaubnis an die Partner geben die VRAMs der GTX 500 zu verdoppeln.
Aber vielleicht preschen bei der GTX 560 schon die üblichen Verdächtigen wie Palit/Gainward und Zotac schon zum Launch mit einer 2GiB Version vor.

Man kann wohl davon ausgehen, dass AMD mit einer 6950 1GiB für <250€ kontern könnte.

Hugo
2010-12-21, 12:22:41
für mich stellt sich die Frage ob GF114 der gleiche Chip wie GF104 ist?
könnte man da mit einem Bios der GTX560 die GTX460 zur GTX560 flashen um das fehlende SM freizuschalten?

AnarchX
2010-12-21, 12:24:59
GF114 ist mindestens eine neue Revision, wenn nicht noch etwas mehr.

Und die Tage des BIOS-Freischalten sind lange vorbei, mittlerweile werden die Cluster bei Lasercut deaktiviert.

Hugo
2010-12-21, 12:26:05
ja das ist mir klar, aber bis jetzt war es nicht nötig bei der GTX460 zu cutten weil es ja keinen vollen Chip gab um das Biosflashen zu versuchen

GTX465 --> GTX470 ging ja auch ;)

AnarchX
2010-12-21, 12:29:56
GTX465 --> GTX470 ging ja auch ;)
Aber nur bei bestimmten Herstellern, welche dies als Werbeaktion genutzt haben. Diese freischaltbaren Karten, waren vollwertigen GTX 470 GPUs mit 465 BIOS. Die echten 465 GPUs kamen mit Lasercut von TSMC.

Hugo
2010-12-21, 12:30:27
ja ich weiß, aber vielleicht gehts ja auch bei der GTX460?

AnarchX
2010-12-21, 12:37:37
ja ich weiß, aber vielleicht gehts ja auch bei der GTX460?
Wie gesagt wird das BIOS nicht passen.

Hugo
2010-12-21, 12:43:41
aber wissen kannst du's nicht oder?

Iruwen
2010-12-21, 13:08:12
Bist du mit Horn 12 verwandt?

aths
2010-12-21, 13:53:46
aber wissen kannst du's nicht oder?Die 560-er ist ein anderes Produkt. Das kann gar nicht passen, selbst wenn die GPU pinkompatibel ist. Außerdem ist hardcodiert, welcher Cluster abgeschaltet wurde. Die als 465 getarnten 470-er waren eine Möglichkeit, das Produkt 465 schneller auf den Markt zu bringen bevor die richtigen 465-er fertig waren.

boxleitnerb
2010-12-21, 14:02:04
Sind genügend 2GBit Speicherchips am Markt, wie sie die HD 6900 schon verwenden, steht einen Speicherverdopplung ohne Design-Änderungen nichts im Wege.

Insofern könnte wohl Nvidia im Frühjahr 2011 die Erlaubnis an die Partner geben die VRAMs der GTX 500 zu verdoppeln.
Aber vielleicht preschen bei der GTX 560 schon die üblichen Verdächtigen wie Palit/Gainward und Zotac schon zum Launch mit einer 2GiB Version vor.

Man kann wohl davon ausgehen, dass AMD mit einer 6950 1GiB für <250€ kontern könnte.

Das wäre sehr lecker, gerade für SLI. :smile:

Spasstiger
2010-12-21, 15:55:34
Hab mal ein wenig rumgerechnet, die GTX 560 wird nach den bekannten Daten wohl knapp unter 30% schneller als die GTX 460, was schon ein kräftiger Sprung wäre. Damit platziert man sich zwischen der Radeon HD 6870 und der Radeon HD 6950. Die Frage ist dann, ob die HD 6870 oder die HD 6950 vom NV-Marketing als Gegner der GTX 570 auserkoren wird oder ob man vielleicht einen "a class of its own"-Seitenhieb an AMD richtet.

Rating nach meiner Rechnung:

http://www.abload.de/img/gtx560r9fy.png

Und als Referenz die letzten beiden CB-Ratings:

http://www.abload.de/img/cb_ratings9ar0.png

AnarchX
2010-12-21, 16:06:22
Wie sähe denn die Leistung mit 4,4-4,8 Gbps GDDR5 aus?
Es ist aber schon ärgerlich, dass Nvidia soviel Potential beim Speicher nicht ausschöpfen kann. Für die 4Gbps wird wohl wieder 4,8Gbps Speicher verbaut.

san.salvador
2010-12-21, 16:08:24
Auf meiner 460 machts fast gar keinen Unterschied, ob der Ram mit 1800Mhz oder mit 2050Mhz läuft. Da dürfts nicht viel zu holen geben.

Spasstiger
2010-12-21, 16:14:58
AMD hat ja zwei verschiedene GDDR5-Interfaces, eines für ~4 Gbps Speichertakt (Barts, Redwood) und eines für 5-6 Gbps (Juniper, Cypress, Cayman). NV kann wohl nur mit AMDs Sparvariante aufwarten und geht dafür mehr in die Breite.
Damit die GTX 560 in meiner Rechnung mit der HD 6950 gleichzieht, müsste man der GTX 560 rund 1350 MHz schnellen Speicher (5,4 Gbps) mitgeben. Also 35% schnelleren Speicher als den Gerüchten nach geplant für 6% mehr Performance, die zur HD 6950 fehlen.
Geht man nur über den Chiptakt und belässt den Speichertakt bei 1000 MHz, müsste man von 820 MHz auf 890 MHz hochgehen, um mit der HD 6950 gleichzuziehen. Bei OC-Varianten kann ich mir diese Taktung durchaus vorstellen.
D.h.
GTX 460 OC (ab Werk) = HD 6870
GTX 560 OC (ab Werk) = HD 6950

AnarchX
2010-12-21, 16:21:02
Da könnte die spekulierte 875MHz GTX 560 OC wohl schon reichen.

Fragt sich nur wie die Preisgestaltung und AMDs Reaktion aussehen wird.

dildo4u
2010-12-21, 16:23:41
AMD hat ja zwei verschiedene GDDR5-Interfaces, eines für ~4 Gbps Speichertakt (Barts, Redwood) und eines für 5-6 Gbps (Juniper, Cypress, Cayman). NV kann wohl nur mit AMDs Sparvariante aufwarten und geht dafür mehr in die Breite.
Damit die GTX 560 in meiner Rechnung mit der HD 6950 gleichzieht, müsste man der GTX 560 rund 1350 MHz schnellen Speicher (5,4 Gbps) mitgeben. Also 35% schnelleren Speicher als den Gerüchten nach geplant für 6% mehr Performance, die zur HD 6950 fehlen.
Geht man nur über den Chiptakt und belässt den Speichertakt bei 1000 MHz, müsste man von 820 MHz auf 890 MHz hochgehen, um mit der HD 6950 gleichzuziehen. Bei OC-Varianten kann ich mir diese Taktung durchaus vorstellen.
D.h.
GTX 460 OC (ab Werk) = HD 6870
GTX 560 OC (ab Werk) = HD 6950
Die Ausrichtung wäre nicht schlecht und die 560 hat @ default kein Gegner.
Auch sind die Reviews dann positiver was Stromverbrauch angeht,alle testen die default Karte gekauft wird OC die natürlich mehr verbrauchen.

Spasstiger
2010-12-21, 16:32:03
Gegen die HD 6950 kann ich mir eine GTX 565 vorstellen mit 448 SPs und 256-Bit-SI @ GTX-570-Taktraten. Damit würde sie in meiner Rechnung mit der HD 6950 gleichziehen.

Hugo
2010-12-21, 16:35:26
Bist du mit Horn 12 verwandt?

meinst du mich?

dildo4u
2010-12-21, 16:35:31
Gegen die HD 6950 kann ich mir eine GTX 565 vorstellen mit 448 SPs und 256-Bit-SI @ GTX-570-Taktraten. Damit würde sie in meiner Rechnung mit der HD 6950 gleichziehen.
Denke sie werden 560 OC dagegen setzen für die GTX 470 gibt auch kein Ersatz gegen die 6870.

Hugo78
2010-12-21, 17:05:26
Damit die GTX 560 in meiner Rechnung mit der HD 6950 gleichzieht, müsste man der GTX 560 rund 1350 MHz schnellen Speicher (5,4 Gbps) mitgeben. Also 35% schnelleren Speicher als den Gerüchten nach geplant für 6% mehr Performance, die zur HD 6950 fehlen.

Warum sollte die Bandbreite einen so dramatischen Einfluss auf die Gesamtleistung der GTX 560 bis 1920 @ 4xAA haben?

Ich mein, die Bandbreite zb. der GTX 570 (152.000 MB/s) ist kleiner als die der 5870 (153.600 MB/s) und 6950 (160.000 MB/s), dennoch ist die GTX 570 bedeutend schneller.
Auch hat die 570 zb. nur 80% der Bandbreite und ROPs der 480, aber +4% Rechenleistung.
Und schau ich mir die Benchmarks an, dann seh ich da erst ab 2560 @ 8xAA einen Einbruch bei der 570, im Vergleich zur 480.

Ich frag mich hier einfach, ab wann die Bandbreite der bestehenden Rechnenleistung den Fermis auf die Füsse tritt, wenn die Fermis insgesamt mit weniger Bandbreite wunderbar klar gekommen sind bis jetzt.
Also ich seh die 128GB/s für die 560 nicht als so dramatisch an.

Spasstiger
2010-12-21, 18:02:53
Warum sollte die Bandbreite einen so dramatischen Einfluss auf die Gesamtleistung der GTX 560 bis 1920 @ 4xAA haben?
Was heißt hier dramatisch? Genau das Gegenteil ist der Fall. In meiner Rechnung führen 35% mehr Bandbreite bei der GTX 560 zu 6% mehr Performance.
Dagegen reichen 8,5% mehr Chiptakt für denselben Effekt.

Dural
2010-12-21, 18:30:42
die bandbreite hat bei den fermi karten fast gar keinen einfluss, AMD benödigt mittlerweilen mehr bandbreite als NV bei selber leistung

sie auch GTX570 vs GTX480 und GTX580 vs GTX480

Die einheiten und takt skaliert fast zu 100% ohne die bandbreite im gleichenmass anzuheben.


Es ist erstaunlich wie krass effizients die Fermi Architektur hier ist!

Hugo78
2010-12-21, 20:44:37
Was heißt hier dramatisch? Genau das Gegenteil ist der Fall. In meiner Rechnung führen 35% mehr Bandbreite bei der GTX 560 zu 6% mehr Performance.
Dagegen reichen 8,5% mehr Chiptakt für denselben Effekt.

Wie rechnest du die Bandbreite rein?
Und wie berechnet man bei den Fermis überhaupt die benötigte Bandbreite für eine gewisse Rechenleistung?!
Wenn man die reine Mehrleistung durch Takt und Cores sieht, dann wären wir doch schon bei +38,6% für die 560 gegenüber der 460.

675 zu 820 MHz = +21,4% mehr Chiptakt
336 zu 384 CC = +14,2% mehr Einheiten

1,214*1,142 = 1,386 = 38,6%

Und die Bandbreite steigt um 11,1% (900Mhz zu 1000Mhz bzw. 115.200 MB/s zu 128.000MB/s).

Und wie gesagt, mit Blick auf die 570, ist halt die Frage ob das nicht am Ende völlig ausreicht um das Mehr an Rechenleistung der 560 zubedienen,
in den Auflösungen und AA Stufen die für die Zielgruppe mit 22", 24 u. 26" TFTs.

Hier haben wir ja nicht immer +38% für die 6950, eher 31-38%.
- http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6970-und-hd-6950/26/#abschnitt_performancerating_mit_aaaf
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=38279&d=1292960480

Spasstiger
2010-12-21, 20:54:10
Ich setze verschiedene Eckdaten ins Verhältnis und rechne diese über ein gewichtetes geometrische Mittel zusammen. Als Referenzpunkte nehme ich das CB-Rating @ 1920x1200, 4xAA, 16:1 AF. Würde ich ein anderes Setting nehmen, hätte auch die GTX 560 nicht 29% Vorteil gegenüber der GTX 460, sondern weniger (siehe z.B. auch die GTX 570 im Vergleich zur GTX 460). Mir gehts hier auch nicht Schönrechnerei der Radeon HD 6950, die ist hier nur der Vollständigkeit halber aufgeführt. Mein eigentliches Anliegen war es, die GeForce GTX 560 innerhalb der GeForce-GTX-400/500-Familie einordnen bei optimaler "Performanceausbeute" in realen Spielen. Das ist beim CB-Rating in 1920x1200 mit 4xAA und 16:1 AF der Fall, dort haben die schnelleren GeForces den größten Vorteil gegenüber der GTX 460 ohne dass die VRAM-Menge reinspielt (es liegt ein lokales Maximum vor).

Ailuros
2010-12-21, 21:10:49
die bandbreite hat bei den fermi karten fast gar keinen einfluss.

Dann muessten alle Fermi Varianten mit der gleichen Bandbreite auskommen.

AMD benödigt mittlerweilen mehr bandbreite als NV bei selber leistung.

Deshalb sind Architekturen auch unterschiedlich.

sie auch GTX570 vs GTX480 und GTX580 vs GTX480

GTX480 = 177 GB/s
GTX470 = 134 GB/s

GTX580 = 192 GB/s
GTX570 = 152 GB/s

Zwischen den beiden Familien hat sich die Bandbreite wohl doch gesteigert und ich sehe auch keinen besonderen Bandbreiten-Abstand zwischen einer 570 und einer 6970.

Die einheiten und takt skaliert fast zu 100% ohne die bandbreite im gleichenmass anzuheben.

Es ist erstaunlich wie krass effizients die Fermi Architektur hier ist!

Bandbreite skaliert wie immer und auf allen GPUs. Ich sehe hier wirklich nichts besonderes.

http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6970-und-hd-6950/26/#abschnitt_performancerating_mit_aaaf

Dank 2GB Framebuffer bewegen sich die 6900-er in ziemlich gefaehrlichen Bereichen in 2560 mit AA. Da helfen die 192GB/s Bandbreite der GTX580 auch nicht mehr viel wie man sehen kann.

Ich setze verschiedene Eckdaten ins Verhältnis und rechne diese über ein gewichtetes geometrische Mittel zusammen. Als Referenzpunkte nehme ich das CB-Rating @ 1920x1200, 4xAA, 16:1 AF. Würde ich ein anderes Setting nehmen, hätte auch die GTX 560 nicht 29% Vorteil gegenüber der GTX 460, sondern weniger (siehe z.B. auch die GTX 570 im Vergleich zur GTX 460). Mir gehts hier auch nicht Schönrechnerei der Radeon HD 6950, die ist hier nur der Vollständigkeit halber aufgeführt. Mein eigentliches Anliegen war es, die GeForce GTX 560 innerhalb der GeForce-GTX-400/500-Familie einordnen bei optimaler "Performanceausbeute" in realen Spielen. Das ist beim CB-Rating in 1920x1200 mit 4xAA und 16:1 AF der Fall, dort haben die schnelleren GeForces dem größten Vorteil gegenüber der GTX 460 ohne dass die VRAM-Menge reinspielt (es liegt ein lokales Maximum vor).

Nach der KISS Logik wird eine GTX560 irgendwo auf GTX470 Niveau liegen. Passt alles schoen in einen Satz :P

Spasstiger
2010-12-21, 21:15:01
Nach der KISS Logik wird eine GTX560 irgendwo auf GTX470 Niveau liegen. Passt alles schoen in einen Satz :P
Ich kann dir gerade nicht folgen. Aber die GTX 560 wird mit 820 MHz sicherlich schneller als eine GTX 470.

Dural
2010-12-22, 09:02:09
GTX470 ist ja wohl ein witz, das erreichen ja schon GTX460 OC karten...



und nach mal die speicherbandbreite ist beim Fermi fast egal, siehe auch GTX580 vs GTX480,

Man hat da im schnitt durch die Einheiten und mehr Takt ziemlich exakt die maximale mehrleistung von +18% erziehlt OHNE die bandbreite im selben umfang zu steigern (+10%)


Oder GTX460 768MB vs GTX460 1024MB, da hat man eine krass bandbreiten einschränkung, ist der Karte aber fast egal... Die grösseren einschränkungen sind hier eindeutig die nur 768MB Speicher und nur 24ROPs

Auch Speicher OC bringt beim Fermi so gut wie nichts, also bitte hört mit dem auf, die GTX560 wird mit ihren 128GB/s sicher keine grosse Probleme bekommen.


Ziehl dürfte mit 384SP und 820MHz eindeutig die 6950 (1GB) sein und nichts anderes und mit OC versionen mit bis zu 900MHz (?!) wird man die auch locker packen...

Gegen die 6870 wird dann die GTX460 OC gestellt (wie schon jetzt) oder was neues im 5xx System, dazwischen gibt es bis jetzt noch nichts.

V2.0
2010-12-22, 09:13:35
Die Bandbreite ist auch bei NV nicht egal, allerdings weniger limitierend als bei ATI. Allerdings ist es auch absolut möglich, dass NV den IMC beim GF114 so überarbeitet hat, dass sie die notwendige Bandbreite haben um die erwünschte Leistung zu erreichen. So gesehen sehe ich Bandbreite momentan nicht als Thema.

ShinyMcShine
2010-12-22, 09:37:04
Gibt's denn einen Test wo GTX470 mit GTX570 bzw. GTX480 mit GTX580 bei gleicher Speicherbandbreite gebencht wird? Dann wüßte man doch, wieviel Prozent der Leistungssteigerung auf die Erhöhung der Speicherbandbreite geht.
Einfach 'ne GTX570/580 ein wenig heruntertakten ist ja kein Problem... ;)

VG
Shiny

Ailuros
2010-12-22, 21:51:53
GTX470 ist ja wohl ein witz, das erreichen ja schon GTX460 OC karten...

Wenn Du wirklich erwartest dass die 560 die GTX570 in die Ecke jagt be my guest.

und nach mal die speicherbandbreite ist beim Fermi fast egal, siehe auch GTX580 vs GTX480,

Und noch mal es ist eben nicht egal. Wenn Du nicht einsehen kannst dass zwischen GT4xx und GT5xx die Bandbreite Seite an Seite mit der Leistung skaliert kann ich auch nicht weiterhelfen.

GT5xx hat mehr Bandbreite auf allen Varianten. Waere Fermi wirklich die Bandbreite scheissegal muesste auch eine GTX580 mit nur 177GB/s auskommen koennen.


Oder GTX460 768MB vs GTX460 1024MB, da hat man eine krass bandbreiten einschränkung, ist der Karte aber fast egal... Die grösseren einschränkungen sind hier eindeutig die nur 768MB Speicher und nur 24ROPs

Bei so wenig Speicher wuerde auch keine Uebermenge an Bandbreite helfen. Siehe auch vorigen CB Link wo die 6970 verdammt nahe an die GTX580 kommt in 2560 mit 8xAA trotz mehr Bandbreite bei der zweiten.

Auch Speicher OC bringt beim Fermi so gut wie nichts, also bitte hört mit dem auf, die GTX560 wird mit ihren 128GB/s sicher keine grosse Probleme bekommen.

Ach darum geht es die ganze Zeit. Natuerlich sind die 128GB mehr als genug fuer eine GTX560. Es ist aber auch keine high end GPU. Wenn eine 570 >150 und eine 580 >190GB/s Bandbreite haben dann reichen fuer eine 560 dann 128GB vollkommen aus. Aendert aber nichts am obrigen :P

Ich kann dir gerade nicht folgen. Aber die GTX 560 wird mit 820 MHz sicherlich schneller als eine GTX 470.

Koennen wir uns einig werden dass die GTX560 logischerweise nicht gleich schnell oder schneller sein kann und darf als eine GTX570 bzw. GTX480? Wenn ja treffen sich die Linien irgendwo schon. Und wenn jetzt das Resultat um pissat 5% schneller sein sollte als eine GTX470 aendert sich am Ende doch nichts.

Hugo78
2010-12-22, 23:41:25
Die Frage die sich für mich bei der 560 stellt, ist garnicht primär die, nach der Leistung.
Sondern ob NV sich eventuell doch bewegt und sein NVS oder auch SLI 3D Vision Surround Segment, kannibalisiert und drei statt nur zwei Monitore/ Karte "erlaubt".

Man muss ja leider von "erlaubt" sprechen, denn möglich wäre wohl schon jetzt, mehr als nur zwei.

Dural
2010-12-23, 09:06:50
lächerlich, schon eine GTX460 @ ca. 8x0MHz ist so schnell wie eine GTX470, wer alles ernstes behaubtet das eine 384SP @ 820MHz gleich schnell wie eine GTX470 ist hat keine ahnung von was er spricht, wohl noch nie im leben ein fermi in der hand gehabt.....


übrigens zwischen GTX470 und der 6950 liegen nicht ein mal 15%....................... :rolleyes:

Die GTX560 mit den angeblichen 384SP und 820MHz wird in direkter schlag distanz zur 6950 sein Punkt aus schluss.

vorallem wer sagt was von GTX570?!? nur um etwas nachhilfe unterricht zu gewähren GTX570 = 6970

so das wars von mir zu dem thema...

AnarchX
2010-12-23, 09:12:13
Man muss ja leider von "erlaubt" sprechen, denn möglich wäre wohl schon jetzt, mehr als nur zwei.
Wie kommst du darauf?

Hugo78
2010-12-23, 12:22:17
@AnarchX
Na Zotac macht es mit seiner 460 3DP ja vor, dass sogar 4 Monitore gleichzeitig gehen bei einer Geforce.
Und da liegt die Vermutung nah, dass man sich bei NV sein NVS Quadro Segment nicht kaputt machen will, mit einer ganz ähnlichen Lösung im Consumerbereich.
Die natürlich deutlich günstiger würde.

So eine NVS 450 steuert 4 Displayports mit je 2560*1600 an und kostet 420€.
So teuer wird wohl kein anderes Produkt mit einem G98 sein.
http://www.nvidia.de/object/product_quadro_nvs_450_de.html

Ich hab jedenfalls keine andere, sinnvolle Erklärung dafür, warum NV bei den Geforces nicht schon längst einen 3. Monitor "erlaubt", wenn andere, ältere Produkte längst mit 4 daher kommen.

AnarchX
2010-12-23, 12:27:32
@AnarchX
Na Zotac macht es mit seiner 460 3DP ja vor, dass sogar 4 Monitore gleichzeitig gehen bei einer Geforce.

Aber auch nur weil ein spezieller Chip verbaut ist, der eine Display-Pipeline auf 3 Displayports aufteilt. Beschränkungen sind eine fehlende Rahmenanpassung und die gleiche Auflösung auf allen 3 Displays an diesem Chip.


So eine NVS 450 steuert 4 Displayports mit je 2560*1600 an und kostet 420€.
So teuer wird wohl kein anderes Produkt mit einem G98 sein.
http://www.nvidia.de/object/product_quadro_nvs_450_de.html

Auf der NVS 450 wurden zwei G98 verbaut.


Ich hab jedenfalls keine andere, sinnvolle Erklärung dafür, warum NV bei den Geforces nicht schon längst einen 3. Monitor "erlaubt", wenn andere, ältere Produkte längst mit 4 daher kommen.
Der Grund sind eben nur zwei Display-Pipelines bei bisher allen GeForce GPUs, AMD hat Eyefinity nicht umsonst so geheim gehalten.
Aber vielleicht bringt eine der GF11x-GPUs auch mehr als zwei Pipelines mit.

Hugo78
2010-12-23, 12:32:54
Oh ... hmm ... na dann.

Leonidas
2010-12-23, 17:45:52
Schlage 10-15% an Performance auf die GTX 460 1024 MiB drauf und du hast die GTX 560. Nach dem Computerbaserating in 1920x1200 mit 4xAA und 16:1 AF wäre dann die GTX 570 um ca. 35% schneller als die GTX 560.


Wenn die 560 auch nur halbwegs bei 820/1640/2000 liegt, dann kommt sie auf deutlich mehr Performance als die 460, nicht nur 10-15% mehr. Eher sind es 20-30% mehr, siehe auch hier:

http://www.3dcenter.org/dateien/abbildungen/2010-12Dez-14.png

Das reicht, um der 570 ziemlich nahe zu kommen - nicht gänzlich, aber möglicherweise nur 10-15% von dieser weg.




+40% sind halt eine Hausnummer. 384 ALUs und 820 MHz sind 1,14*1,22= +39%, allerdings nur +11% mehr Bandbreite - wenngleich Fermi da selten dran klebt. Dennoch wird das für die HD 6950 nicht reichen, sondern die GTX 560 wohl etwas darunter landen.


Möglicherweise reicht das für nVidia aber aus, möglicherweise wollen sie lieber eine Karte im Bereich 220 Euro als eine im Bereich 250 Euro, welche den Preisen der 570 zu nahe kommt. Bei Preisgleichheit nimmt der uniformierte Käufer ja sowieso die 6950 wegen deren 2 GB - ergo ist es für NV möglicherweise besser, bewußt einen niedrigeren Preispunkt anzustreben.





Gegen die HD 6950 kann ich mir eine GTX 565 vorstellen mit 448 SPs und 256-Bit-SI @ GTX-570-Taktraten. Damit würde sie in meiner Rechnung mit der HD 6950 gleichziehen.


Unwahrscheinlich in diese Richtung hin, daß zwischen 560 und 570 preislich eigentlich zu wenig Platz für eine weitere Karte ist.

Nicht unwahrscheinlich deshalb, weil es u.U. GF110-Chips gibt, die selbst mit 480SE (570) nicht laufen und die bei weiterer Runterschraubung der Hardware-Einheiten noch verkauft werden könnten anstatt auf die Halde zu müssen.

Allerdings reicht für die 6950, wenn die 560 diese knapp nicht erreicht, auch die 560er OC-Versionen, dafür wird kein neue Karte nötig.

Ailuros
2010-12-23, 18:14:28
lächerlich, schon eine GTX460 @ ca. 8x0MHz ist so schnell wie eine GTX470, wer alles ernstes behaubtet das eine 384SP @ 820MHz gleich schnell wie eine GTX470 ist hat keine ahnung von was er spricht, wohl noch nie im leben ein fermi in der hand gehabt.....

Sachlich beim Thema (was Dir anscheinend immer weniger zu gelingen scheint): die GTX560 wird nicht schneller sein als eine GTX570.


Die GTX560 mit den angeblichen 384SP und 820MHz wird in direkter schlag distanz zur 6950 sein Punkt aus schluss.

Punkt, aus und schluss wird es erst nach der Veroeffentlichung der GTX560 sein. Um die Relativierung zu konkurrierenden Produkten geht es mir gar nicht. Mir geht es lediglich darum wie sich die 560 in der GT5xx Familie Leistungsmaessig platzieren wird. Unter der GTX570 oder anders unter der GTX480.

Der momentan eingeschaetze Abstand zur 570 duerfte sich irgendwo zwischen -10-15% bewegen.

Aber wenn Du schon eine Relativierung mit der 6950 hoeren willst, die letztere wird als ziemlich teuer erscheinen.

vorallem wer sagt was von GTX570?!? nur um etwas nachhilfe unterricht zu gewähren GTX570 = 6970

Es reicht einen Blick zu werfen wie sich die Leistung von ganz oben (GTX580) bis ca. zur Mitte (GTX560) verwalten wird. Ich erwaehnte die GTX570 um zu zeigen wo in etwas das Ding liegen wird.

BigKid
2010-12-24, 20:46:30
Auch auf die Gefahr hin Öl in die Feuer zu giessen:
Aber ich dachte bisher auch, dass eine GTX460@850 einer GTX470@Stock in vielen Szenarien gefährlich wird. Und dass der Chip diese Frequenzen recht problemlos erreicht spricht imho dafür das NVidia ihn klein gehalten hat um did GTX470 zu schonen.
Also 15% durch mehr SPs und der Rest ist nix was OClern fremd wäre - vermutlich ? Oder ?

=Floi=
2010-12-25, 07:13:09
die 460er mit 1024mb vram ist überdurchschnittlich stark geraten und hat die volle anzahl an rops. Das könnte die steigerung zu einem vollen GF114er doch ein wenig abschwächen. Trotzdem wird die karte ein super rummer früs geld und ich könnte mir vorstellen, dass man sie für 180€ verkaufen wird. Die 570er hat schon noch genug vorteile und mit der zeit wird diese karte sich immer mehr von der 560er absetzen. Das sah/sieht man ja zB auch an der 9600GT im vergleich mit dem G92.

AnarchX
2010-12-25, 10:01:46
So viel Gewinn wird die 460 1G aus ihrem 256-Bit SI und den 32 ROPs nicht ziehen, wenn man denn Abstand zur 768M Version betrachtet.

Ausgehend davon könnte man folgendes projizieren, 460 768 vs 560 1G:
+ 40% TMU/ALU
+ 62% ROPs
+ 48% Bandbreite

Damit liegt man wohl gut ~30% über der 460 1G(10% schneller als 768M) und wohl bei ~95% der Leistung einer HD 6950.

ShinyMcShine
2010-12-25, 12:00:16
Ist denn ein Launchpreis von weniger als sagen wir 230 EUR realistisch, wenn eine Leistung von ca. 95% einer HD6950 zu Buche steht?

VG
Shiny

Dural
2010-12-25, 12:41:25
ich diskutiere sicher nicht sachlich mit irgend welchen leuten die ganz offensichtlich keinen plan haben... und ständig irgend was von GTX570 quaseln wo von hier bis jetzt nie irgend jemand was gesagt hat oder was mit dem Thema zu tun hat...

wo die GTX560 mit diesen Daten (820MHz / 384SP) hin kommt ist sonnen klar, der gegner wird 6950 1GB heissen und die OC versionen der 560 werden ziemlich sicher gleich schnell wie diese sein.

Man kann ja alles schön ausrechnen, die GTX560 ist dank GTX460 keine unbekannte und Fermi skaliert fast perfekt mit mehr Einheiten und Takt auch wenn man halt nur rund + 10% mehr Bandbreite hat.


Jedenfalls zeigt so eine starke GTX560 mit diesen Daten (820MHz / 384SP) wie gut die Ausbeute seitens GF110 doch sein muss, den sonst würde NV sicher eine 448SP Karte als 6950 gegner auf den Markt werfen die mit der 560 und 570 jetzt aber komplett weg fällt, vielleicht kommt ja doch noch irgend eine OEM version mit 560 leistung (wie damals GTX465...), wer weis das schon...


übrigens sollten sich mal die 820/1000MHz noch bestätigen..... bevor man hier noch weiter "krieg" führt ;)

Ailuros
2010-12-25, 22:59:34
ich diskutiere sicher nicht sachlich mit irgend welchen leuten die ganz offensichtlich keinen plan haben... und ständig irgend was von GTX570 quaseln wo von hier bis jetzt nie irgend jemand was gesagt hat oder was mit dem Thema zu tun hat...

Die GTX570 ist ein Mitglied der GF11x Familie; siehe Threadtitel. Wie sich innerhalb einer solchen Produkt-Familie X Variante leistungs- und preis-maessig platziert in Relation zu allen anderen hat ziemlich viel mit dem Thema zu tun.

wo die GTX560 mit diesen Daten (820MHz / 384SP) hin kommt ist sonnen klar, der gegner wird 6950 1GB heissen und die OC versionen der 560 werden ziemlich sicher gleich schnell wie diese sein.

Kann man auch aus AMD's Produkt-Platzierung sehen bei der Cayman-Ankuendigung.

Man kann ja alles schön ausrechnen, die GTX560 ist dank GTX460 keine unbekannte und Fermi skaliert fast perfekt mit mehr Einheiten und Takt auch wenn man halt nur rund + 10% mehr Bandbreite hat.

Der Ironie zu Liebe ist Bandbreite nach der Speichermenge einer der wichtigsten Faktoren der eine GTX560 nicht dazu helfen wird ihre Beine in Bereiche groesserer GF11x Modelle zu strecken.

Jedenfalls zeigt so eine starke GTX560 mit diesen Daten (820MHz / 384SP) wie gut die Ausbeute seitens GF110 doch sein muss, den sonst würde NV sicher eine 448SP Karte als 6950 gegner auf den Markt werfen die mit der 560 und 570 jetzt aber komplett weg fällt, vielleicht kommt ja doch noch irgend eine OEM version mit 560 leistung (wie damals GTX465...), wer weis das schon...

Schon A1 (tape out ohne metal spin) zeigt dass GF110 meilenweit weniger Probleme als GF100 hat. 14 cluster chips brauchen sie sowieso fuer Quadro 6000 und da ist es wohl auch ziemlich wurscht bei den Verkaufspreisen der Quadros selbst wenn sie im Notfall SMs deaktivieren.

GF114 ist ein leicht umgewuerfelter GF104 mit leicht weniger die area.

übrigens sollten sich mal die 820/1000MHz noch bestätigen..... bevor man hier noch weiter "krieg" führt ;)

Die einzige wahre Bestaetigung wird mit NV's offizieller Ankuendigung ankommen. Ich verstehe nichts von "Kriegen"; wer will kanns sich mit sich selber auseinandersetzen. Frohe Weihnachten.

=Floi=
2010-12-26, 15:36:02
gibt es nun die GF110 auch bei den quadros nd bei den tesla karten? warum gibt es dort kein takt update?

Ailuros
2010-12-26, 19:53:06
gibt es nun die GF110 auch bei den quadros nd bei den tesla karten? warum gibt es dort kein takt update?

Dazu muesste man wissen ob sie noch GF100 chip inventory haben. Kann auch sein dass sie nichts aendern und zu einem stillen Uebergang gehen.

OgrEGT
2010-12-28, 09:15:35
Wie stehen aktuell die Gerüchte, wann die GTX560 das Licht der Welt erblicken wird? Q1 2011 ist wohl ziemlich sicher, aber eher Anfang, Mitte oder Ende?

mapel110
2010-12-28, 09:21:58
Wie stehen aktuell die Gerüchte, wann die GTX560 das Licht der Welt erblicken wird? Q1 2011 ist wohl ziemlich sicher, aber eher Anfang, Mitte oder Ende?
Ende Januar munkelt man iirc.

ShinyMcShine
2010-12-28, 12:41:38
Der 20.01. steht mal als Datum im Raum.

VG
Shiny

dildo4u
2010-12-28, 17:29:22
http://tof.canardpc.com/view/6fa7192a-f1c5-449a-bf6b-999fde3494b3.jpg

=Floi=
2010-12-28, 17:40:13
nur 3 phasen... :(

y33H@
2010-12-28, 18:30:06
Schickes Teil.

V2.0
2010-12-28, 18:44:29
Spannungswandlerkühler im Referenzdesign sind immer gut :)

Iruwen
2010-12-28, 19:21:40
Hatten bei der GTX 460 die Reviewkarten nicht auch Spawakühler und die Retailmodelle nicht mehr? Und waren dann auch noch lauter?

Hugo78
2010-12-28, 19:24:31
Nur bei dem Rotz von Palit/Gainward.

OgrEGT
2010-12-30, 11:26:56
Ende Januar munkelt man iirc.

Der 20.01. steht mal als Datum im Raum.
VG
Shiny

OK. Danke!

Spasstiger
2010-12-30, 14:04:15
Wenn die 560 auch nur halbwegs bei 820/1640/2000 liegt, dann kommt sie auf deutlich mehr Performance als die 460, nicht nur 10-15% mehr. Eher sind es 20-30% mehr, siehe auch hier:
Als ich das von dir Zitierte geschrieben habe, wusste ich noch nix von den 820 MHz GPU-Takt und bin von 675-700 MHz ausgegangen. 20% mehr Takt ändern mein Bild natürlich auch.

aths
2010-12-30, 15:19:10
übrigens sollten sich mal die 820/1000MHz noch bestätigen..... bevor man hier noch weiter "krieg" führt ;)Wenn man die Taktreserven der GTX 460 kennt, klingt "820 MHz" nicht unglaubwürdig. Das kennt man ja von Nvidia inzwischen: Nach einer etwas merkwürdigen Generation (welche neue Technologie einführt) kommt dann eine sehr ausgereifte.

ShinyMcShine
2010-12-31, 12:13:10
Hier mehr Gerüchte:

NordicHardware (http://www.nordichardware.com/news/71-graphics/41979-geforce-gtx-560-launches-january-25th.html?)

Bright Side Of News (http://www.brightsideofnews.com/news/2010/12/29/geforce-gtx-560-to-debut-in-1q-2011.aspx)

Guten Rutsch!

VG
Shiny

Hugo78
2010-12-31, 13:46:41
930-940Mhz als Ø OC Potential hört sich schonmal sehr ordentlich an. =)

ShinyMcShine
2010-12-31, 13:54:32
Auch der anvisierte Lauchpreis von 260€ ist nicht schlecht! Ich denke mal, die GTX560 wird wieder ein hervorragendes P/L-Verhältnis haben. :cool: Außerdem läßt der Preis noch gut Raum für lecker Custom-/OC-Versionen bis zum Preis der GTX570 (ca. 320€).
Evtl. werden die OC-Versionen für um die 300€ (soviel ist in meinem "Budget" für die Grafikkarte nächstes Jahr drin) wieder gut an die GTX570 ranreichen. ;D

VG
Shiny

Raff
2010-12-31, 13:59:27
Wie gesagt, wenn die Angaben stimmen, dann wird das zwar eine feine Karte im 250-Euro-Bereich, aber nichts, das man nicht auch jetzt schon haben kann. Jede (bevor einer flamed: ok, fast jede ;)) gut gekühlte GTX 460 stemmt mit etwas Overvolting etwa 900/1.800/2.100 MHz, was der GTX 560 entspräche. Ja, letztere lässt sich dann auch übertakten – aber wer gibt denn für 20 Prozent das Doppelte aus?

MfG,
Raff

Hugo78
2010-12-31, 14:03:46
Och die 560 wird nach 4-5 Wochen sicherlich auf 200€ gefallen sein.
Allein schon, weil ne 6950 aktuell ab 240€ zuhaben ist.

Nakai
2010-12-31, 14:13:27
Mhh, das Problem das ich hier sehe ist, dass man mit einer GTX560 seeeehr nahe an einer GTX570 liegen würde.
(384/336)*(820/675) = 1,39

Linear skaliert natürlich fast nichts.
GTX 560 wäre damit etwa 35% schneller als eine GTX460. Übertaktet man noch weiter, auf etwa 920, dann erreicht man etwa 50% mehr als eine GTX460, was einer GTX480/GTX570 entspricht(jedenfalls von den theoretischen Werten). Ein schneller Speicher ist natürlich auch unverzichtbar.

Die letzte Karte die mich von NV wirklich überzeugt hat, war die Geforce 9800 GTX(+). Die GTX560 sieht aber wirklich verdammt sexy aus.
Man zielt wohl direkt auf die HD6950 ab.
In den unteren Auflösungen wird man die HD6950 mehr als oft zersägen, aber in hohen Auflösungen kommt die Füllrate der ATI-Karten öfter zum Tragen.
Wird jedenfalls sehr interessant.=)


mfg

Spasstiger
2010-12-31, 14:17:46
Ich hab den Vorteil der GTX 560 zur GTX 460 mal auf 30% geschätzt (über Quervergleiche mit bestehenden Karten). Die GTX 570 ist 50% schneller als die GTX 460.
Imo wären bei der GTX 560 rund 950 MHz Chiptakt nötig, um mit der GTX 570 gleichzuziehen. Ab Werk halte ich diesen hohen Takt für unrealistisch. Imo werden die stark übertakteten Varianten ab Werk mit 880-890 MHz daherkommen.

Dural
2010-12-31, 14:58:20
Die GTX570 wird man mit GTX560 OC sicher packen, das konnte man ja auch schon mit der GTX460 OC vs GTX470

Preislich wohl aber eher richtung 200.- Euro anstelle der 300.- Euro


Die 6950 mit 240.- Euro ist aber wohl mit der GTX560 kaum deutlich zu übertreffen.

Zudem ich stark davon ausgehe das die 560er mehr verbraucht als die 6950, dazu sind die 820MHz wohl etwas zu viel des guten, man wird es ja sehen!


Aber auch da lässt sich wie bei der GTX480 ---> GTX580 sicher auch sagen, wie so um alles in der welt nicht gleich so! ;)


Eins ist sicher, ein GTX560 SLI unter Wakü @ 1GHz dürfte sicher ziemlich reinhauen und das zum GTX580 Preis...


Ich werde wohl mein GTX460 @ 900MHz SLI durch zwei GTX560 ersetzten, Ideal wäre 2GB Karten aber das werden wir ziemlich sicher nicht sehen, mal schauen...

horn 12
2010-12-31, 16:38:17
Nun, bis die GTX 560 kommt haben die Mehrzahl der Insider welche nicht warten konnten/ besser WOLLTEN bereits eine HD6950/ oder gar 6950 gemodded auf HD6970 und dies zu 240-260 Euro Maximal !!
Zudem ist der Preis der GTX etwas zu hoch für 260 Euro, da auch nur 1GB Ram verbaut.

Die HD6950 ist wohl derzeit der Sieger, aber was in einem Moant ist, da kann NV auch wieder vorne sein.

Hugo78
2010-12-31, 18:31:24
Zudem ich stark davon ausgehe das die 560er mehr verbraucht als die 6950, dazu sind die 820MHz wohl etwas zu viel des guten, man wird es ja sehen!

Das 2. AMD Rev. Muster einer 6950 bei HT4U ist auch kein über Sparfuchs, erreicht 465 Verbrauchslevel.
http://ht4u.net/reviews/2010/amd_radeon_hd_6970_6950_cayman_test/index22.php

Wer weiß wie nah die ersten Reviewmodelle am unterstem Ende der Stabilität befeuert (Vcore) wurden.
Es fällt ja schon auf, dass die 6950 soviel sparsamer als eine 6970 ist, obwohl die Leistungsunterschiede nicht der Art groß sind.

ShinyMcShine
2011-01-01, 14:46:37
Laut HIER (http://www.gamestar.de/hardware/news/grafikkarten/2320173/nvidia_geforce_gtx_560.html) soll die GTX560 für 250$ starten. Was wäre das denn momentan in Euro?
Wenn man dann noch die Launchphase abwartet, sollte ja eine GTX560 im Referenzdesign nochmal 15% weniger kosten oder?
Somit wäre die GTX560 wohl wirklich deutlich billiger als eine HD 6950...

VG
Shiny

Coda
2011-01-01, 14:51:18
250$ sind ~190€, aber sie werden trotzdem 250€ kosten ;)

aths
2011-01-01, 15:05:51
Das 250$ sind ~190€, aber sie werden trotzdem 250€ kosten ;)250 USD sind umgerechnet ca. 230 Euro. (+19% Mehrwertsteuer.)

Nakai
2011-01-01, 15:10:38
Zudem ich stark davon ausgehe das die 560er mehr verbraucht als die 6950, dazu sind die 820MHz wohl etwas zu viel des guten, man wird es ja sehen!



HD6950 ist ja kein Vollausbau des Cayman. Das er wohl weniger verbraucht als der Vollausbau einer GF114, sollte nicht verwundern.

Es fällt ja schon auf, dass die 6950 soviel sparsamer als eine 6970 ist, obwohl die Leistungsunterschiede nicht der Art groß sind.

Der Verbrauchswert wird schon dramatisch durch den Takt beeinflusst. Der Verbrauch steigt ja exponentiell mit dem Takt. Je nach Umstände, kann eine 10%-Taktreduzierung um die 20% Stromersparnis liefern.

Iruwen
2011-01-01, 17:53:47
Der Verbrauchswert wird schon dramatisch durch den Takt beeinflusst. Der Verbrauch steigt ja exponentiell mit dem Takt. Je nach Umstände, kann eine 10%-Taktreduzierung um die 20% Stromersparnis liefern.
Das hängt an der Spannung, nicht am Takt.

Coda
2011-01-01, 20:24:00
250 USD sind umgerechnet ca. 230 Euro. (+19% Mehrwertsteuer.)
Nein (http://www.google.de/search?sourceid=chrome&ie=UTF-8&q=250+USD+in+EUR)?

Und ja, ich weiß dass da noch Umsatzsteuer draufkommt. Deshalb schrieb ich ja, es werden trotzdem 250€

Dural
2011-01-02, 10:11:40
seine ca. 230.- Euro dürften eben inkl. MwSt sein ;)

und das stimmt ja auch zimlich exakt. + / - halt...


Das 2. AMD Rev. Muster einer 6950 bei HT4U ist auch kein über Sparfuchs, erreicht 465 Verbrauchslevel.
http://ht4u.net/reviews/2010/amd_radeon_hd_6970_6950_cayman_test/index22.php

Wer weiß wie nah die ersten Reviewmodelle am unterstem Ende der Stabilität befeuert (Vcore) wurden.
Es fällt ja schon auf, dass die 6950 soviel sparsamer als eine 6970 ist, obwohl die Leistungsunterschiede nicht der Art groß sind.

naja das ist einfach typisch AMD, ist ja nicht das erste mal das irgend welche Test Sampel (zb. 4770) die es so nie im Laden gab versendet wurden... Bei NV ist mir dazu keinen einzigen fall bakannt!


HD6950 ist ja kein Vollausbau des Cayman. Das er wohl weniger verbraucht als der Vollausbau einer GF114, sollte nicht verwundern.

Der Verbrauchswert wird schon dramatisch durch den Takt beeinflusst. Der Verbrauch steigt ja exponentiell mit dem Takt. Je nach Umstände, kann eine 10%-Taktreduzierung um die 20% Stromersparnis liefern.

wenn ich mir die messungen da oben betrachte, dürfte die GTX560 wohl doch etwa gleich viel verbrauchen die die 6950, die GTX460 OC Modell liegen um die 140Watt, mehr als 150-160Watt dürfte eine GTX560 somit wohl kaum verbrauchen...

mein Tipp für die GTX560 ca. 145Watt

urbi
2011-01-03, 12:49:37
Ob sich die GTX 560 lohnt ist denke ich eine reine Preisfrage:
Wenn die GTX 560 als vollausgebaute GF104 mit "nur" 820MHz kommt wäre sie bei "niedrigen" Auflösungen wie bei 1680x1050 ja ziemlich genau so schnell wie eine Radeon HD 6950 (die laut CB mit AA/AF ~110% der Geforce GTX 470 erreicht). Es ist aber unwahrscheinlich, dass NVIDIA bzw. die Partner der kleinen Karte mehr Speicher spendieren als den großen. 2048MB halte ich daher für ziemlich unwahrscheinlich, 1536MB wäre IMO zwar optimal, sind aber auch eher etwas Abseits der Realität. Es ist daher nicht unwahrscheinlich, dass die 560 bei 1920x1080 und höher (noch) stärker einbrechen wird als die GTX 470, bei der der Abstand zur HD 6950 bei hohen Auflösungen auf 15-20% wächst.
Im Klartext: IMO ist die GTX 560 mit den Daten (Vollausbau, 820MHz, 1GB-Speicher) etwas unterhalb der HD 6950 anzusiedeln. Das sollte sich auch im Preis niederschlagen, zumal man für unter 200€ mit der EVGA GTX 460 FTW auch eine GTX 460 mit (ca.) GTX 470 Leistung bekommt. Das ist zwar 10% weniger als die neue Karte ca. erreichen wird, wenn diese aber deutlich über 220€ kosten sollte wäre das Preisleistungsverhältnis IMO zumindest verbesserungswürdig. :D

Daraus folgt:
GTX 560 für unter 200€: Super!
GTX 560 für unter 220€: Fair.
GTX 560 für über 220€: Höchstwahrscheinlich fährt man mit einer anderen Lösung besser.

Spasstiger
2011-01-03, 16:50:39
Ich denke, dass die GTX 560 im Referenzdesign um die 200€ kosten wird und dort die GTX 470 endgültig überflüssig macht.
An eine HD 6950 werden imo erst OC-Versionen der GTX 560 heranreichen, die auch preislich entsprechend platziert werden. Evtl. auch gleich mit 2 GiB VRAM.

Fetza
2011-01-03, 18:36:02
Gilt eigentlich der erscheinungstermin (januar) als mittlerweile gesichert?

ShinyMcShine
2011-01-03, 19:27:13
Alle News/Gerüchte der letzten Zeit haben sich auf 2x.01.2011 bezogen (20., 23., 25.). Ich denke, da wird dann schon was dran sein.

200€ für eine GTX560 im Referenzdesign wäre natürlich lecker...

VG
Shiny

Fetza
2011-01-04, 11:02:14
Alle News/Gerüchte der letzten Zeit haben sich auf 2x.01.2011 bezogen (20., 23., 25.). Ich denke, da wird dann schon was dran sein.

200€ für eine GTX560 im Referenzdesign wäre natürlich lecker...

VG
Shiny

Total, nur anscheinend will nvidia für die karte um die 250€ haben...

Iruwen
2011-01-04, 15:41:48
UVP und Marktpreis sind zwei paar Schuhe, mal sehen.

Dural
2011-01-04, 16:52:25
Die GTX470 ist doch eh schon EOL :)

ShinyMcShine
2011-01-05, 11:04:24
Naja, ich hoffe ein paar Wochen nach dem Launch schon auf einen Straßenpreis von ca. 200€ für die GTX560 im Referenzdesign. Somit wäre bis 250€ viel Luft für die OC-Versionen.
Ich denke auch, dass wie bei der GTX460 der eine oder andere Hersteller eine 2GB-Version herausbringen wird. In Kombination mit einer Übertaktung wird die der GTX570 schon recht nahe auf die Pelle rücken... ;D

VG
Shiny

Raff
2011-01-05, 11:09:04
Alle News/Gerüchte der letzten Zeit haben sich auf 2x.01.2011 bezogen (20., 23., 25.). Ich denke, da wird dann schon was dran sein.

Wenn alle voneinander abschreiben: Wie viele Quellen gibt es? :ulol:

MfG,
Raff

ShinyMcShine
2011-01-05, 11:16:29
Naja, zumindest "traut" sich jetzt auch jemand, von Februar zu reden:

LINK (http://xtreview.com/addcomment-id-15025-view-GeForce-GTX-560-release-date.html)

VG
Shiny

Hugo78
2011-01-05, 11:33:37
Och 3. Februar wäre ja nur ne Woche später, also kein Beinbruch.

=Floi=
2011-01-05, 11:38:04
was soll denn an dem chip noch so lange dauern? die könnten den release auch 2 wochen vorverlegen. der GF104 ist seit zig monazen auf dem markt und der 40nm prozess ist auch eingelaufen. die sollen mal in die puschen kommen. lächerlich was hier abgeht.

Bucklew
2011-01-05, 12:00:30
Vielleicht muss man noch am Stromstecker "feilen" :freak:

ShinyMcShine
2011-01-06, 11:54:55
Apropos Stromstecker:

Die anvisierten 180 Watt verlangen ja nach zwei 6-poligen, richtig?
Ich weiß die Grenze für "nur einen 6-poligen" gerade nicht auswendig...

VG
Shiny

AnarchX
2011-01-06, 11:55:52
PEG: 75W
6-Pin: 75W
8-Pin: 150W

Raff
2011-01-06, 12:03:29
Ergo: 2x 6-Pol für 225 Watt max. Wie bei der GTX 460 auch.

MfG,
Raff

y33H@
2011-01-06, 12:07:58
Naja, zumindest "traut" sich jetzt auch jemand, von Februar zu reden.Zwischen Release und verfügbar besteht ein Unterschied. Ich gehe von einem Hardlaunch aus.

V2.0
2011-01-06, 12:09:57
Harten Hardlaunch sogar.