PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GK106: GTX 650 Ti, ...


Seiten : [1] 2 3

AnarchX
2012-03-22, 13:30:19
GTX 660 SE (768SPs + 192-Bit):
http://videocardz.com/39016/nvidia-geforce-gtx-660-se-specification-leaked?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+VideoCardzcom+%28VideoCardz.com%29



geschätzte Spezifikationen:

768SPs, 64 TMUs in 4 SMX (Update: eventuell 5 SMX und somit 960SPs (http://www.donanimhaber.com/ekran-karti/haberleri/GeForce-GTX-650-Tiin-teknik-ozellikleri-sekilleniyor.htm))
2 GPC
24 ROPs
192-Bit

geschätztes Leistungsziel:

GTX 560 Ti bis GTX 570

Updates:
Tweaktown Review der GTX 660: http://www.tweaktown.com/reviews/4922/nvidia_geforce_gtx_660_2gb_reference_video_card_review/index.html

Weitere GK106 Varianten:
http://we.pcinlife.com/data/attachment/forum/201209/04/130214mee5y0x3xzexm7x1.jpg
http://we.pcinlife.com/thread-1978270-1-1.html

Einschätzung:
GK106-400 -> GTX 660
GK106-250 -> "GTX 660 SE": 768SPs + 192-Bit (5Gbps?)
GK106-200 -> "GTX 650 Ti": 576-768SPs + 128-Bit 5Gbps
GK106-875 -> Quadro

Gaestle
2012-03-22, 15:36:25
Ich würde das Leistungsziel etwas höher vermuten. Neuer upper Mainstream in der Region des alten High-End (sprich 580GTX).

AnarchX
2012-03-22, 15:39:10
Die GTX 680 ist gerade mal doppelt so schnell wie die 560 Ti und ich habe zweifel ob auf der "GTX 660" auch der teure 6Gbps Speicher zum Einsatz kommt.

Will man deutlich über 50% der GTX 680 kommen, braucht es wohl 1152SPs.

aylano
2012-03-22, 17:08:08
Wann wird die GK106 erwartet?

AnarchX
2012-03-22, 17:08:35
Mai.

aylano
2012-03-22, 17:11:15
Wann hat Nvidia das erste mal die GK106 bekommen und gibt es schon "Bestätigungen", dass GK106 schon in Produktion ist?

Spasstiger
2012-03-22, 17:13:34
Ich denke auch, dass es mehr als 768 CUDA-Cores werden, erst recht bei einem 192-Bit-SI. ~200 mm² Diesize dürften schon im Budget sein, zumal man wohl in die 300$-Preisklasse geht.

Ailuros
2012-03-22, 17:15:29
Ich würde das Leistungsziel etwas höher vermuten. Neuer upper Mainstream in der Region des alten High-End (sprich 580GTX).

Einen Atem ueber GTX570.

AnarchX
2012-03-22, 17:31:45
Ich denke auch, dass es mehr als 768 CUDA-Cores werden, erst recht bei einem 192-Bit-SI. ~200 mm² Diesize dürften schon im Budget sein, zumal man wohl in die 300$-Preisklasse geht.
3 GPCs in ein vernünftiges Chip-Layout zu bringen könnte wohl schwierig werden.

J0ph33
2012-03-22, 18:17:58
Also mit den Specs aus dem Startpost wird's schwer ne 570 zu knacken...

Die gelbe Eule
2012-03-22, 18:21:35
Wenn die GPU deutlich über 900MHz taktet, dann schon.

Ailuros
2012-03-22, 18:31:34
Also mit den Specs aus dem Startpost wird's schwer ne 570 zu knacken...

Nach dem CB review ist die GTX680 um gute 55% schneller als eine GTX570 in 1080p/4xAA. Und ja natuerlich wird die Frequenz eben nicht gleich sein wie auf der GTX680.

Ronny145
2012-03-22, 18:34:30
Die Karte wird bei dem Interface wohl mit 1,5 GB kommen. Wenn man bedenkt, dass AMD seit Cayman ab HD6950 2GB im Performance Sektor anbietet, ist das etwas ärmlich.

AnarchX
2012-03-22, 18:36:17
Schon den 1GiB@192-Bit Trick vergessen? ;)
Zwar gibt es noch keine 4Gbit GDDR5-Chips, aber mit Clamshell Mode und 12 Chips sollte das wohl auch funktionieren.

Odal
2012-03-22, 18:36:24
ich sag mal bei 1000Mhz kommt das Ding auf 560TI niveau
War ja auch nicht als GTX560 replacement konzipiert sondern wohl eher 550TI

und bzgl. Speicher glaube ich auch das da nur 1.5GB kommen (als standard) und 3GB später für den DAU fang

J0ph33
2012-03-22, 18:41:35
Nach dem CB review ist die GTX680 um gute 55% schneller als eine GTX570 in 1080p/4xAA. Und ja natuerlich wird die Frequenz eben nicht gleich sein wie auf der GTX680.

Milchmädchenrechnung: 0.5*1.55 = 0.775...die fehlenden 22,5% durch Takt und die Tatsache, dass ROPs und SI nur um ein Viertel verringert wurden? Ich weiß ja nicht...

Ailuros
2012-03-22, 19:06:18
Milchmädchenrechnung: 0.5*1.55 = 0.775...die fehlenden 22,5% durch Takt und die Tatsache, dass ROPs und SI nur um ein Viertel verringert wurden? Ich weiß ja nicht...

Selbst bei der Milchmaechenrechnung: was soll daran merkwuerdig sein wenn Du selber einsiehst dass eben die ROPs und SI nicht um 50% kuerzer sind als bei GK104?

Weitere Milchmaedchenrechnung nur fuer die ROPs und rein erfundenen Zahlen fuer GK106:

32 * 1006 = 32,19 GPixels/s
24 * 1150 = 27,60 GPixels/s

Hast Du in solch einem Fall immer noch einen Unterschied von 25%?

AnarchX
2012-03-22, 19:14:01
Die GTX 550Ti schafft es in einer ähnliche Konstellation aber auch nur auf 60% der GTX 560 Ti und hat schon einen 10% höheren Chiptakt.
Vielleicht doch mehr als 768SPs bei GK106 bzw. andere SMX?

J0ph33
2012-03-22, 19:20:11
Selbst bei der Milchmaechenrechnung: was soll daran merkwuerdig sein wenn Du selber einsiehst dass eben die ROPs und SI nicht um 50% kuerzer sind als bei GK104?

Weitere Milchmaedchenrechnung nur fuer die ROPs und rein erfundenen Zahlen fuer GK106:

32 * 1006 = 32,19 GPixels/s
24 * 1150 = 27,60 GPixels/s

Hast Du in solch einem Fall immer noch einen Unterschied von 25%?

Ich gehe halt davon aus, dass im Großen und Ganzen die Shader/SIMD etc. Einheiten limitieren.

Spasstiger
2012-03-22, 19:38:48
Wenn die GPU deutlich über 900MHz taktet, dann schon.
Mit 768 SPs @ 1000 MHz und einem 192-Bit-SI @ ~5 Gbps wäre ein GK106 nicht viel mehr als eine halbe GTX 680. Also bestenfalls GTX-570-Niveau.
Ich weiß aber nicht, wieviel Taktpotential prozessbedingt noch vorhanden ist, evtl. hat Nvidia beim GK104 noch gar nicht alle Karten auf den Tisch gelegt und wollte erstmal mit Energieeffizienz punkten.

AnarchX
2012-03-22, 19:40:57
Bei den OC-Werten verhält sich GK104 ähnlich wie die 28nm AMD-GPUs, also über 1,1GHz Basistakt sind wohl eher nicht zu erwarten.

Leonidas
2012-03-23, 06:47:53
Alles andere als 768SP macht angesichts von 384SP für GK107 und 1536SP für GK104 keinen größeren Sinn. Wenn man die 768SP verändert, kommt man zu nahe an den einen Chip und entfernt sich zu weit vom anderen.

Schaffe89
2012-03-23, 08:01:08
Also über GTX570 halte ich für übertrieben.
Der Salvage Part von GK104 wird wohl so 10% über der GTX580 liegen.
GK106 dann wohl eher knapp unter Pitcairn, also grade so GTX570/HD 6970 Niveau.

V2.0
2012-03-23, 08:42:42
Ich erwarte:

670 ~ 5% vor 7950
660 ~ 5-10% unter 7870
650 ~ 10% unter 7850

Bei AMD ist die 7870 sowieso zu nah an der 7950.

Spasstiger
2012-03-23, 09:09:46
Einen halben GK104, aber mit 192-Bit-SI, würde ich auch unterhalb von Pitcairn XT ansiedeln. Mit der Auslegung dürfte der GK104 aber auch ein Stück kleiner sein Pitcairn und vermutlich auch eine deutlich geringere Leistungsaufnahme haben. Da wird die typische Spiele-Leistungsaufnahme unter 100 Watt liegen (HD 7870 = 127 Watt bei HT4u).

Hugo78
2012-03-23, 09:26:36
Ein halber GK104 wäre sinnvoll, da er vom Speed her 1 zu 1 die letzten GF114 (670m, 675m) im mobilen Segment ersetzt.
Gleichzeitig aber die Leistungsaufnahme halbieren sollte und so Kosten, sowie den ach so wichtigen Formfaktor drücken kann.

Wobei ich hier nicht von 1GHz für die mobilen Versionen ausgehe, eher so ~850 MHz.

Undertaker
2012-03-23, 09:50:53
Wäre etwas anderes als 2 GPCs / 768 ALUs denn ohne grundlegende Umbauarbeiten überhaupt denkbar? Dem Blockdiagramm von GK107/104 nach würde das wohl Schwierigkeiten aufwerfen.

Gaestle
2012-03-23, 12:35:20
Hieß es nicht im Herbst 2011 mal, dass die GK-Generation bezüglich solche Dinge deutlich flexibler wäre?

AnarchX
2012-03-23, 13:21:35
Wo hat man das verkündet?
Die Unterscheidung in Computing- und Gamer-Cluster gab es ja schon bei Fermi.

Man könnte sicherlich für GK106 eine weiteren Cluster-Typ entwickeln. Aber fraglich ob das sich lohnt, zumal die Die-Size wohl zu nah an GK104 liegen könnte.
GK106 soll wohl die Lücke zwischen GK107(~120mm²) und GK104(~294mm²) besetzen.

Wenn man wirklich Best-Case-Ergebnise ranzieht, was wohl NV machen wird, dann liegt ein GK106 als halbe GTX 680 durchaus knapp über der GTX 570.

Gaestle
2012-03-23, 14:40:40
"Verkündet" war schlecht formuliert.
Es gab AFAIR mal eine entsprechende Andeutung von einem üblicherweise recht gut informierten Member im Speku-Thread zu Kepler 28nm.

Dabei ging es weniger um die HPC-/Gamer-"Trennung", sondern um die Flexibilität der Architektur in Bezug auf Chipvarianten.

Also eigentlich war die Aussage nur, dass die Skalierbarkeit wahrscheinlich besser sei. Darauf hin habe ich mir dazu phantasiert, dass dafür wohl eine stärkere "Unabhängigkeit" der einzelnen Bestandteile voneinander nützlich wäre. "Unabhängigkeit" im dem Sinn, dass man z.B. Speicherinterface, TMUs und ALU-Blöcke etc. etwas freier dazu packen oder weglassen kann und nicht immer in festen Abhängigkeiten als jeweiliges Gesamtpaket.

Ailuros
2012-03-24, 13:28:08
Die GTX 550Ti schafft es in einer ähnliche Konstellation aber auch nur auf 60% der GTX 560 Ti und hat schon einen 10% höheren Chiptakt.
Vielleicht doch mehr als 768SPs bei GK106 bzw. andere SMX?

Seit wann ist Fermi mit Kepler vergleichbar? Ein besonders grosses Blatt was GK110 moegliche specs betrifft nehm ich mir wohl auch nicht mehr vor den Mund; unter diesem Licht erklaer mir mal wieso GK110 "nur" 50% schneller sein soll als GK104?

Also über GTX570 halte ich für übertrieben.
Der Salvage Part von GK104 wird wohl so 10% über der GTX580 liegen.
GK106 dann wohl eher knapp unter Pitcairn, also grade so GTX570/HD 6970 Niveau.

Und das obrige hat welchen genau Unterschied zu dem was ich behauptete? Ich sagte aufs Wort genau einen Atem vor der 570 und Du sagst "grade so 570", welch ein brutaler Unterschied :rolleyes: Ergo find erstmal den eigentlichen Widerspruch in Deinem Post oben und dann koennen wir ueber jegliche "Uebertreibungen" reden. Ausser bei Dir steht "ein Atem" fuer mehr als ein einstelliges Prozentual.

Ich gehe halt davon aus, dass im Großen und Ganzen die Shader/SIMD etc. Einheiten limitieren.

Wie schon oben angedeutet: was passiert mit Deiner These wenn der top dog tatsaechlich ueber 3k SPs haben sollte aber nur um 50% schneller als GK104? :freak:

AnarchX
2012-04-05, 15:09:48
Vielleicht doch 256-Bit?

Die GTX 680M mit P4600 im 3DM11 soll 768SPs und 256-Bit haben laut einer Dell Spezifikations Info:
http://dell.benyouhui.it168.com/thread-2046420-1-1.html

Denkbar dass man hier nur einen Low-Performance-IMC einsetzt mit ~4Gbps.

dildo4u
2012-04-05, 15:19:54
Das ist Desktop 5870/6870 speed denke 256bit sind ein muss.

http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-680/32/#abschnitt_3dmark_11

AnarchX
2012-04-05, 15:27:45
Wenn das wirklich GK106 sein sollte und man hier noch ~20% zusätzliche Leistung im Desktop erzielen könnte, sähe das nicht so schlecht aus.

BlacKi
2012-04-09, 15:58:44
richtig interessant wird die diskussion erst wenn die 28nm produktion mehr ausbeute bringt. die preise werden tief fallen fals das geschieht. dann wird die gtx660 für mich interessant wenn sie unter die 200€ marke fällt. und bis dahin heißt es eben warten. egal wie die specs genau sind, die werden dem namen nach was passendes in die karte packen. darauf ist verlass. nun spekuliert mal eifrig weiter:freak:

Hugo
2012-05-01, 20:25:56
gibts was neues zum GK106?
Im Mai werden wir den wohl nicht mehr sehen oder?

Die gelbe Eule
2012-05-01, 20:32:57
Nein, dafür gibt es einfach noch zuviele 560ti/570er.

Hugo
2012-05-01, 21:37:38
shit auch keine Kartons bis jetzt gesehen?

Ailuros
2012-05-09, 14:18:18
Naechsten Monat.

Hugo
2012-05-10, 08:33:38
auch kaufbar oder nur aufm Papier?

Ailuros
2012-05-10, 09:50:01
auch kaufbar oder nur aufm Papier?

Keine Ahnung ueber die Kaufbarkeit; auf jeden Fall wurde der launch um einen Monat verschoben, wieso weiss wohl nur NV selber.

Hugo
2012-05-10, 14:06:12
shit ich wollt mir die diesen Monat kaufen...
weißt was zum Preis?

Lowkey
2012-05-10, 14:07:58
Ich würde wetten: 260 Euro

Hugo78
2012-05-10, 14:35:17
Keine Ahnung ueber die Kaufbarkeit; auf jeden Fall wurde der launch um einen Monat verschoben, wieso weiss wohl nur NV selber.

Wenn die meisten defekte nur einen SMX betreffen sollten, macht man mit der GTX 670 natürlich mehr Kohle.

Hugo
2012-05-10, 16:16:08
@Hugo78
hier gehts aber um GK106 ;) das hat mit der GTX670 nix zu tun

Hugo78
2012-05-10, 16:41:21
Oops, ist das sicher das GK106 auf der 660 landet?
Mir war so, als ob ich da zuletzt was von GK104 mit 1.152ALUs und 192Bit SI gelesen hatte.

davidzo
2012-05-10, 20:34:07
den effizienzvorteil des frontends den die gtx680 gegenüber der 7970 noch hat kann man ja getrost zusammenstreichen.
Möglicherweise wird das frontend damit gegenüber pitcairn sogar schwächer, der sich ja bekanntlich auf tahitiniveau bewegt. ein guter Grund davon auszugehen dass man sich höchstens auf gtx570 nivau bewegen wird...

Ailuros
2012-05-11, 09:54:37
Ja die groesste GK106 Variante soll nur einen geringen Flecken vor der GTX570 liegen. Wird sich aber IMHO erst fuer den Ottonormalverbraucher wirklich lohnen wenn sich die 28nm GPU Preise um ein gutes Stueck reduzieren. Denn wenn der launch MSRP irgendwie in 560Ti Region liegen sollte, dann ist es mit dem Preis fuer einen 560Ti User eine idiotische Aufruestung.

G3cko
2012-05-11, 11:23:32
Es ist lustig das die Leute trotzem aufrüsten. Der Namenswirrar zeigt wirkung.
"Wie meine AMD 7770 ist nicht viel schneller als meine 3 Jahre alte 5770?! "

^^

Mal sehen ob die Karte, welche wohl für 200- 250€ kommt, bis zum Ende des PCI-E Slots reicht, oder einen Knick hat. ;)

Timbaloo
2012-05-12, 13:23:44
Denn wenn der launch MSRP irgendwie in 560Ti Region liegen sollte, dann ist es mit dem Preis fuer einen 560Ti User eine idiotische Aufruestung.
Ausser man ist ein ziemlicher Silent-:freak: wie ich.

boxleitnerb
2012-05-12, 15:48:44
$299-329 sagt OBR. Es gibt anscheinend Karten mit nur 1GB...zu wenig. Warum muss Nvidia immer mit dem Speicher sparen?

dildo4u
2012-05-12, 15:58:42
$299-329 sagt OBR. Es gibt anscheinend Karten mit nur 1GB...zu wenig. Warum muss Nvidia immer mit dem Speicher sparen?
Es wird mit sicherheit 2GB Karten geben genau wie bei der 460/560.

boxleitnerb
2012-05-12, 16:05:35
Das schon, aber 2GB sollten eigentlich Standard sein. Außerdem: Mit einem 192bit Interface wäre man eher bei 1,5 und 3GB.

AnarchX
2012-05-12, 16:07:02
Das "Fake.jpg" bei OBR ist ein geshopter GTX 560 Karton (siehe Aufschrift linke Seite).

Unter 1,5GiB wird ein HD 7800 Gegner wohl nicht ankommen.

boxleitnerb
2012-05-12, 16:07:59
Gutes Auge :)

Ronny145
2012-05-12, 16:08:45
Es wird mit sicherheit 2GB Karten geben genau wie bei der 460/560.


Unnütz solange das nur ein paar wenige und teure Custom Karten sind. Wenn Nvidia erneut so mit dem VRAM knausert, wäre das mehr als enttäuschend. AMD bietet ab der HD6950/HD7850 2GB VRAM an. Wenn die GTX660 auf GTX570 Level kommt, wäre das ein Rückschritt beim VRAM. Und bei einem Preis von $299 sind 2GB nicht zu viel verlangt.

dildo4u
2012-05-12, 16:27:11
Ähm stimmt ist murks ist ne 192Bit Karte also 1.5Gb.

AnarchX
2012-05-12, 16:32:33
192-Bit schließen 1/2GiB nicht aus.

Vielleicht hat GK106 aber auch ein langsameres 256-Bit SI wie Pitcairn.
Wobei mittlerweile ein Bild des MXM-Moduls der GTX 680M aufgetaucht ist, wo es eher nach einem GK104 Die aussieht und die Info mit GK106 wahrscheinlich falsch war.

Um mit spekulierten 768SPs auf ~70% GTX 680(~"Hauch über GTX 570") zu kommen, muss man schon eine vernünftige Bandbreite auffahren:
192-Bit@6Gbps oder 256-Bit@4,8Gbps.

Hugo78
2012-05-12, 17:23:23
Zwischen dem 768SP Chip wäre immernoch ne große Lücke zur 670.
Da wird noch ein zweiter GK104 Salavage mit 1.152ALUs kommen, der dann dann 0 bis +5% den Speed der 580 geht.

Walkman
2012-05-13, 03:50:10
Ja die groesste GK106 Variante soll nur einen geringen Flecken vor der GTX570 liegen. Wird sich aber IMHO erst fuer den Ottonormalverbraucher wirklich lohnen wenn sich die 28nm GPU Preise um ein gutes Stueck reduzieren. Denn wenn der launch MSRP irgendwie in 560Ti Region liegen sollte, dann ist es mit dem Preis fuer einen 560Ti User eine idiotische Aufruestung.
Meint ihr nach dem was man im Moment weiß lohnt es sich zu warten? 570er gehen gebraucht momentan für knapp unter 200€ weg.

V2.0
2012-05-13, 08:25:17
Ich sage mal nein, wenn einem der Stromverbrauch egal ist.

AnarchX
2012-05-26, 09:23:54
Launch erst im Juli bzw. August?

http://www.sweclockers.com/nyhet/15445-geforce-gtx-660-slapps-under-sensommaren

Dort vermutet man aber auch 256-Bit 2GiB.

Hugo78
2012-05-26, 09:51:40
Ja schaut nicht danach aus, als ob die 660 bald kommt.
Bei den 560ern gibt es auch noch keinen echten Abverkauf.
Die ein oder andere Karte ist hier zwar billiger geworden die letzten 2 Wochen, aber das scheint nur an vereinzelten Händlern zuliegen.

M4xw0lf
2012-05-26, 13:12:18
Woran kann es liegen, dass der Chip so spät kommt? Es kann ja kaum im Interesse Nvidias sein, den Markt um 200€ so lange nicht mit der neuen Generation zu bedienen.

V2.0
2012-05-26, 13:15:17
Wieso, wenn man GK114 billiger produzieren kann und 40nm keine Volumenprobleme hat.

M4xw0lf
2012-05-26, 13:46:36
Wieso, wenn man GK114 billiger produzieren kann und 40nm keine Volumenprobleme hat.

GF114 soll das dann wohl heißen, ne? :wink:

Hugo78
2012-05-26, 14:14:03
Woran kann es liegen, dass der Chip so spät kommt? Es kann ja kaum im Interesse Nvidias sein, den Markt um 200€ so lange nicht mit der neuen Generation zu bedienen.

Schau dir dochmal die Preise und das P/L der 28nm in der Region an.
Die 7770 ab 100€ ersetzt speedtechnisch nur die 5770 aka 6770, mit nochmal weniger Verbrauch.
Und die 7850 geht dann erst ab >200€ los.
Da enspricht der Preis 1:1 dem Speed, der zwischen 560Ti und 570 liegt.

Nvidia und AMD machen sich gegenseitig in dem Bereich, nicht das Leben schwer...

hardtech
2012-05-26, 14:29:42
also mir scheint es, als habe man sich abgesprochen und wolle die preise künstlich hochhalten.
28nm karten sind vor einem halben jahr erschienen. auch damals ein eklatant schlechtes plv i.vgl. zu bestehenden 40nm karten.
kommt noch hinzu, dass karten a la 6870 oder 5850 sind extrem lange auf einem preislevel halten. dann noch die bestehend hohen preise der neuen karten. das sieht mir nach absprache aus, sorry.

Blediator16
2012-05-26, 15:06:27
also mir scheint es, als habe man sich abgesprochen und wolle die preise künstlich hochhalten.
28nm karten sind vor einem halben jahr erschienen. auch damals ein eklatant schlechtes plv i.vgl. zu bestehenden 40nm karten.
kommt noch hinzu, dass karten a la 6870 oder 5850 sind extrem lange auf einem preislevel halten. dann noch die bestehend hohen preise der neuen karten. das sieht mir nach absprache aus, sorry.

So direkt abgesprochen haben sie sich sicher nicht, aber sie wissen ganz genau was sie gerade machen :mad:

AnarchX
2012-05-28, 18:21:23
http://www.expreview.com/img/news/2012/05/28/mobile01-bbdb54576273187c7d31a3793991a506.jpg
http://en.expreview.com/2012/05/29/msi-geforce-gtx-660-surfaced/23336.html

:freak: Dem PCB-Design-Team bei NV ist wohl langweilig...
edit: Wohl nur ein Photoshop, aber die Stromversorgung liegt bei den günstigen PCBs durchaus an dieser Stelle, sodass der Power-Connector vielleicht wirklich dort hin wandert, wenn auch eher an die Seite.

dargo
2012-05-28, 18:38:14
http://www.expreview.com/img/news/2012/05/28/mobile01-bbdb54576273187c7d31a3793991a506.jpg
http://en.expreview.com/2012/05/29/msi-geforce-gtx-660-surfaced/23336.html

:freak: Dem PCB-Design-Team bei NV ist wohl langweilig...
edit: Wohl nur ein Photoshop, aber die Stromversorgung liegt bei den günstigen PCBs durchaus an dieser Stelle, sodass der Power-Connector vielleicht wirklich dort hin wandert, wenn auch eher an die Seite.
Können momentan eh nichts vernünftiges liefern da wird man erfinderisch. ;D Nee, mal ernsthaft... so würde das eh nicht verkauft werden können. Mit dem Stromstecker würde man automatisch 1-2, wenn nicht sogar 3 Steckplätze unter der Graka blockieren. Wenn der Anschluss zur Seite geht spielt es kaum eine Rolle ob der vorne oder hinten am PCB platziert ist.

Effe
2012-05-28, 19:42:33
Schöner Photoshopfail.

n00b
2012-05-28, 19:45:12
Der gigantischen Größe der Strombuchse nach zu urteilen scheint die Karte mit Kraftstrom zu laufen.

AnarchX
2012-06-08, 08:53:34
Acer bewirbt schon eine GTX 660 1,5GiB:
http://www.sweclockers.com/image/red/2012/06/05/Acer.jpg?t=original&k=ba8f6bfa
http://www.sweclockers.com/nyhet/15507-geforce-gtx-660-dyker-upp-i-acer-predator

http://www.elkjop.no/product/data/stasjonar-pc/ASG3620002/acer-stasjonar-pc-aspire-predator-g3620

Am 25. Juni soll der PC verfügbar sein, vielleicht das Launchdatum?

Spasstiger
2012-06-08, 09:09:35
Oder es kommt eine GTX 660 OEM, die eigentlich einer GTX 560 mit 192-Bit-SI entspricht. ;)

AnarchX
2012-06-08, 09:12:51
Da GTX 560 SE -> GT 645, wäre wohl eine GTX 560 eine GTX 650.

Interessanter ist wohl eher die Frage: GK106 oder GK104.

Hugo78
2012-06-08, 11:06:50
Interessanter ist wohl eher die Frage: GK106 oder GK104.

Ich sag die 660 OEM ist ein zweiter GK104 Salavage mit 1152 SPs + 192Bit SI (1.5GB ebend).
Und die spätere Retail 660 Ti kommt mit GK106 + 256Bit SI (2GB).

Timbaloo
2012-06-09, 01:28:54
Welchen Sinn würde das machen?

Hugo78
2012-06-09, 07:23:21
Na erstmal Resteverwertung und man kann den OEMs schneller was für die 250€ Klassse bieten.
GK106 lässt ja auf sich warten, warum auch immer.

Thunder99
2012-06-09, 10:44:36
Damit entgeht nvidia einige Kunden.

Ich z.b. hab einem bekannten eine HD7850 verbaut, das sie schneller als eine GTX560 Ti ist und weniger Strom verbraucht (extrem leise das Ding von Sapphire :eek: )

Timbaloo
2012-06-09, 10:50:27
GK106 lässt ja auf sich warten, warum auch immer.
Das ist in der Tat die interessantere Frage.

An einen GK106 mit 256Bit SI glaube ich nicht so recht, wobei das imho sehr geil wäre.

Hugo78
2012-06-09, 12:50:21
Damit entgeht nvidia einige Kunden.

Sicherlich, aber eine Preisschlacht bei den alten 40nm Karten sehen wir auch nicht.
Da werden eine Reihe von BWL Überlegungen reinspielen, zb:
- Nachfrage für alte Karten immernoch vorhanden,
- Ausblick auf die Marge mit GK106 Karten ist vielleicht nicht zwingend besser,
- 28nm Kapazitäten vergleichsweise mau,

Es gibt ja auch keine Zahlen darüber, was AMD an jeder Karte verdient in dem Segment.
AMD könnte ja aktuell für einen steigenden Marktanteil auf Gewinn verzichten.

ndrs
2012-06-09, 14:58:41
Läuft es nicht so, dass NVidia eine gewisse zugesicherte Menge an Wafern von TSMC bekommt? Wenn das so ist, wird man sich wohl einfach überlegen, ob man alle los wird, wenn man die Wafer in margenträchtigere GK104 investiert. Solange man auf denen nicht sitzen bleibt, warum sollte man sie für billigere Chips verschwenden. Erst wenn die Wafermengen es hergeben oder die Nachfrage an GK104 nachlässt (unwahrscheinlich in nächster Zeit) wird man die übrigen Chips bringen.
Natürlich hab ich mir das grad nur an den Haaren herbeigezogen. Ob das so ist, keine Ahnung.

Knuddelbearli
2012-06-09, 15:07:53
NV dürfte so ziemlich gleichviel verdienen

GK104 dürfte ziemlich genau das größer sein was er teurer im verkauf ist.

Hatstick
2012-06-09, 15:41:47
Bin auf die 660 sehr gespannt, eventl. wird das der Nachfolger meiner 460.
Hoffentlich kommt die bald und dann mal die Leistung anschauen.

Thunder99
2012-06-09, 16:12:54
Glaube kaum, dass nvidia zugunsten des GK104 den GK106 verzögert. Bei der Preislage kaufen nicht viele (damit meine ich die Masse) eine GTX670/80

Glaube daher auch eher, dass die Kapazitäten nicht vorhanden sind

G3cko
2012-06-11, 13:22:04
http://www.kitguru.net/components/graphic-cards/faith/huge-gtx570-overstock-delays-gtx660-until-august/

Will wohl keiner mehr haben die alte GTX570... :freak:

Coda
2012-06-11, 13:39:23
Naja, wen wundert das wenn die neue Generation als "the best GPU we ever built" beworben wurde ;)

NV dürfte so ziemlich gleichviel verdienen

GK104 dürfte ziemlich genau das größer sein was er teurer im verkauf ist.
Größere Chips sind nicht linear teurer, sondern kosten verhältnismäßig mehr (mehr Verschnitt, schlechtere Yields).

BigKid
2012-06-11, 14:07:32
Mal eine ketzerische Frage - vermutlich hat das schon wer gesagt aber:

Da der jetzige GTX680 aka GK104 ja eigentlich als GTX660 geplant war und somit schon als GamerChip abgespeckt ist bezüglich compute - also eigentlich das equivalent zur GT460/560 ist...

A) Was soll NV da denn jetzt für die GTX660 noch einen extra Chip auflegen ? Es reicht doch teildeaktivierter GK104. Und hat das nicht auch den Charm dass man noch mehr Aussschuss (defekte Shadereinheiten) doch noch verkaufen kann ? Grade wenn der Fertigungsprozess noch nicht so toll ist ?

B) Und selbst wenn sie es tun (also einen GK106 auflegen) sind sie vermutlich spät drann, denn die Entscheidung mit dem GK104 als "HighEnd" anzutreten ist vermutlich nicht gleich am Anfang gefallen... Und somit fehlt jetzt halt ein extra Chip für MidRange...

V2.0
2012-06-11, 14:20:29
So wie AMD einen Platz für 78X0 gefunden hat so findet NV auch einen Platz für GK106, halt irgendwo zwischen 7850 und 7750. Rein von der Produktion ist die Verspätung relativ logisch. Man hat eine bregrenzte Menge Wafer, man braucht G104, man braucht GK107 (viele Mobile-Wins), man hat die 560 für das Segment des GK106, und die 560 war sicher die beste Fermikarte.

MadManniMan
2012-06-11, 14:39:40
Mein Kopf verortet mir das ganze so, ich kann leider nichts daran ändern:

(Fermi -> Kepler geplant -> Kepler tatsächlich)
GF110 -> GK110 -> GK104
GF114 -> GK104 -> GK106
GF116 -> GK106 -> GK107
GF118 -> GK107 -> GF119
GF119 -> GF119 -> (...)

Blediator16
2012-06-11, 15:46:17
Wann kommen denn die ganzen Designwins, von denen man Monatelang gehört hat?

Hugo78
2012-06-11, 16:14:46
Wann kommen denn die ganzen Designwins, von denen man Monatelang gehört hat?

Deine Frage hat genau was mit GK106 zutun?

davidzo
2012-06-11, 16:44:23
A) Was soll NV da denn jetzt für die GTX660 noch einen extra Chip auflegen ? Es reicht doch teildeaktivierter GK104. Und hat das nicht auch den Charm dass man noch mehr Aussschuss (defekte Shadereinheiten) doch noch verkaufen kann ? Grade wenn der Fertigungsprozess noch nicht so toll ist ?

B) Und selbst wenn sie es tun (also einen GK106 auflegen) sind sie vermutlich spät drann, denn die Entscheidung mit dem GK104 als "HighEnd" anzutreten ist vermutlich nicht gleich am Anfang gefallen... Und somit fehlt jetzt halt ein extra Chip für MidRange...

A) Die Lücke zwischen GK107 und GK104 ist gigantisch, ersterer hat schließlich 5x soviel Leistung. Da würden locker nochmal 2 chips dazwischen passen, das Auffüllen mit Resteverwertung von GF104 wäre im Endeffekt wohl eher ziemlich teuer weil man unmöglich dermaßen schlechte chips hat, zudem sprechen die hohen taktraten bei gf104 eher für relativ gute yields dieses chips.

B) Die Preise für die 28nm Wafer standen früh fest. Die definieren eben, dass ein 340mm² Chip in 28nm Highend ist. GK106 kann gar nicht zu spät kommen, da man derzeit auch bei AMD probleme hat genügend Pitcairn chips zu bekommen und daher weiterhin hauptsächlich billige 40nm chips verkauft. GF104/114 ist noch fast genausoviel wert wie bei der Einführung, da die Grafikkartenpreise in diesem Segment praktisch überhaupt nicht gesunken sind im letzten jahr.
Der deckt das Leistungsspektrum von GF106 gut ab und wird vermutlich in der herstellung dank altem 40nm prozess auch nicht mehr kosten, zudem reicht es wenn man 1GB RAM verbaut, GF106 kriegt in der Perfomancevariante wohl 3GB und sieht mit weniger als 2GB auf dem Papier als neuer Mainstreamchip schon schlecht aus.

Es spricht also nichts dagegen GF104 noch weiter laufen zu lassen. In allem, außer der Leistungsaufnahme ist man damit noch konkurrenzfähig.

Spasstiger
2012-06-11, 17:03:49
Wann kommen denn die ganzen Designwins, von denen man Monatelang gehört hat?
Was meinst du mit kommen? Die Entscheidung vieler OEMs, Kepler-Lösungen zu verbauen, ist doch schon im letzten Jahr gefallen. Ein Designwin ist nichts anderes als ein Zuschlag.
Und es gibt ja auch genug OEM-PCs (Notebooks und Desktops) mit Kepler-Grafiklösungen.
Nur vom GK106 ist bisher nichts zu sehen. Wobei die OEMs mit Sicherheit auch Zuschläge für GK106-basierende Lösungen erteilt haben.

mczak
2012-06-13, 03:16:26
A) Die Lücke zwischen GK107 und GK104 ist gigantisch, ersterer hat schließlich 5x soviel Leistung. Da würden locker nochmal 2 chips dazwischen passen

Du meinst wohl eher letzterer hat 5x soviel Leistung :-).
Einen Faktor 5 sehe ich allerdings nirgends, ALU/Geometrie etc. ist Faktor 4, beim Speicher/ROP ist es nur ein Faktor 2. Dass der GK107 auch noch tiefer getaktet wird (daher der Faktor 5?) hat jedenfalls (ausser wahrscheinlich beim Speicher) nichts mit dem Chip an sich zu tun. In jedem Fall liegt da sicher in der Praxis nie ein Faktor 5 dazwischen. 2 Chips passen da also nicht dazwischen es sei denn man wollte gar keine "halben" Chips mehr verkaufen - aber einer (gk106) passt in der Tat perfekt dazwischen.

AnarchX
2012-06-20, 10:27:36
PHK: http://bbs.expreview.com/thread-53661-1-1.html

2GiB@192-Bit und wohl ein sehr kurzes PCB mit 4 Phasen und ~100W TDP.

MadManniMan
2012-06-20, 11:27:55
Die asiatischen Foren machen mich echt fertig :ugly2:

Aber zur Karte: tja, sieht halt nach dem legitimen 550-Nachfolger aus, hm?

y33H@
2012-06-21, 09:23:02
Wenn ich das richtig interpretieren, sechs SMX - also 1152 ALUs, dazu das von AnarchX genannte 192er SI. Also kein GK106, sondern ein GK104 und dazu ein noch billigeres PCB als bei der GTX 670. Das geht in Richtung 560 (Ti), nicht 550 (Ti).

M4xw0lf
2012-06-21, 09:33:27
Vermutlich weil der halbe GK104 in Form des GK106 es nicht mit Pitcairn aufnehmen kann.

y33H@
2012-06-21, 09:47:02
Die halbierte Leistung einer GTX 680 liegt zwischen einer HD 7770 und einer HD 7850, jupp - das reicht nicht um Pitcairn anzugreifen.

Hugo78
2012-06-21, 09:59:35
Das geht in Richtung 560 (Ti),

Mit 1152 SPs wird man irgendwo zwischen 7850 und 7870 landen, oder anders ausgedrückt => GTX 570 level,
denn eine GTX 680 ist rund doppelt so schnell wie eine GTX 560Ti und ein GK106 als halber GK104, damit schon auf Level einer GTX 560Ti.

y33H@
2012-06-21, 11:18:15
Du hast Recht, habe grade noch mal geschaut.

hardtech
2012-06-21, 20:06:03
fakt ist, dass das preisschema von den aktuellen 28nm karten beibehalten wird.
im grunde ist es das ganze jahr warten auf preisschlage umsonst :D

also habe jetzt eine 7970 sapphire oc und damit ist schluss mit warten.

Leonidas
2012-06-22, 05:28:49
Ich les das als 6poligen Stromstecker, nicht als 6 SMX. Passt auch besser zu den nur 100W Leistungsaufnahme.

marc-05
2012-06-26, 20:06:50
Wow 3-5% schneller als die 7950er für ~299$ und gepaart mit einem 6Pin Stromstecker,sollte das der Wahrheit entsprechen is ne Top Grafikkarte.
http://wccftech.com/details-nvidias-gtx-660-shorter-pcb-299-usd-price-tag/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+Wccftechcom+%28WCCFtech.com%29

Nightspider
2012-06-26, 20:43:45
300 Euro für ne Karte deren Chip von der Größe her früher in 100 Euro Karten gesteckt hat. Echt toll. :usad:

Timbaloo
2012-06-26, 22:35:44
Wartet mal, ich bin ein wenig verwirrt. Wird die 660 nun ein GK106 oder ein GK104 salvage part? :confused:

hardtech
2012-06-26, 22:52:58
87% so schnell wie eine gtx670 und 3-5% schneller als eine 7950. da passt was nicht :D

bis dann wieder custom design mit leisen kühlern erscheinen haben wir weihnachten leute ;)

Coda
2012-06-26, 23:13:18
300 Euro für ne Karte deren Chip von der Größe her früher in 100 Euro Karten gesteckt hat. Echt toll. :usad:
Kannst du aber nicht unbedingt vergleichen. 28nm ist leider wesentlich teurer pro Fläche.

Nightspider
2012-06-26, 23:16:55
Ja ich weiß aber es ist dennoch deprimierend.
Zumal wir in ein paar Monaten sicherlich ebenfalls wieder auf selben Niveau sind bei Fläche/Euro.

MadManniMan
2012-06-26, 23:20:43
... ist da Änderung in Sicht?

Nightspider
2012-06-26, 23:22:46
Laaangfristig schon.

Coda
2012-06-26, 23:31:28
... ist da Änderung in Sicht?
Begrenzt. Man braucht einfach mehr Belichtungsschritte für 28nm und das Equipment ist auch teurer.

400mm Wafer würden wohl helfen, aber die sind noch lange nicht serienreif. Wir stoßen halt so langsam wirklich an physikalische Grenzen.

MadManniMan
2012-06-26, 23:43:01
Ist es normal, dass pro kleinerem Fertigungsschritt mehr Belichtungsschritte benötigt werden? Ich möchte nicht zu weit OT werden, wohl aber verstehen, ob das jetzt übliche Probleme sind, die einfach ein wenig Überhand nahmen (Pech gibt's nunmal immer), oder ob das jetzt einfach eine neue Qualität ist, über die wir hier reden!

Seph
2012-06-27, 00:06:46
Wann sich wohl ein Upgrade einer 560TI lohnen wird?

Nightspider
2012-06-27, 00:27:10
Wann sich wohl ein Upgrade einer 560TI lohnen wird?

Wahrscheinlich erst wenn der GK110 erscheint und die Preise deutlich tiefer liegen als jetzt. Also wahrscheinlich zum Jahreswechsel.

S940
2012-06-27, 01:19:31
Ist es normal, dass pro kleinerem Fertigungsschritt mehr Belichtungsschritte benötigt werden? Ich möchte nicht zu weit OT werden, wohl aber verstehen, ob das jetzt übliche Probleme sind, die einfach ein wenig Überhand nahmen (Pech gibt's nunmal immer), oder ob das jetzt einfach eine neue Qualität ist, über die wir hier reden!
Das hilft eventuell:
http://de.wikipedia.org/wiki/Double-Patterning-Verfahren

ndrs
2012-06-27, 01:24:57
Wann sich wohl ein Upgrade einer 560TI lohnen wird?
Sobald das von dir gespielte Spiel in den von dir gewünschten Einstellungen für deinen Geschmack nicht schnell genug läuft und der Preis zu einer tauglichen Karte ein für dich tragbares Niveau hat. Nicht eher und nicht später :)

Leonidas
2012-06-27, 07:44:58
Wow 3-5% schneller als die 7950er für ~299$ und gepaart mit einem 6Pin Stromstecker,sollte das der Wahrheit entsprechen is ne Top Grafikkarte.
http://wccftech.com/details-nvidias-gtx-660-shorter-pcb-299-usd-price-tag/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+Wccftechcom+%28WCCFtech.com%29



Passt nicht zusammen, was die erzählen. 87% einer 670 wäre Niveau über 7870.


Im übrigen glaube ich nicht, daß man einen GK104 so weit runterbringen kann, daß er weniger als 150W inkl. Reserven verbraucht (jedenfalls nicht zu Desktop-Taktraten). Das sieht man an den dritten Varianten eines Grafikchips, die verbrauchen regelmäßig nahezu genauso viel wie die zweite Variante, trotz großem Performance-Unterschied.

Palpatin
2012-06-27, 07:56:02
87% so schnell wie eine gtx670 und 3-5% schneller als eine 7950. da passt was nicht :D

bis dann wieder custom design mit leisen kühlern erscheinen haben wir weihnachten leute ;)
Warum passt das nicht? Laut CB ist die 670 in 1920x1080 4xAA/16xAF genau 17% schneller als die 7950 also passt das schon in etwa.

Spasstiger
2012-06-27, 09:00:23
Wenn die GTX 660 auf 87% der Performance einer GTX 670 kommt, dann ist das sicherlich ein GK104-Salvage-Part. 100 Watt sind mit dem GK104 definitiv möglich, siehe die GTX 680M. Aber so kommt man nicht auf die angegebene Performance.

MadManniMan
2012-06-27, 09:11:25
Das ist schon bemerkenswert: AMD hat seit gefühlten Ewigkeiten ein komplettes Lineup draußen und sogar Zeit, eine Karte in der Tradition der 9800 XT nachzuschieben und von Nvidia wissen wir noch nicht einmal mit Sicherheit, ob die noch überdeutlichst fehlende und ein großes Leistungsloch füllende Quasi-Performancekarte auf dem dafür vorgesehenen Chip basiert, oder aber eine Salvage-Karte ist :usad:

M4xw0lf
2012-06-27, 09:26:45
Das ist schon bemerkenswert: AMD hat seit gefühlten Ewigkeiten ein komplettes Lineup draußen und sogar Zeit, eine Karte in der Tradition der 9800 XT nachzuschieben und von Nvidia wissen wir noch nicht einmal mit Sicherheit, ob die noch überdeutlichst fehlende und ein großes Leistungsloch füllende Quasi-Performancekarte auf dem dafür vorgesehenen Chip basiert, oder aber eine Salvage-Karte ist :usad:

Genaugenommen hat AMDs "komplettes" Lineup aber eine sehr hässliche Lücke zwischen 7850 und 7770.

y33H@
2012-06-27, 09:49:49
Die HD 7830 gibt's ja, nur hält AMD diese offenbar noch zurück.

MadManniMan
2012-06-27, 10:07:00
Es gibt diese tatsächlich? Und AMD hält diese wegen der GT(X) 660 zurück?

AnarchX
2012-06-27, 10:08:50
Es gibt diese tatsächlich? Und AMD hält diese wegen der GT(X) 660 zurück?

THG hatte mal ausversehen so ein Sample bekommen: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9291398#post9291398

dildo4u
2012-06-27, 11:13:46
AMD wird noch massig 6870 und 6950 haben die müssen erstmal weg.

hardtech
2012-06-27, 11:24:55
will schon gar net wissen, wie das bei umstellung zu 22nm grakas sein wird.
- alte bestände müssen weg
- probleme mit ausbeute
- teuer in forschung
-> ergo: es wird das jahr 2015, bevor es richtig los geht.

Knuddelbearli
2012-06-27, 11:27:31
22nm ? du meinst wohl eher 20nm

Seph
2012-06-27, 11:46:24
Sobald das von dir gespielte Spiel in den von dir gewünschten Einstellungen für deinen Geschmack nicht schnell genug läuft und der Preis zu einer tauglichen Karte ein für dich tragbares Niveau hat. Nicht eher und nicht später :)

Najaaa, es gibt, denke ich, schon Zeiten zu denen man ein besseres oder schlechtes P/L-Verhältnis bekommt, selbst wenn die Unterschiede nicht riesig sein mögen. Generell fährt man wohl am besten wenn man immer "obere Mittelklasse" kauft wenn diese am erschwinglichsten ist, also ein paar Wochen nach Release.

disap.ed
2012-06-27, 12:30:48
Da hast du wohl recht, die Pitcairn-Chips haben jetzt einen Bereich erreicht wo man IMO doch von einem guten P/L-Verhältnis sprechen kann, die 7850 liegen alle so um die 200€, selbst die 7870 OC bekommt man kaum noch über 300€.

Bin gespannt, ob, wann und mit was Nvidia da reinfahren wird.

marc-05
2012-06-27, 12:37:56
Im übrigen glaube ich nicht, daß man einen GK104 so weit runterbringen kann, daß er weniger als 150W inkl. Reserven verbraucht (jedenfalls nicht zu Desktop-Taktraten). Das sieht man an den dritten Varianten eines Grafikchips, die verbrauchen regelmäßig nahezu genauso viel wie die zweite Variante, trotz großem Performance-Unterschied.
Das Glaub Ich auch nicht, das man so einen Leistungfähigen Chip mit einer sehr grenzwertigen 6Pin Stromversorgung raushaut.
GTX 670 verbraucht je nach Hersteller/Modell 208-178 Watt Ht4U messung

Dann eher zwei Chiplösung

GK104 Abfall = GTX 660ti mit gleiches/ähnliches PCB der GTX 670 (2x 6Pin)
GK 106 = GTX 660 (6Pin)

V2.0
2012-06-27, 13:11:49
Gar kein Problem. Ne 670 bei 65% TDP geht auf rund 800Mhz Base und knapp 950MhZ Boost.

Hugo78
2012-06-27, 13:17:01
@marc-05
Techpowerup und PCGH kommen auf einen Spieleverbrauch von ~150W für die GTX 670 (TDP 170W).
Die GTX 680M welche vom Aufbau 1:1 der Desktop GTX 670 entspricht, kommt mit einer TDP von 100W, bei rund 2/3 Takt (GPU wie RAM) einer Desktop GTX 670.

Ich kann mir vorstellen, bei nur 1152 SPs, sowie etwas weniger RAM (1,5GB statt 2GB) und wenn dann GPU wie RAM langsamer getakteten, man ingame auf ~100W kommen kann, bei einer TDP von 120-130W.
Was dann wieder für einen 1*6Pin ausreichen sollte.

dargo
2012-06-27, 13:33:19
Die GTX 680M welche vom Aufbau 1:1 der Desktop GTX 670 entspricht, kommt mit einer TDP von 100W, bei rund 2/3 Takt (GPU wie RAM) einer Desktop GTX 670.

Sie entspricht garantiert nicht der GTX670 Desktop. Bei der GTX680M taktet der GDDR5 mit nur 900Mhz was sich natürlich auch positiv auf den Stromverbrauch auswirkt.

PS: zudem bringen die Quervergleiche mit den Mobileversionen eh nicht viel da man für diese afaik anderes Binning betreibt.

Achja... und einen Boosttakt hat die 680M auch nicht.

Hugo78
2012-06-27, 13:41:27
Lesen, verstehen und erst dann posten.

y33H@
2012-06-27, 13:55:25
1.152 ALUs @ 850 MHz wären 1.958 FLOPS, also 80 Prozent der GTX 670 ... da wird mit 6P doch eher schwierig denke ich.

dildo4u
2012-06-27, 14:04:52
1.152 ALUs @ 850 MHz wären 1.958 FLOPS, also 80 Prozent der GTX 670 ... da wird mit 6P doch eher schwierig denke ich.
Es gibt doch diverse Green Edition's der 460 mit einem 6P,in dem Bereich dürfte der Verbrauch sein,vieleicht sogar noch ein Tick drunter.


http://www.hardwareluxx.de/index.php?option=com_content&view=article&id=17148%20%20&catid=38&Itemid=101

Selbst mit Boost dürften maximal mögliche 150W dicke reichen.

marc-05
2012-06-27, 16:02:40
GTX 660 = 5 SMX (960 Cuda Cores) 192Bit 1,5GB Vram

GTX 660TI = 7 SMX (1344 Cuda Cores) 192Bit 2GB Vram:confused:

http://s7.directupload.net/images/120627/w2lzkdmf.jpg (http://www.directupload.net)

y33H@
2012-06-27, 16:24:32
Sieben SMX sind 1152 ALUs. Denn 1344 hat schon die GTX 670 ;-)

ndrs
2012-06-27, 16:31:37
Naja, bei mir sind 7x192 schon 1344. 1152 wären dann 6 :)

y33H@
2012-06-27, 16:35:59
In der Tat :usad: schei0 Wetter ;-)

Gipsel
2012-06-27, 17:17:44
GTX 660 = 5 SMX (960 Cuda Cores) 192Bit 1,5GB Vram

GTX 660TI = 7 SMX (1344 Cuda Cores) 192Bit 2GB Vram:confused:

http://s7.directupload.net/images/120627/w2lzkdmf.jpg (http://www.directupload.net)
Na die Ti ist halt GK104 Salvage.

Leonidas
2012-06-27, 18:38:41
100 Watt sind mit dem GK104 definitiv möglich, siehe die GTX 680M.


Bin ich nicht überzeugt. Die 680M ist auch verdammt langsam für eine GK104-Lösung. Im Desktop passen 100W und 87% einer 670 nicht zusammen. Da die 100W wahrscheinlicher sind, dürfte es Performance eher in Richtung 560Ti sein. Wieso sollte NV auch bei 100W Verbrauch deutlich mehr bieten als AMD? Die 7850 hat bei 110W Verbrauch die Performance einer 6950 bzw. etwas besser als eine 560Ti. Da kann man doch nicht von 87% einer 670 schwafeln (= mehr als 7870), wenn die 100W stimmen sollen. Woher soll die Performance den herkommen bei diesem Verbrauch?




GTX 660 = 5 SMX (960 Cuda Cores) 192Bit 1,5GB Vram

GTX 660TI = 7 SMX (1344 Cuda Cores) 192Bit 2GB Vram:confused:

http://s7.directupload.net/images/120627/w2lzkdmf.jpg (http://www.directupload.net)


Spekulatius.

y33H@
2012-06-27, 18:44:07
Die GTX 680M hat knapp 2.000 GFLOPS und 115 Gbps, die GTX 670 kommt auf Richtung 2.500 GFLOPS (+25 %) und 192 Gbps (+67 %) - sooo "verdammt langsam für eine GK104-Lösung" ist das nun wahrlich nicht. Für die GTX 680M stimmen 100W, die GTX 660 (Ti) wird hier aber sicherlich eher 120 bis 140W haben.

ndrs
2012-06-28, 00:30:51
Dass in der 680M wahrscheinlich die sparsamsten Chips sitzen, welche man wohl kaum in eine billige Salvage-Version reinselektieren will, sollte auch nicht vergessen werden.

Leonidas
2012-06-28, 05:16:37
Richtig. Und aus diesem Grund ist ein GK104 mit 100W aufm Desktop auch auszuschließen. Mehr als 120W dürfen es auch nicht sein, ansonsten würde man aus Reserve-Gründen mehr Stromstecker verbauen. GK104 ist einfach unwahrscheinlich bei der GTX660.

Palpatin
2012-06-28, 07:32:30
Bin ich nicht überzeugt. Die 680M ist auch verdammt langsam für eine GK104-Lösung. Im Desktop passen 100W und 87% einer 670 nicht zusammen. Da die 100W wahrscheinlicher sind, dürfte es Performance eher in Richtung 560Ti sein. Wieso sollte NV auch bei 100W Verbrauch deutlich mehr bieten als AMD? Die 7850 hat bei 110W Verbrauch die Performance einer 6950 bzw. etwas besser als eine 560Ti. Da kann man doch nicht von 87% einer 670 schwafeln (= mehr als 7870), wenn die 100W stimmen sollen. Woher soll die Performance den herkommen bei diesem Verbrauch?

AMD gibt bei der 7850 laut CB einen typischen Verbrauch von 130 Watt an, in der Realität sinds dann beim spielen etwa 105 Watt. Nvidia gibt bei der GTX 670 einen typischen Verbrauch von 140 und einen maximalen von 170 an, im Spiel sinds dann 180 :(. Weniger verbrauch als die 7850 wird die 660 nur auf dem Papier aber nicht in der Praxis erreichen oder halt im Idle :D.

V2.0
2012-06-28, 07:38:34
Richtig. Und aus diesem Grund ist ein GK104 mit 100W aufm Desktop auch auszuschließen. Mehr als 120W dürfen es auch nicht sein, ansonsten würde man aus Reserve-Gründen mehr Stromstecker verbauen. GK104 ist einfach unwahrscheinlich bei der GTX660.

GTX670 ca. 170W bei 75% TDP etwa 130W. Das reicht für ne Baseclock gegen 850Mhz und Boost gegen 950Mhz.

AffenJack
2012-06-28, 07:52:35
Nvidia gibt bei der GTX 670 einen typischen Verbrauch von 140 und einen maximalen von 170 an, im Spiel sinds dann 180 :(

Nur wenn man am Power Target rumfummelt, werksseitig ist bei 150W Ende.
100W sind mit GK104 aber natürlich trotzdem unrealistisch. Das wäre dann wohl eher Gk106 Terrain. 1x6Pin sollte aber prinzipiell möglich sein bei der 660Ti mit weniger Takt und Spannung.

y33H@
2012-06-28, 08:24:05
Nvidia gibt bei der GTX 670 einen typischen Verbrauch von 140 und einen maximalen von 170 an, im Spiel sinds dann 180.180 Watt? Die c't misst 141 Watt (kA in welcher Form), TPU misst 144 Watt (Spielszene von Crysis 2), PCGH misst 147 Watt (Spielszene von Bad Company ) und HT4U misst 180 Watt (Hauptmenü von Hawx, nicht ingame und kA ob hier das Power Limit angezogen ist - muss ich Peter fragen). Ich sehe hier die 180W von HT4U als Ausreißer - was aber eben nicht bedeutet, dass man nicht auf solche Werte kommt. In Spielen, ingame, aber bewegt sich die GTX 670 ganz offensichtlich zwischen 140 und 150 Watt, was den Angaben von NV sehr nahe kommt.

AffenJack
2012-06-28, 08:49:49
...HT4U misst 180 Watt (Hauptmenü von Hawx, nicht ingame und kA ob hier das Power Limit angezogen ist - muss ich Peter fragen)

Ist mit Power Target auf Maximum, deshalb sind HT4Us Stromverbrauchsangaben für den Standarduser der nix an Einstellungen verändert wertlos geworden.

y33H@
2012-06-28, 09:11:06
Hab's gefunden, das erklärt natürlich die hohen Werte :usad:

Unsere nachfolgenden Last-Messungen wurden mit hochgesetztem Power Target vorgenommen.
Um diesen Problemen aus dem Weg zu gehen, setzten wir das Power Target händisch auf Maximum, um eben die möglichst beste Performance zu erhalten.etc.

dildo4u
2012-07-04, 15:45:22
AMD gibt bei der 7850 laut CB einen typischen Verbrauch von 130 Watt an, in der Realität sinds dann beim spielen etwa 105 Watt. Nvidia gibt bei der GTX 670 einen typischen Verbrauch von 140 und einen maximalen von 170 an, im Spiel sinds dann 180 :(. Weniger verbrauch als die 7850 wird die 660 nur auf dem Papier aber nicht in der Praxis erreichen oder halt im Idle :D.

Eine 660 auf GK 104 Basis dürfte AMD's Pitcairn schlagen was Performance per Watt angeht,schon die 670 liegt dort vor der 7870.

http://www.hardware.fr/articles/869-3/consommation-performances-watt.html

Die 7850 wird als Gegner wohl ne Karte mit GK106 bekommen.

boxleitnerb
2012-07-04, 19:27:43
Das sind zwei Spiele - zu wenig für so eine Aussage.

Hugo78
2012-07-04, 20:25:49
Ratings sind aber auch nicht der Weisheit letzter Schluß.
Zumal Anno 2070 liegt den Radeons überdurchschnittlich, nicht nur bei HW.fr, auch bei CB (http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7970-ghz-edition/23/) und ht4u (http://ht4u.net/reviews/2012/amd_radeon_hd_7970_ghz_edition_tahiti_xt2_test/index27.php).
Von daher kann man die Aussage erstmal so stehen lassen.

Jetzt könnte man die Gegenprobe mit ht4u versuchen, leider belässt ht4u das Powertarget für seine Verbrauchsmessungen nicht auf 100%,
sondern setzt immer das Maximum an, so das ein Vergleich mit HW.fr nicht möglich ist.

boxleitnerb
2012-07-04, 20:41:43
PCGH hat das ganz gut gemacht, die habe gleich 9 Spiele genommen. Mal sehen, was bei denen rauskommt.

Schaffe89
2012-07-04, 20:51:48
Es wäre mal an der Zeit mehrere Spiele zu messen und dann den Durschnittsverbrauch anzugeben, nicht nur ein Spiel.
PCGH hat glaub ich in der 5 Ausgabe diesen Jahres einen ausührlichen Performance/Watt Vergleich angestellt.
Dort war Pitcairn relativ deutlich vor der GTX 670, selbst die HD 7970 war in mehreren Spielen Performance/Watt mäßig vor der GTX 680 und im Schnitt kaum zurück.

Es bleibt also eng und spannend.

y33H@
2012-07-04, 22:33:21
Mehrere Spiele bei jeder (Launch-)Karte zu vermessen, ist leider extrem aufwendig - das geht idR nur, wenn der IHV einem zwei Wochen Zeit lässt ... was kaum der Fall ist.

fondness
2012-07-04, 22:53:17
Mehrere Spiele bei jeder (Launch-)Karte zu vermessen, ist leider extrem aufwendig - das geht idR nur, wenn der IHV einem zwei Wochen Zeit lässt ... was kaum der Fall ist.

Nur für ein Spiel den Verbrauch zu messen ist leider genau so aussagekräftig wie nur für ein Spiel die fps zu messen, nämlich gar nicht. Daraus den allgemeinen Verbrauch abzuleiten oder zumindest diesen zu suggerieren ist einfach fahrlässig.

dildo4u
2012-07-04, 23:00:43
Nur für ein Spiel den Verbrauch zu messen ist leider genau so aussagekräftig wie nur für ein Spiel die fps zu messen, nämlich gar nicht. Daraus den allgemeinen Verbrauch abzuleiten oder zumindest diesen zu suggerieren ist einfach fahrlässig.
Stimmt zwar aber Anno liegt AMD sehr gut trotzdem ist die 670 noch ein Tick besser.NV selektiert einfach strenger der V-Core ist im Vergleich zu AMD durch die Bank niedriger.

y33H@
2012-07-04, 23:08:33
Nur für ein Spiel den Verbrauch zu messen ist leider genau so aussagekräftig wie nur für ein Spiel die fps zu messen, nämlich gar nicht. Daraus den allgemeinen Verbrauch abzuleiten oder zumindest diesen zu suggerieren ist einfach fahrlässig.Wenn man mal ein Dutzend Spiele mit mehreren Karten getestet hat, dann kann man sich ein Spiel davon nehmen, was sich im oberen Mittelfeld bewegt im Falle aller Grafikkarten - das ist aussagekräftig.

Leonidas
2012-07-05, 06:56:32
Denke ich auch. Der Verbrauch schwankt nicht so massiv wie die Frameraten.

OgrEGT
2012-07-05, 21:04:08
Wann soll denn der GK106 a la GTX660 endlich mal vorgestellt werden?

AwesomeSauce
2012-07-05, 21:35:11
Nvidia failt wohl wieder mal auf Execution Ebene. 3 Monate sind seit dem Launch der GTX 680 vergangen, ausser der GTX 670 ist nichts nennenswertes seit diesem Zeitpunkt released worden. Beschönigen kann man da nichts, das ist einach nur Crap was da abgeliefert wird :mad:

Screemer
2012-07-05, 21:39:23
Die 640er gibts doch. Allerdings geb ich dir was die zeit angeht absolut recht.

Zergra
2012-07-05, 21:46:53
Die 640er gibts doch. Allerdings geb ich dir was die zeit angeht absolut recht.
ausser der GTX 670 ist nichts nennenswertes seit diesem Zeitpunkt released worden.

Die 640 ist doch solangsam... die braucht man einfach nicht erwähnen.

OgrEGT
2012-07-05, 21:58:47
Die GTX580/570 Karten müssen solange als Lückenfüller herhalten bis GK106 kommt. Aber wie lange noch? Verkaufen die sich überhaupt noch gut? Oder warten die Leute lieber auf 28nm?

schreiber
2012-07-05, 22:01:13
Die komplette Generation ist Rotz ohne richtiges High End und ein Mid Range, das altes High End ersetzt.

Hugo78
2012-07-05, 22:38:02
@AwesomeSauce

Für einen GF114 hat NV von seinen AIBs $50 genommen, GF110 hat $120 gekostet.

Jetzt übertrag das mal auf GK104 und GK106.
Wenn GK106 ~200mm^2 hat und GK104 mit knapp 300mm^2 daherkommt...

Nvidia bringt was am meisten Kohle einfährt und / oder OEMs befriedigt.
Der Retailmarkt steht halt hinten an.

Würde jeder so machen (müssen).

G3cko
2012-07-06, 08:23:15
Die GTX580/570 Karten müssen solange als Lückenfüller herhalten bis GK106 kommt. Aber wie lange noch? Verkaufen die sich überhaupt noch gut? Oder warten die Leute lieber auf 28nm?

Es ist eher umgekehrt. Auf Grund der hohen Bestände der GTX570 Karten wurde wohl GK106 nach hinten verschoben.

OgrEGT
2012-07-06, 18:31:45
Eben das meinte ich. Wenn man wüßte, dass sich GTX580/570 schlecht verkaufen, weil alle auf 28nm warten, dann könnte man befürchten, dass der release von GK106 noch laaange dauert.

fizzo
2012-07-11, 09:42:27
...Den neuesten Gerüchten zufolge, die wie immer mit Vorsicht zu genießen sind, wird die GeForce GTX 660 mit 1.152 Shadereinheiten, einem 192 Bit breitem Speicherinterface sowie einem 1.536 MB großen GDDR5-Speicher im August dieses Jahres zu einem Preis von 200 bis 250 US-Dollar auf den Markt kommen. Als GPU geht man vom noch unbekannten GK106 aus, sodass die Spekulationen identisch zu denen von vor einigen Wochen geblieben sind...

Vier noch nicht vorgestellte „Kepler“-Karten im Anmarsch? (http://www.computerbase.de/news/2012-07/vier-noch-nicht-vorgestellte-kepler-karten-im-anmarsch/)

MadManniMan
2012-07-11, 09:45:48
Yay, die Computerbase als Tertiäraggregator von hier im Forum gestreuten Gerüchten :D

Spasstiger
2012-07-11, 09:58:50
Computerbase müsste doch langsam gemerkt haben, dass 1152 SPs bei GK106 völliger Quatsch sein müssen, da die Lücke zum GK107 viel zu groß wäre und die Lücke zum GK104 zu klein.

Dural
2012-07-11, 11:55:39
ich denke die retail GTX660 karten werden alle auf dem GK104 basieren.

Gipsel
2012-07-11, 13:36:12
ich denke die retail GTX660 karten werden alle auf dem GK104 basieren.Soo viel Resteverwertung des GK104 wäre dann aber doch ungewöhnlich.
Also eine GTX660Ti bzw. GTX660-1152 auf Basis des GK104 ist ja noch glaubhaft (analog zur GTX560-448, nur eben nicht erst später sondern ziemlich früh). Aber die komplette Reihe (die doch recht verkaufsstark sein dürfte im Vergleich zu GTX670/680) mit GK104 Salvage-Dies zu bestücken, klingt dann doch etwas unglaubhaft.

Besitzt der GK106 nativ 3/4 des Speicherinterfaces und der ROPs (192 Bit, 24 ROPs), muß man vermutlich an den Shadern etwas mehr sparen, um auf die kolportierten 212mm² zu kommen, wenn nV nicht versucht, krampfhaft die Transistor-Packdichte zu erhöhen (bei kleineren Dies geht wegen dem proportional größerem Verschnitt am Rand üblicherweise die scheinbare Packdichte runter, auch wenn sie eigentlich identisch bleiben würde).
Nach dieser Überlegung sind deshalb eigentlich 5 SMXs (960 ALUs) mehr oder weniger schon best case bei halbiertem Front-End (ist nicht so groß). Wenn sie versuchen 6 SMX da reinzuquetschen, müssen die vermutlich irgendwo anders noch sparen (Taktbarkeit?). Oder da liegt der Knackpunkt, warum der GK106 dann doch schon etwas länger auf sich warten läßt. :|

Ailuros
2012-07-11, 14:44:10
GTX660 wasauchimmer wird hoechstwahrscheinlich nur fuer die groesste Variante einen GK104 salvage chip benutzen.

thedudeabides
2012-07-12, 10:25:48
Hey,
ich glaube dass der GK106 im Maximalausbau 960 Einheiten bieten wird!
768 erscheinen mir bei der "geringeren" Performance der Einheiten(i.V.m.Fermi) als doch etwas wenig.-V.a. wenn man bedenkt, dass es gegen AMDs 78xx-Serie gehen soll. -Eine 660Ti mit 960 Einheiten und einem 256Bit-SI
könnte doch mehr als Konkurrenzfähig sein.-Auch der Takt müsste nicht so
hoch sein und würde noch viel Raum für OC-Karten usw...bieten.
Ist das mit den 768 Einheiten und dem 192-Bit-SI eigtl. schon definitiv? Da liest man so viel Scheisse!
VG
TDa
P.s.
ich find 768 an einem 192Bit SI auch in Hinsicht auf die "Zukunft" viel zu schwach! Mir kommts so vor, wenn ich die ganzen Benchmarks durchgehe, dass die 78xx-Karten gerade in neuen und neueren DX11-Games sehr stark abschneiden. Auch meine 7870 leistet beachtliches.

Nakai
2012-07-12, 11:22:22
Hey,
ich glaube dass der GK106 im Maximalausbau 960 Einheiten bieten wird!
768 erscheinen mir bei der "geringeren" Performance der Einheiten(i.V.m.Fermi) als doch etwas wenig.-V.a. wenn man bedenkt, dass es gegen AMDs 78xx-Serie gehen soll. -Eine 660Ti mit 960 Einheiten und einem 256Bit-SI
könnte doch mehr als Konkurrenzfähig sein.-Auch der Takt müsste nicht so
hoch sein und würde noch viel Raum für OC-Karten usw...bieten.
Ist das mit den 768 Einheiten und dem 192-Bit-SI eigtl. schon definitiv? Da liest man so viel Scheisse!
VG
TDa
P.s.
ich find 768 an einem 192Bit SI auch in Hinsicht auf die "Zukunft" viel zu schwach! Mir kommts so vor, wenn ich die ganzen Benchmarks durchgehe, dass die 78xx-Karten gerade in neuen und neueren DX11-Games sehr stark abschneiden. Auch meine 7870 leistet beachtliches.

Ich würde dir irgendwie zustimmen, aber es gibt eigentlich nur zwei Möglichkeiten, wenn man die derzeitige Kepler-Architektur und Produktlinie betrachtet.
GK104 hat pro Rasterengine zwei SMX, welche jeweils 192SPs und 16 TMUs haben. GK107 ist daher genau ein viertelter GK104, reinher von den Recheneinheiten.

GK106 muss ziemlich gut dazwischen reintreffen. Das ist schwierig, wenn man den alten SMX und Rasterengineaufbau benutzt. 960SPs sind kaum möglich, da man hier 5 SMX benötigen würde. 5 SMX kann man schwer auf irgendeiner Anzahl von Rasterengines verteilen und mehr als GK104 wird er wohl nicht haben. So oder so sind auch 5 SMX sehr schlecht auf einem quadratischen Chip unterzubringen ohne andere Änderungen durchzuführen. Bei einem Midrange-Chip sollten nicht soviele Kursiositäten vorliegen, ergo gibt es nur zwei Möglichkeiten.
2 Rasterengines mit je 2 SMX, also 4 SMX gesamt, also 768SPs.
2 Rasterengines mit je 3 SMX, also 6 SMX gesamt, also 1152 SPs.

Ich weiß nicht, wie GK106 dann wirklich aussehen wird. Wenn NV sich mit GK106 zuviel Zeit lasst, muss er eher mit SeaIslands konkurrieren, als mit dem derzeitigen LineUp.

Gipsel
2012-07-12, 11:31:51
Ich hatte das schon bei Fermis GPCs geschrieben, daß das wohl eher virtuelle Einheiten sind, um für's Marketing ein paar nette Blockdiagramme zeichnen zu können. Die Zuordnung der Rastereinheiten zu den SMX ist nicht so fest, wie Du das offenbar denkst. Oder wie teilen sich die 7 SMX bei der GTX670 auf die 4 Rastereinheiten auf? Die Rastereinheiten arbeiten höchstwahrscheinlich immer für alle SMX zusammen, dahinter gibt es nochmal eine work distribution crossbar. Von jeder Rastereinheit können die Fragments (Pixel) auf jedem SMX landen. Es wäre also überhaupt kein Problem z.B. 5 SMX mit 2 Rastereinheiten zu kombinieren.

AnarchX
2012-07-12, 11:37:19
Ähnlich wie wohl GK110 15 SMX mit 6 Rastereinheiten kombiniert. ;)

Wenn NV nicht schon Notebook-Quadro-Lösungen basierend auf GK104 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9349670#post9349670) vorgestellt hätte, wäre vielleicht die Spekulation denkbar, dass GK106 DP mit 1:3 unterstützt, um Notebook-Quadros zu bauen, die bei der DP-Leistung näher an den GF100/110-Lösungen liegen, letzere waren mit ihren niedrigen Taktraten und Einheitenzahlen eher Die-Space-Verschwendungen, welcher unter 28nm umso kostbarer ist.

Ailuros
2012-07-12, 12:14:51
Ich hab zwar kein intel zum Thema aber dass sich GK106 konstant daran verspaetet koennte (reines Bauchgefuehl) an der Ziel-frequenz liegen die vielleicht nicht auf Anhieb erreicht wurde. Mit einem zusaetzlichem metal spin koennen sie durchaus etwas mehr am Takt drehen.

Die Effizienz von GK10x ist mehr oder weniger heutzutage bekannt, ergo ist eine sterile Spekulation von N Einheiten pro chip eher Bloedsinn, wenn man die jeweiligen moeglichen Frequenzen nicht mitberechnet. Bei kleineren chips sollte es theoretisch kein Problem sein hoehere Frequenzen zu erreichen als bei groesseren chips.

thedudeabides
2012-07-13, 10:02:42
Ich würde dir irgendwie zustimmen, aber es gibt eigentlich nur zwei Möglichkeiten, wenn man die derzeitige Kepler-Architektur und Produktlinie betrachtet.
GK104 hat pro Rasterengine zwei SMX, welche jeweils 192SPs und 16 TMUs haben. GK107 ist daher genau ein viertelter GK104, reinher von den Recheneinheiten.

GK106 muss ziemlich gut dazwischen reintreffen. Das ist schwierig, wenn man den alten SMX und Rasterengineaufbau benutzt. 960SPs sind kaum möglich, da man hier 5 SMX benötigen würde. 5 SMX kann man schwer auf irgendeiner Anzahl von Rasterengines verteilen und mehr als GK104 wird er wohl nicht haben. So oder so sind auch 5 SMX sehr schlecht auf einem quadratischen Chip unterzubringen ohne andere Änderungen durchzuführen. Bei einem Midrange-Chip sollten nicht soviele Kursiositäten vorliegen, ergo gibt es nur zwei Möglichkeiten.
2 Rasterengines mit je 2 SMX, also 4 SMX gesamt, also 768SPs.
2 Rasterengines mit je 3 SMX, also 6 SMX gesamt, also 1152 SPs.

Ich weiß nicht, wie GK106 dann wirklich aussehen wird. Wenn NV sich mit GK106 zuviel Zeit lasst, muss er eher mit SeaIslands konkurrieren, als mit dem derzeitigen LineUp.

Das hatte ich nicht bedacht! -Dann wird es meiner Meinung nach ein Chip mit 786SE.-Aber ein 256Bit-SI sollte es dann doch sein!? Bei 6 SMX - Also 1152 SE wäre der Abstand zur 670 doch etwas gering, oder? -Es sei denn man kombiniert es mit einem 192Bit-SI bzw. bremst den GK106 irgendwie aus. -Was meint Ihr? -Über den Takt lässt sich natl. auch sehr viel machen!

Auf jeden Fall bin ich sehr gespannt auf den Chip und die Karten.
Mit meiner 7870 bin ich auf jeden Fall sehr zufrieden! -Was mir fehlt,ist das Herumexperimentieren mit verschieden Tools,was die AA-Modi angeht! -Hatte schon länger keine AMD/ATI-Karte mehr. (Die letzte war eine 4850:o))

Nakai
2012-07-13, 11:10:55
Ich hatte das schon bei Fermis GPCs geschrieben, daß das wohl eher virtuelle Einheiten sind, um für's Marketing ein paar nette Blockdiagramme zeichnen zu können. Die Zuordnung der Rastereinheiten zu den SMX ist nicht so fest, wie Du das offenbar denkst. Oder wie teilen sich die 7 SMX bei der GTX670 auf die 4 Rastereinheiten auf? Die Rastereinheiten arbeiten höchstwahrscheinlich immer für alle SMX zusammen, dahinter gibt es nochmal eine work distribution crossbar. Von jeder Rastereinheit können die Fragments (Pixel) auf jedem SMX landen. Es wäre also überhaupt kein Problem z.B. 5 SMX mit 2 Rastereinheiten zu kombinieren.

Gut, das ist klar. Eine feste Zuordnung würde zu zu krassen Unterschieden der Einheitenblöcke kommen(vor allem bei Deaktivierung von Rechenknechten).

Ähnlich wie wohl GK110 15 SMX mit 6 Rastereinheiten kombiniert.

Mhh, ich würde GK110 dennoch nicht als Paradebeispiel eines krummen Designs nehmen. GK106 muss gut funktionieren, da er in OEM-Geräte eingesetzt wird. GK110 ist groß, hat viele SMXs und viel Cache. Das Chiplayout kann dadurch viel variabeler gestaltet werden. 5 SMX halte ich daher für unwahrscheinlich.

Das hatte ich nicht bedacht! -Dann wird es meiner Meinung nach ein Chip mit 786SE.-Aber ein 256Bit-SI sollte es dann doch sein!? Bei 6 SMX - Also 1152 SE wäre der Abstand zur 670 doch etwas gering, oder? -Es sei denn man kombiniert es mit einem 192Bit-SI bzw. bremst den GK106 irgendwie aus. -Was meint Ihr? -Über den Takt lässt sich natl. auch sehr viel machen!

960SPs sind schon möglich...wie es aber kommt werden wir sehen.

Ailuros
2012-07-13, 11:32:18
Wo steht denn gesichert dass GK110 6 und nicht 5 GPCs hat? Auf jeden Fall macht mir 5*3 SMXs mehr Sinn als alles andere.

V2.0
2012-07-13, 11:45:32
Man wird die Chips nicht nach Einheiten staffeln sondern nach projezierter Leistung.

GK104 stirbt auch nicht an einer deaktvierten SMX Einheit, es spricht also gar nicht dagegenen GK106 im Vollausbau als 1 GK mit 5 SMX zu projezieren, der teil deaktivierte Chip dann 2+4.

Ailuros
2012-07-13, 13:50:47
GK104@"GTX660Ti" oder wie es auch immer heissen wird, wird hoechstwahrscheinlich 2 und nicht einen deaktivierten cluster haben [/haarspalterei].

Hakim
2012-07-24, 22:33:25
Ich muss mir mal eine neue Grafikkarte holen und die HD7950 gibts derzeit relativ günstig. Kann man davon ausgehen das die GTX660ti mindestens genau so schnell sein wird wie die HD7950?

denis-cubic
2012-07-24, 22:39:48
Ich muss mir mal eine neue Grafikkarte holen und die HD7950 gibts derzeit relativ günstig. Kann man davon ausgehen das die GTX660ti mindestens genau so schnell sein wird wie die HD7950?
LOL
Die 660 TI wird man mindestens 30% unter der 670 einsortieren in Sachen Leistung. Also wohl sogar noch langsamer als die GTX 580.
Aber dafür ist der Preis wenigstens fast High End. 299 Dollar. :ugly:

aufkrawall
2012-07-24, 22:41:49
"Mindestens" wohl nicht.
Nur nach fps kaufen kann sich aber auch rächen.

Hakim
2012-07-24, 23:54:14
Komisch irgendwo hatte ich gelesen das es besser gehen soll als die GTX580, ich warte lieber noch bis es raus ist

Edit: genau hier http://www.pcgameshardware.de/aid,993991/Geforce-GTX-660-Ti-in-der-dritten-August-Woche/Grafikkarte/News/

Die Leistung soll zwischen 8 und 10 Prozent unterhalb der GTX 670 liegen, allerdings das ältere Spitzenmodell in Form der GTX 580 in den Schatten stellen.
/

mczak
2012-07-25, 06:13:22
LOL
Die 660 TI wird man mindestens 30% unter der 670 einsortieren in Sachen Leistung.
Also wenn das tatsächlich wie spekuliert ein gk104 ist mit 1344 SPs und 192bit Interface ist wird die sicher nicht 30% unter der 670 sein. Es sei denn die Karte verliert nicht nur 25% der Speicherbandbreite aufgrund des schmaleren Speicherinterfaces (damit würde sie wohl so etwas über 10% Performance verlieren, also durchschnittlich auch schon knapp unterhalb HD7950 landen), sondern auch noch massiv GPU- und/oder Speichertakt (weniger Takt ist wohl durchaus möglich aber kaum so massiv).
Dass die 660ti eine 7950 schlägt halte ich auf jeden Fall für unwahrscheinlich, da die GTX670 ja auch schon nicht mal 10% schneller ist. Glaube nicht dass nvidia noch mehr Karten braucht die fast gleich schnell sind :-).

Spasstiger
2012-07-25, 09:04:40
Die GTX 660 Ti wird wohl preislich und performancetechnisch gegen die Radeon HD 7870 gestellt werden. Die HD 7950 wird wohl noch wie die HD 7970 ein Taktupgrade erfahren und dann auf Augenhöhe mit der GTX 670 oder sogar drüber sein.

V2.0
2012-07-25, 09:22:34
Das glaube ich nicht. Denn das Taktupdate ging auch bei der 7970 nur über Spannung und Leistungsaufnahme. Eine Steigerung in diesen Parametern würde die 7950 aber unattraktiver gegenüber der 670 machen.

Palpatin
2012-07-25, 09:36:31
Das glaube ich nicht. Denn das Taktupdate ging auch bei der 7970 nur über Spannung und Leistungsaufnahme. Eine Steigerung in diesen Parametern würde die 7950 aber unattraktiver gegenüber der 670 machen.
Die 900 MHZ Variaten der 7950 liegen was Perf und Leistung angeht in etwa gleich auf mit der 670 und kosten deutlich weniger.
Ist halt die Frage wie weit AMD geht falls Taktupgrade kommt. 900 - 950 könnte richtig gut werden. 1k halte ich auch für problematisch.

Hübie
2012-07-27, 11:02:46
sweclockers schreiben was von 192 Bit SI und sonst alles wie bei der 670. Das stinkt doch bis zum Himmel. 2GB, 192 Bit? 1344 Shaderunits? Glaub ich erst wenn ichs sehe.

AffenJack
2012-07-27, 11:54:09
Resteverwertung der Gk104 Chips als GTX660 TI, so kann man noch alle Chips verwenden, die Fehler in einem Teil des Speicherkontrollers oder der Rops haben. Bei den Shadern braucht man anscheinend keine Chips, wo 2 Cluster deaktiviert sind. GK106 wirds halt noch immer nicht. Das dürfte dann erst die GTX 660 ohne TI werden.

mczak
2012-07-27, 17:33:50
sweclockers schreiben was von 192 Bit SI und sonst alles wie bei der 670. Das stinkt doch bis zum Himmel. 2GB, 192 Bit? 1344 Shaderunits? Glaub ich erst wenn ichs sehe.
Möglich ist das schon - sinnvoll war ein solcher asymmetrischer Speicherausbau technisch gesehen noch nie aber das hat nvidia ja auch bisher nicht abgehalten (naja aus marketingtechnischen Gründen macht das schon auch Sinn). Ob man wirklich bloss einen SMX deaktivieren will (und folglich keine Karte hat mit 2 deaktivierten Clustern) scheint auch ziemlich fraglich - einerseits wäre auch der Verlust eines zweiten performancemässig sicher zu verkraften, andererseits ist es wohl durchaus möglich dass man kaum Chips hat bei denen das nötig wäre. Naja demnächst sollte dann alles klar sein...

Hübie
2012-07-27, 17:39:23
Möglich schon, aber sinnvoll??
Ich habe eben mal auf wiki nachgelesen. Da fiel mir auf, dass die GeForce 560 und 560 Ti ja aus 5 verschiedenen Mustern bestehen ;D Dann rücken die Specs gerade ins mögliche Licht. Dennoch halte ich das für unausgewogen. Mglw. wieder so eine Taktik von NV. =)

Hugo78
2012-07-27, 18:44:18
Wenn die GTX 660 Ti mit 1344 SPs / 192bit SI kommt, dann wohl um den 7950/ 7870 Speed zubedienen.
Einen weiteren GK104 Salvage aka GTX 660, mit 1152 SPs /192bit SI und weniger Takt,
würde ich dann aber immernoch erwarten, dass man die 7850 packt und auch eine ähnlich gute Perf./W hat.

Im Grunde braucht man auch keinen GK106, GK104 ist klein genug um die ganze Bandbreite von 200€ bis "Open End" zubedienen und überall wirtschaftlich zusein, mal mehr, mal weniger.
Man braucht halt nur entsprechend viele teildefekte GK104, dass sie das auch lohnt.

GK106 kann man dann auch als 650 und 650 TI verkaufen, wobei die 650Ti ja nicht weit von der non Ti 660 entfernt sein muss.

Für die 660 spräche ein immernoch besseres OC Potential und eventuell schnell Modelle mit 3GB.

AnarchX
2012-07-27, 19:36:59
EVGA GTX 660 TI
http://bbs.expreview.com/data/attachment/forum/201207/27/223905m3l7obbvcvmi87fx.jpg

http://bbs.expreview.com/thread-54014-1-1.html

GK106 GTX 660 mit 980/1032 @ 6Gbps: siehe unten, wohl Taktraten der 660 Ti

640 D3, called 640,640 D5 called 650; the GK106 core for 650 TI and 660; TI's the GK104 core for 660. Among them, 660's TDP is 120W, frequency 980/6000, and supports the BOOST and the BOOST frequency for 1032
http://bbs.expreview.com/thread-54008-1-1.html

Skusi
2012-07-29, 15:31:57
Als 560Ti Besitzer frage ich mich, wer die 660Ti kaufen soll?

- weniger Stromverbrauch
- kaum Mehrleistung (fps)
- dafür deutlich teurer als der 560Ti Einstiegspreis (ca.80Euro)

mfG

Doomi
2012-07-29, 15:39:06
wenn die Specs so hinhauen dann wäre die Karte doch ca 50 % schneller, bietet das Feature 4 Moniore gleichzeitig anzuschließen was ich persönlich gut gebrauchen könnte und weniger Stromaufnahme..

das zusammen genommen finde ich schon sehr interessant.. für 250 würde ich zuschlagen wenn ich meine 560 ti für gutes Geld noch losbekommen könnte

dildo4u
2012-07-29, 15:58:51
Als 560Ti Besitzer frage ich mich, wer die 660Ti kaufen soll?

- weniger Stromverbrauch
- kaum Mehrleistung (fps)
- dafür deutlich teurer als der 560Ti Einstiegspreis (ca.80Euro)

mfG
Die Karte wird auf dem Level der 7950 gesehen wäre 50% mehr Leistung.

http://www.computerbase.de/artikel/grafikkarten/2012/test-club3d-radeon-hd-7850-1.024-mb/4/

AnarchX
2012-07-29, 16:08:04
Vielleicht doch nur 1152SPs?

http://news.mydrivers.com/img/20120729/s_fee55d61b5184ebdbbe332d062fafc59.jpg
http://we.pcinlife.com/thread-1952625-1-1.html

Kommt wohl von hier:
http://www.redquasar.com/forum.php?mod=viewthread&tid=8612
... die Seite hatte damals die ersten "GTX 670 Ti" Bilder.

Also wohl ~90% GPU-Leistung und 75% der Bandbreite einer GTX 670.

Damit sollte man trotzdem noch gute 40% über der GTX 560 Ti liegen.

marc-05
2012-07-29, 16:31:37
6 SMX hören sich doch realistischer an als 7 wie bei der GTX 670.

Edit :GTX 660TI mit 256 Bit SI ?
CTS-MOD NV 660ti leaked, we got the 256bit version
Power port is 6p+6p(offical one is 6p)TDP 120~130w
default@980/6000 BOOST up to 1123
SP1152

Roughly the same pcb as GTX670
Output 2*DVI + DP +HDMI
3d mark11 X 27**
Can be oc to 1.2ghz with air cooling easily

Anyway nvidia is a bit struggling on this, 192bits cannot beat 7870, 256bits is too powerfual will effect their own product such as GTX670.

More infomation is depands on our satuaion

The one leaked before is 192bits, cannot beat the 7870, so nv give it 256bits and removed one group of SP so it comes into 1152SP

http://www.redquasar.com/forum.php?mod=viewthread&tid=8612

Gipsel
2012-07-29, 18:21:54
Jegliche GTX660 auf Basis des GK104 ist sowieso langweilig. Wenn die sich jetzt angeblich schon Sorgen machen, daß ein abgespeckter GK104 mit 192Bit-Interface auf 6GBps (und 7 SMx/1344 SPs wie bei der GTX670) einen Pitcairn nicht schlägt (der nur 4,8 GBps Speicher nutzt [der Bandbreitenvorteil durch die 256Bit beträgt damit nur gut 6%] und 1280 SPs hat), wie schlägt sich dann erst die normale GTX660 auf Basis des GK106? Das Teil hat ja ziemlich die gleiche Diegröße wie Pitcairn und gegenüber dem GK104 vermutlich ein etwas abgespecktes Frontend (es wird spannend, ob es wirklich nur 2 Rastereinheiten werden oder ob nV doch drei reinpackt und GK106 damit deutlich oberhalb von 2 x GK107 ansetzt) und auch nativ nur 24 ROPs und ein 192Bit-Speicherinterface. Und mehr als 960SPs sind ja auch kaum zu vermuten. Das Teil müßte dann schon mit einem sehr hohen Takt kommen, um die HD7870 auch nur ansatzweise zu gefährden (und von der gibt es ja auch 1,1 GHz Versionen).

AnarchX
2012-07-29, 18:44:56
Zielstellung hinter GK106 sollte es imo sein GTX 560 Ti Leistung langfristig knapp über 100€ anzubieten. "6er GPUs" waren ja seit Jahren in diesem Segment angesiedelt.

Wenn man eine günstige Prognose für Speicherpreise hat, könnte man eine solche GPU vielleicht auch mit 128-Bit @ 6Gbps füttern. Die 192-Bit Varianten von GF1x4 haben doch recht ordentlich performt mit ähnlicher Bandbreite.

Um mit AMD mitzuhalten bräuchte man in den niedrigen Segmenten wohl deutlich fettere SMX.

MadManniMan
2012-07-29, 18:47:30
Hm ... bei 1152 SPs vielleicht doch ein nativer Chip?

AnarchX
2012-07-29, 18:55:06
Sprechen die (optionalen) 256-Bit in Verbindung, eher dagegen.

Ähnlich wie bei GF104 versucht man hier die Ausbeute wohl zu maximieren, selbst beim 228mm² GF106 hat man 3 verschiedene Versionen der ROP-Deaktivierung genutzt (zu erkennen an der KA/KB/KC-Markierung).
Da sollte sich das auch beim teuren 28nm Silizium lohnen.

marc-05
2012-07-29, 18:56:34
Wenn Ausbeute schlecht könne man GK 104 mit 5 SMX raushauen.

Denn GK 106 mit 4 bzw. 3 SMX für die GTX 660 (noTI) und GT(S/X) 650TI (Spekulatius)

Gipsel
2012-07-29, 19:13:31
Hm ... bei 1152 SPs vielleicht doch ein nativer Chip?
Dann fehlt nV aber ein GK106.5. Ansonsten ist die Lücke zwischen einem GK107 mit nur 2 SMx/384 SPs und den 6 SMx/1152 SPs doch ein wenig groß. Daß man den nicht genau in die Mitte (4 SMx/768 SPs) packt, kann man vielleicht noch nachvollziehen (Spektrum, das mit Salvage-Modellen abgedeckt werden kann). Aber 6 SMx sind da als unterstes Salvage-Modell des GK104 erstmal glaubhafter als ein GK106 mit den Daten. Und sind nicht 212mm² als Die-Größe schon mal irgendwo vermeldet worden? Da wird es verdammt eng mit 6 SMx (obwohl es nicht völlig auszuschließen ist in Kombination mit 192Bt-Interface, 24 ROPs und nur 2x8 Pixel-Rasterizern). Aber dann müßte nV quetschen ohne Ende und vermutlich noch irgendwo anders sparen (bei GPGPU geht ja praktisch nicht mehr). Für wahrscheinlich halte ich das nicht, das Maximum wäre meiner Einschätzung nach 5 SMx/960 SPs, falls sie da ein sinnvolles Layout finden (4 SMx/768 SPs ist vermutlich die am meisten getippte Variante). Damit kommt man vielleicht an die HD7850 ran, für mehr dürfte es nicht reichen (im Fall von 4 SMx wird wohl selbst das knapp).

AnarchX
2012-07-29, 20:11:19
Nett wären wohl theoretische "SMXL" mit 256SPs.

Wenn man damit unter vertretbaren Silizium-Kosten, die Leistung noch 10-15% gegenüber einer 192SPs SMX steigern könnte, wäre das wohl eine interessante Option um näher an die 7870 heranzukommen.

Ein gutes Basis-Modell für GK106 ist immernoch der Vergleich GF116 vs GF114, wo die GTX 550 Ti mit 11% mehr GPU-Takt ~60% der Leistung einer GTX 560 Ti erreicht hat.

Spasstiger
2012-07-29, 20:19:15
Ich glaube nicht, dass NV bei GK106 die SMX-Blöcke umbaut. Alle Kepler-GPUs bis auf GK110 dürften die gleichen Grundstrukturen besitzen, was vom Entwicklungsaufwand her und auch aus Sicht der Treiberpflege am Sinnvollsten erscheint.

Skysnake
2012-07-29, 20:30:04
Dem kann ich nur zustimmen, mich würde es sehr wundern, wenn man andere SMX Blöcke hätte, außer bei GK110.

dildo4u
2012-07-29, 21:32:19
NV wird nicht den selben Mist bauen wie AMD,dort ist die 7870 viel zu nahe an der 7950,also gut möglich das es kein direkten Konkurent zur 7870 gibt.AMD muss die 7950 jetzt fast für den selben Preis verkaufen,das mit größerem Chip und 1GB mehr V-Ram.

Knuddelbearli
2012-07-29, 21:45:30
wieso muss?

und dafür kann sie auch die 7870 teurer verkaufen

nimmt sich also nix

dildo4u
2012-07-29, 21:50:28
Es ist trotzdem Unsinnig 2 Produkte im selben Segment zu haben,vieleicht läuft die 800mhz 7950 bald auch aus und wird durch ne OC Version ersetzt.

Mancko
2012-07-29, 21:51:45
wieso muss?

und dafür kann sie auch die 7870 teurer verkaufen

nimmt sich also nix

Bei nur geringem Preisunterschied kauft der Kunde aber lieber die 7950 was AMD wiederum die Marge verhagelt, weil sie sich mit der 7870 unnötig den Preis für die 7950 kaputt gemacht haben.

Knuddelbearli
2012-07-29, 22:17:22
wenn amd einfach nur soviele 7950 anbietet wie wirklich defekt sind ist es ja kein problem im idealfall regeln sie auch den preis genau so

schreiber
2012-07-29, 22:36:55
Bei nur geringem Preisunterschied kauft der Kunde aber lieber die 7950 was AMD wiederum die Marge verhagelt, weil sie sich mit der 7870 unnötig den Preis für die 7950 kaputt gemacht haben.
Hm, wenn man den Steam-Zahlen glaubt, dann verkauft AMD hauptsächlich 7970 und 7850
Aktuelle Generation:
680 0,73%
670 0,58%
7970 0,49%
7850 0,44%
http://store.steampowered.com/hwsurvey/videocard/

Spricht dafür, dass beide (7950 und 7870) nicht gerade attraktiv sind. Ergo kann es AMD egal sein, was sich nicht verkauft. ^^

Aber interessant wird die Reaktion auf jeden Fall, wenn nvidia genau in dem Performance-Bereich die Produktpalette ergänzt.

Blediator16
2012-07-29, 22:48:01
NV wird nicht den selben Mist bauen wie AMD,dort ist die 7870 viel zu nahe an der 7950,also gut möglich das es kein direkten Konkurent zur 7870 gibt.AMD muss die 7950 jetzt fast für den selben Preis verkaufen,das mit größerem Chip und 1GB mehr V-Ram.

Und was ist mit der 670 und 680?

aufkrawall
2012-07-29, 23:30:55
Und was ist mit der 670 und 680?
Die 680 brauchten sie wohl, um in den Reviews (erstmal) als eindeutiger Sieger dazustehen.
Mit der 670 hat man halt erfolgreich der 7970 das Wasser abgegraben.

dildo4u
2012-07-29, 23:53:55
Und was ist mit der 670 und 680?
680 ist absolutes High-End was für viele scheinbar wichtig ist und sie gerne extra Draufzahlen.(670 680 stehen sich Preislich nicht im Weg)Bei der 7950 und 7870 ist Preis-Leistung wichtiger und so ist AMD gezwungen den großen Chip zu "verscherbeln".

marc-05
2012-07-30, 08:43:55
G PU-Z Screen von AnarchX war ja 660(non TI) ;D

Jetzt Screen von angeblichen GTX 660TI unterschied wäre nur ROPs bzw. SI Speichergröße.

http://wccftech.com/nvidia-geforce-gk104-skus-gtx-660ti-feature-2gb-256bit-nonti-feature-15gb-192bit-memory-interface/

Spasstiger
2012-07-30, 09:28:55
Hm, wenn man den Steam-Zahlen glaubt, dann verkauft AMD hauptsächlich 7970 und 7850
Aktuelle Generation:
680 0,73%
670 0,58%
7970 0,49%
7850 0,44%
http://store.steampowered.com/hwsurvey/videocard/

Spricht dafür, dass beide (7950 und 7870) nicht gerade attraktiv sind. Ergo kann es AMD egal sein, was sich nicht verkauft. ^^
Zur Ergänzung eine andere Teilstatistik, DX10/DX11-Systeme (GPU+OS):
http://store.steampowered.com/hwsurvey/directx/
GTX 680: 0,66%
GTX 670: 0,52%
HD 7970: 0,44%
HD 7850: 0,40%
HD 7770: 0,24%
HD 7950: 0,22%
HD 7870: 0,20%
HD 7750: 0,12%

Die HD 7950 und HD 7870 scheinen sich tatsächlich gegenseitig Markanteile wegzunehmen, in Summe kommen ähnliche Anteile wie bei der HD 7850 und bei der HD 7970 raus.
Viel Interessanter finde ich aber, dass sich die HD-7700-Serie so schlecht verkauft, obwohl hier das Preis-Leistungsverhältnis am Besten ist von allen GCN-Karten. Wahrscheinlich sind die Aufrüstzyklen in diesem Performancesegment zu lange, als dass die HD 7700 hier schon auf nennenswerte Marktanteile kommen kann. Der späte GK106-Release tut NV möglicherweise gar nicht besonders weh.

Sorkalm
2012-07-30, 10:25:44
Naja, die 7700-Serie hat gegenüber dem 40nm-Angebot jetzt auch preislich kaum Argumente...
... AMD profitiert da weniger an Marktanteilen, als eben an den Verkaufspreisen, das Nvidias Gegenstück fehlt.

Skysnake
2012-07-30, 11:22:22
Una man muss auch bedenken, was wir die Wirtschaftskrise haben. Gerade OEM Rechner usw, die eher mal ne kleine Karte drin haben leiden im Moment unter geringen Verkäufen. Ebenso siehts bei Aufrüstern für kleines Geld aus. Wer sich ne kleine Karte gekauft hat, weil er eh nicht so viel ausgeben wollte, wird jetzt halt eher gar keine kaufen. Bei den großen Karten wird entweder gewartet und ne Generation übersprungen oder halt doch einfach gekauft, weil mans halt hat.

Wenn man alles zusammen nimmt, sieht man aber, das AMD fast 40% mehr Karten der neuen Generation abgesetzt hat als nVidia. Das ist schon krass. Die wirklich hohen Werte bei einer Karte fehlen, daher sieht nVidia auf den ersten Blick so gut aus, aber eben nur, weil es sich bei AMD eben verteilt auf die unterschiedlichen Karten. Wann hatten wir das mal, das AMD ~2/3 (~60%) der Karten abgesetzt hat? :ugly:

nVidia wirds trotzdem überleben. Man hat ja sehr teure Karten verkauft, was der Marge zugute kommen sollte. Trotzdem bleibt da ein gewisses Geschmäckle.

aufkrawall
2012-07-30, 11:28:10
"Jetzt auch kompatibel mit GTX 660 TI":
http://www.arctic.ac/de/p/cooling/vga/375/accelero-twin-turbo-ii.html

boxleitnerb
2012-07-30, 11:32:14
Ich finde es eher erstaunlich, dass Nvidia soviele Karten absetzt, obwohl man so spät war und bisher nur einen Chip hat. Und laut Charlie soll die Ausbeute ja auch so schlecht sein - wer's glaubt...

Skysnake
2012-07-30, 11:44:38
Naja, AMD ist dieses mal eben als ziemlich Ineffizient verschrien. Das hilft in der heutigen Zeit nicht gerade weiter.

Mich wunderts allerdings auch. Insbesondere wenn man bedenkt welche Schritte AMD nach vorne gemacht hat in allen Bereichen der Bildqualität usw.

aufkrawall
2012-07-30, 11:47:20
Mich wunderts allerdings auch. Insbesondere wenn man bedenkt welche Schritte AMD nach vorne gemacht hat in allen Bereichen der Bildqualität usw.
Der Ruf der AMD-Treiber ist wohl nach wie vor ziemlich mies.
Teilweise auch zu Recht, da ist man selbst mit viel gutem Willen irgendwann arg gefrustet.

V2.0
2012-07-30, 11:57:50
Die 7770 ist zwar gut, aber wer ne 5770/6770 hat muss jetzt nicht zwingend umstiegen.

Mancko
2012-07-30, 12:05:09
Zur Ergänzung eine andere Teilstatistik, DX10/DX11-Systeme (GPU+OS):
http://store.steampowered.com/hwsurvey/directx/
GTX 680: 0,66%
GTX 670: 0,52%
HD 7970: 0,44%
HD 7850: 0,40%
HD 7770: 0,24%
HD 7950: 0,22%
HD 7870: 0,20%
HD 7750: 0,12%

Die HD 7950 und HD 7870 scheinen sich tatsächlich gegenseitig Markanteile wegzunehmen, in Summe kommen ähnliche Anteile wie bei der HD 7850 und bei der HD 7970 raus.
Viel Interessanter finde ich aber, dass sich die HD-7700-Serie so schlecht verkauft, obwohl hier das Preis-Leistungsverhältnis am Besten ist von allen GCN-Karten. Wahrscheinlich sind die Aufrüstzyklen in diesem Performancesegment zu lange, als dass die HD 7700 hier schon auf nennenswerte Marktanteile kommen kann. Der späte GK106-Release tut NV möglicherweise gar nicht besonders weh.

Erstaunlich das die GTX680 und GTX670 hier bereits vor der HD7970 und HD7950 liegen, trotz späterem Start. Spricht dafür das viele einfach gewartet haben bis Nvidia die Katze aus dem Sack lässt.

Bzgl. der HD7700 Serie gebe ich Dir Recht. Das Ersetzen von Hardware findet dort beileibe nicht so schnell statt wie bei den höher preisigen Karten, zumal gerade die letzte Generation dort erstaunlich viel Leistung fürs Geld geboten hat. Zusätzlich dazu könnten m.E. auch noch die begrenzten 28nm Kapazitäten ein Grund sein sowie die stark reduzierten Preise bzw. der Ausverkauf der Produkte der lezten Generation. Insofern stimmt ich Dir zu, dass das Fehlen des GK106 wahrscheinlich noch nicht so ins Gewicht fällt.

Skysnake
2012-07-30, 12:54:35
Der Ruf der AMD-Treiber ist wohl nach wie vor ziemlich mies.
Teilweise auch zu Recht, da ist man selbst mit viel gutem Willen irgendwann arg gefrustet.
Kann ich auf Windows bezogen absolut nicht nachvollziehen. Hab seit der 5870 ne Ati, und nur direkt am Anfang Probleme gehabt, weil die Treiber nicht gingen, was aber recht schnell zu beheben war, und dann eben vor 1-2 Monaten mal, das ein Treiber dafür gesorgt hat, das im CCC immer der OC-Tab verschwunden ist, wenn ich draufgeklickt hab, also nicht rein kam in die Einstellungen. Das wars aber.

Keine Ahnung was die Leute mit den Treibern haben :uconf: Mit nVidia hatte ich im laufe der Zeit nicht weniger Probleme.

Linux ist wieder was anderes, wobei ich da auch noch keine Probleme hatte. Inzwischen glaub ich, dass da auch eher der Nutzer das Problem ist, der halt meint unbedingt irgend nen XY Kernel, bzw XYZ Distri zu nutzen, für die es eben keinen closed Source Treiber gibt... Da kommt es halt zu Problemen, wenn man nicht weiß was man macht.

M4xw0lf
2012-07-30, 14:33:09
Ich finde es eher erstaunlich, dass Nvidia soviele Karten absetzt, obwohl man so spät war und bisher nur einen Chip hat. Und laut Charlie soll die Ausbeute ja auch so schlecht sein - wer's glaubt...

Ich habs schon immer gewusst, die Nvidia Fanboys sind überall! Wo ist mein Alu-Hut, der mich vor Nvidias-Hirnkontrollstrahlen schützt? :freak:

marc-05
2012-07-30, 15:14:03
Aber tut sich Nvidia nicht generell leichter höchpreisige Grafikkarte zu verkaufen als AMD.
Zuwächse Mai - Juni ist intressant
(http://store.steampowered.com/hwsurvey/directx/?sort=chg)

NVIDIA GeForce GTX 670
+0.40%


ATI Radeon HD 7850
+0.18%

NVIDIA GeForce GTX 680
+0.16%

ATI Radeon HD 7770
+0.08%

ATI Radeon HD 7870
+0.04%

ATI Radeon HD 7950
+0.02%

ATI Radeon HD 7970
-0.02% :freak::eek:


Mai Juni Zuwachs
GTX 670 vs 7870
10 : 1

GTX 670 vs 7950

20 : 1

Blediator16
2012-07-30, 15:42:37
Ich habe seit Anfang an Steam drauf und habe noch nie eine Survey mitgemacht oder nimmt sich Steam von alleine die Daten des PCs? Wenn nicht, dann ist das mit einer LKW Ladung Salz zu genießen.

Skysnake
2012-07-30, 15:44:12
Werte im Bereich bis ca 0,05 oder gar 0.1 Prozentpunkte kannste vergessen. Das kommt aus der ganz normalen Schwankung der Teilnehmer der Umfrage. Es ist ja nicht bekannt, wie viele Leute wirklich mit machen, und selbst wenn es sehr sehr sehr viele sind, hast du halt trotzdem immer noch eine statistische Schwankung drin.

EDIT:
Nein, es sind nur "wenige" die daran teilnehmen.

Z.B. wurde ich bisher einmalig geben mit zu machen, das aber dankend abgelehnt! Wieder ein AMD Nutzer weniger in der Statistik :rolleyes:

dildo4u
2012-07-30, 15:49:16
In den US Foren spielt AMD kaum ne Rolle dort scheint,das Image wichtiger zu sein als andere Faktoren.Vieleicht mixt man dort auch eher den schlechten Ruf der Prozessoren mit rein.Gerade nach dem Bulldozer Debakel wären sie imo besser dran den Namen ATI für ihre Karten zu nutzen.

aufkrawall
2012-07-30, 16:41:16
Kann ich auf Windows bezogen absolut nicht nachvollziehen. Hab seit der 5870 ne Ati, und nur direkt am Anfang Probleme gehabt, weil die Treiber nicht gingen, was aber recht schnell zu beheben war, und dann eben vor 1-2 Monaten mal, das ein Treiber dafür gesorgt hat, das im CCC immer der OC-Tab verschwunden ist, wenn ich draufgeklickt hab, also nicht rein kam in die Einstellungen. Das wars aber.

Keine Ahnung was die Leute mit den Treibern haben :uconf: Mit nVidia hatte ich im laufe der Zeit nicht weniger Probleme.

Ich hab bisher noch nichts von Leuten gelesen, die genervt von Nvidia auf AMD umgestiegen sind.
Nur umgekehrt.
Ein Indiz dafür ist vielleicht auch das negative Wachstum der 7970 in der Steam-Survey.

AMD haben es versäumt, ihre Software dem hohen Niveau der GPU-Hardware anzugleichen.
Warum per Treiber forciertes AA so bescheiden aussehen muss, ist mir ein Rätsel.


Linux ist wieder was anderes, wobei ich da auch noch keine Probleme hatte. Inzwischen glaub ich, dass da auch eher der Nutzer das Problem ist, der halt meint unbedingt irgend nen XY Kernel, bzw XYZ Distri zu nutzen, für die es eben keinen closed Source Treiber gibt... Da kommt es halt zu Problemen, wenn man nicht weiß was man macht.
Linux ist für Enduser-Statistik.. naja, nicht so interessant. :D

Mancko
2012-07-30, 16:48:31
Ich habe seit Anfang an Steam drauf und habe noch nie eine Survey mitgemacht oder nimmt sich Steam von alleine die Daten des PCs? Wenn nicht, dann ist das mit einer LKW Ladung Salz zu genießen.

Naja aber ehrlich gesagt kannst Du daraus schon einen Trend ableiten. Die Aussagekraft von Steam ist in Bezug auf uns - sprich Zielgruppe Gamer - sicherlich genauer als das was Mercury oder JPR so von sich lassen, da diese in der Regel sich den ganzen Markt anschauen - völlig egal ob da nun eine iGPU enthalten ist die keiner nutzt etc.

Außerdem glaube ich nicht das Steam immer AMD benachteiligt, wo AMD und Value immer so dicke sind. Das wäre schon höchst eigenartig :)

marc-05
2012-07-30, 16:57:37
Für OEMs gibts die GTX 660 schon...
notebooksbilliger.de bietet lieferbaren ACER PC mit einer GTX 660 1,5GB an.
http://s14.directupload.net/images/120730/2q46qkni.jpg (http://www.directupload.net)

http://www.notebooksbilliger.de/acer+aspire+g3620+predator+intel+core+i7+3770+102888?refcampaign_id=45c48cce2e2d 7fbdea1afc51c7c6ad26

Skysnake
2012-07-30, 17:02:16
Und damit wäre dann auch das 192 Bit Interface wohl bestätigt.

2x 6 Pin finde ich allerdings viel für so eine Karte. Da hätte es auch einer tun müssen...

dildo4u
2012-07-30, 17:28:11
Nicht wenn man die 7870 angreifen will,die 660TI geht dann gegen die 7950.

Gipsel
2012-07-30, 17:31:19
Und damit wäre dann auch das 192 Bit Interface wohl bestätigt.

2x 6 Pin finde ich allerdings viel für so eine Karte. Da hätte es auch einer tun müssen...
Oder es ist halt kein GK106 sondern noch "Abfallverwertung" des GK104. Dann wären 150+W schon denkbar.

Skysnake
2012-07-30, 17:32:43
nVidia lebt meiner Meinung nach im Moment aber auch mit von der Effizienz, die Ihre Produkte im Moment haben. Da finde ich passt ne GTX660 mit 2x6Pin einfach nicht ins Bild einer effizienten Architektur...

So viel hat meine HD5870 auch :ugly:

EDIT:
@Gipsel: Das spielt ja erstmal keine Rolle. Ob GK106 oder GK104 wird sich zeigen, ich tendiere aber eher zu GK104. Finde ich dann aber noch immer unangemessen. Die GTX680 hat auch nur 2x6Pin...

dildo4u
2012-07-30, 17:34:37
nVidia lebt meiner Meinung nach im Moment aber auch mit von der Effizienz, die Ihre Produkte im Moment haben. Da finde ich passt ne GTX660 mit 2x6Pin einfach nicht ins Bild einer effizienten Architektur...

So viel hat meine HD5870 auch :ugly:
Pitcairn gilt auch als Effizient,die 7870 hat trotzdem 2X6 Pin,weil die Werk OC Karten gerne mal über 150W nehmen.Es wird einige Werk OC 660 geben die sind auf 2X6 angewiesen.