PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kepler - 28nm - 2012


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 [18] 19 20 21 22 23 24 25 26 27 28 29 30 31

Botcruscher
2012-02-13, 13:13:13
Zu Tahiti gab es auch keine Vorabbildchen Monate im voraus. Breite Verfügbarkeit Ende Februar inkl. fett Werbung zu CeBit passt schon.

DarknessFalls
2012-02-13, 13:35:06
Zu Tahiti gab es auch keine Vorabbildchen Monate im voraus. Breite Verfügbarkeit Ende Februar inkl. fett Werbung zu CeBit passt schon.

Bis Ende Februar bzw alternativ Mitte/Ende März sind's für Dich Monate? :wink:

Schaffe89
2012-02-13, 14:16:55
Eine Performance die deutlich über Tahiti iveau liegt, kann ich mir jetzt nicht vorstellen.
Die Standardtaktraten des GK104 liegen bei 900mhz.
Insofern, sind 1050MHZ schon eine beachtliche Taktsteigerung und wahrscheinlich lediglich ein OC Modell mit ca 20% mehr Leistung.

Wenn man jetzt noch etwas cherry Picking unterstellt, wird es selbst das OC Modell schwer haben die HD7970 zu schlagen.
Etwas störend sind da natürlich die 3k Punkte im 3d Mark 11 Extreme.
Aber Ail hat ja bereits gesagt, dass GK104 da schneller ist als in games.

john carmack
2012-02-13, 14:23:19
Hallo Leute,

hab die letzten 40 Seiten nicht mehr mitlesen können...

kann mir bitte jemand sagen was gerade so das heißeste Gerücht ist?

was scheint mittlerweile als gesichert?

Iruwen
2012-02-13, 14:25:48
Inwiefern wäre denn z.B. bei Dirt 3 Cherry Picking möglich? Das ist kein TWIMTBP Game (afaik?), hat keine CUDA Effekte und kein PhysX, da könnte höchstens Tesselation limitieren.

boxleitnerb
2012-02-13, 14:32:29
Also 3DMark11 liegt doch nicht so sehr daneben (zumindest bei aktuellen Karten - ist die Frage, wie übertragbar das ist auf Kepler. Eine 7970 ist dort 27% flotter als eine 580, in Spielen in etwa auch. Je nach Parcour mal mehr, mal weniger. Wenn man von den 3000 10% abzieht (nicht OC, sondern weil der Benchmark nicht so genau ist), landet man immer noch etwa bei Tahiti XT.

Edit:
Kann aber auch sein, dass die 3000 Punkte schon für die OC-Version gelten. Das legt zumindest die Folie mit den Werten nahe. In dem Fall könnte man GK104 ca. 10% unterhalb von Tahiti XT erwarten, bei Cherrypicking gleichauf oder um Haaresbreite davor.

dargo
2012-02-13, 14:34:11
Die Standardtaktraten des GK104 liegen bei 900mhz.
Insofern, sind 1050MHZ schon eine beachtliche Taktsteigerung und wahrscheinlich lediglich ein OC Modell mit ca 20% mehr Leistung.

Was ist denn daran beachtlich? Es sind knapp 17% mehr Takt. Bei der GTX460 gabs auch OC-Modelle die mit 18,5% mehr takteten (800 vs. 675Mhz).

aufkrawall
2012-02-13, 14:35:19
Inwiefern wäre denn z.B. bei Dirt 3 Cherry Picking möglich? Das ist kein TWIMTBP Game (afaik?), hat keine CUDA Effekte und kein PhysX, da könnte höchstens Tesselation limitieren.
Ist das Spiel GPU limitiert?
Das lief bei meiner 5:4 Auflösung selbst mit 4xSGSSAA auf einer GTX 560 Ti ziemlich flüssig.

dargo
2012-02-13, 14:39:07
Ist das Spiel GPU limitiert?
Das lief bei meiner 5:4 Auflösung selbst mit 4xSGSSAA auf einer GTX 560 Ti ziemlich flüssig.
Wenn die intergrierte Benchmarkfunktion in DIRT3 verwendet wurde könnte dieser sogar im noch relativ hohen CPU-Limit liegen.

Schaffe89
2012-02-13, 14:39:22
GK104 ist noch nicht mal released und man braucht jetzt schon OC Karten, um bei Leaks glänzen zu können.
Ist doch etwas ungewöhnlich oder?
Normalerweise kommen erstmal die Standardversionen.
Zumal die AIB´s die Karten erst vor ein paar Tagen erhalten haben.
Wie soll man da schon validieren und schnellere Modelle vorbereiten?

Ich tippe immernoch auf lediglich HD7950 Niveau für das Standardmodell und dann eben mit OC Modellen knapp HD7970 Niveau.
Da fühlt sich AMD vielleicht sogar genötigt ne HD 7980 zu bringen um dann was für den kleinen GK110 in Petto zu haben.

Bei den Benchmarks fallen unter anderem die sehr hohen FPS Werte auf.
Warum man da wohl nicht Einstellungen gewählt hat, die etwas mehr reinhauen?

Ich kann mir nicht vorstellen, dass bei GK104 nicht die Bandbreite in extremen Settings und Auflösungen zum reisigen Flaschenhals wird.
Aber das wird man danach eh sehen.
Ich tippe mal darauf, dass je höher die Auflösung und die Settings ( AA/AF SGSSAA etc..) die GK104 Karten verhältnismäßig stärker einbrechen als die AMD Karten.
Zudem kommt wohl von AMD zum GK104 Launch wohl noch ein "Quetsche-Performancetreiber", der nommal rund 5% herausholt.

dildo4u
2012-02-13, 14:41:42
Ist das Spiel GPU limitiert?
Das lief bei meiner 5:4 Auflösung selbst mit 4xSGSSAA auf einer GTX 560 Ti ziemlich flüssig.
Klar sonst hätte man kaum Unterschiede zwischen 7970 und 7950.Mit Sandy Bridge haste locker 150fps+.

http://images.anandtech.com/graphs/graph4955/41707.png

Schaffe89
2012-02-13, 14:45:20
Sollten es GTX 680 OC Modelle an der HD7970 vorbei schaffen, dann kann man davon ausgehen, dass diese sicherlich nicht verramscht werden.
Ich tippe auf hohe Grafikkartenpreise und lediglich 50 bis 100 euro weniger für HD7970/7950 Karten.

dargo
2012-02-13, 14:45:26
Bei den Benchmarks fallen unter anderem die sehr hohen FPS Werte auf.
Warum man da wohl nicht Einstellungen gewählt hat, die etwas mehr reinhauen?

Weil der GK104 eine Performancekarte sein soll? :rolleyes: Wie oft muss man das noch durchkauen?

Godmode
2012-02-13, 14:46:05
Hallo Leute,

hab die letzten 40 Seiten nicht mehr mitlesen können...

kann mir bitte jemand sagen was gerade so das heißeste Gerücht ist?

was scheint mittlerweile als gesichert?

Laut Ailurus:

GK104:

GTX680 = GK104
3*32SPs/SM
8 TMUs/SM
4 SMs/GPC
4 GPCs
32 ROPs
256bit bus
2GB 5.0Gbps GDDR5
950MHz core
2*6pin

Soul
2012-02-13, 14:47:30
Ist der TSMC Prozess so gut, dass nVidia viele GK104OC liefern kann? Vielleicht nur ein guter Chip zum zeigen, was die kommende Karte bei gutem Prozess könnte. ;)

LovesuckZ
2012-02-13, 14:48:02
Oder auch nur Fake.

Schaffe89
2012-02-13, 14:48:15
Weil der GK104 eine Performancekarte sein sol

Mag ja sein, dass die Karte ( wenn GK110 irgendwann dieses Jahr mal kommt) ne Performancekarte sein soll.
Zum jetzigen Zeitpunkt aber High End.
Und dann muss man sich genauso SSAA, sowie 2560x1440/1600 Benchmarks stellen.
Und ich glaube, dass man da im Schnitt nichts reißen kann gegen Tahiti.

Godmode
2012-02-13, 14:51:19
Mag ja sein, dass die Karte ( wenn GK110 irgendwann dieses Jahr mal kommt) ne Performancekarte sein soll.
Zum jetzigen Zeitpunkt aber High End.
Und dann muss man sich genauso SSAA, sowie 2560x1440/1600 Benchmarks stellen.
Und ich glaube, dass man da im Schnitt nichts reißen kann gegen Tahiti.

Wie mans nimmt. 256 Bit sprechen IMO klar für Performance und der Preis den Ail nannte auch.

GK110 soll ja im April oder Mai auf den Markt kommen.

dargo
2012-02-13, 14:53:52
Mag ja sein, dass die Karte ( wenn GK110 irgendwann dieses Jahr mal kommt) ne Performancekarte sein soll.
Zum jetzigen Zeitpunkt aber High End.

Du kannst es drehen und wenden wie du willst. Der GK104 ist kein High-End. Die Gründe dafür wurden hier auch schon zig mal erklärt.


Und dann muss man sich genauso SSAA, sowie 2560x1440/1600 Benchmarks stellen.
Und ich glaube, dass man da im Schnitt nichts reißen kann gegen Tahiti.

Sollten die 1425Mhz Speichertakt beim GK104 stimmen bedeutet dies, dass der Tahiti XT 44% mehr Speicherbandbreite hat. Wenn wir jetzt ein Spiel haben welches in Full-HD mit sagen wir mal 4xMSAA bei beiden Grafikkarten die gleichen fps liefert kann es passieren, dass Tahiti XT in 2560x1440 samt 4xMSAA leicht vorne liegt (und selbst das muss nicht unbedingt gleich bei dieser Auflösung passieren solange keiner weiß wie effizient der GK104 mit der Speicherbandbreite umgeht). Es ist ja nicht so, dass der GK104 gleich ins bodenlose einbricht.

dildo4u
2012-02-13, 14:54:47
Mag ja sein, dass die Karte ( wenn GK110 irgendwann dieses Jahr mal kommt) ne Performancekarte sein soll.
Zum jetzigen Zeitpunkt aber High End.
Und dann muss man sich genauso SSAA, sowie 2560x1440/1600 Benchmarks stellen.
Und ich glaube, dass man da im Schnitt nichts reißen kann gegen Tahiti.
So lange AMD nicht deutlich billiger wird,bringt das wenig,weil sie mit den Preisen keine Marktanteile Wett machen.Der Markt für 300€ Karten ist wesentlich größer,und dort muss AMD mit nem größeren Chip und breiterem Interface(7950) gegen NV antreten.

MorPheuZ
2012-02-13, 14:56:06
Das sagte Ail auch schon oft genug warum die Ferieninseln gewaltig ins Gummiband zurückschnellen werden/müssen....

Mancko
2012-02-13, 14:56:51
Mag ja sein, dass die Karte ( wenn GK110 irgendwann dieses Jahr mal kommt) ne Performancekarte sein soll.
Zum jetzigen Zeitpunkt aber High End.
Und dann muss man sich genauso SSAA, sowie 2560x1440/1600 Benchmarks stellen.
Und ich glaube, dass man da im Schnitt nichts reißen kann gegen Tahiti.
Der ist nur High End wenn der Preis das auch so vorgibt. Es hängt also davon ab, wie der Preis von Gk104 Karten aussieht. Ich tippe auf einen Preis deutlich unter dem High End Segment.

Schaffe89
2012-02-13, 14:57:05
Ich will gar nichts drehen oder wenden.
Die Diskussion ob Performance oder High End Chip ist mir doch egal.
Mir geht es um die Limitierung der Bandbreite.

Und dass GK104 von der Performance her (bis GK110 denn mal kommt), das schnellste ist was Nvidia zu bieten hat, dürfte klar sein.

boxleitnerb
2012-02-13, 14:57:30
Du kannst es drehen und wenden wie du willst. Der GK104 ist kein High-End. Die Gründe dafür wurden hier auch schon zig mal erklärt.

Es ist halt für manche irritierend, wenn eine Performancekarte mit AMDs angeblichem "Highend" mithalten soll. Im Endeffekt ist das auch egal - wir schauen auf Preis, Performance und Verbrauch und beurteilen danach. Dann wird man schon sehen, was bei rauskommt.

derguru
2012-02-13, 14:59:12
also sind die benchwerte kein fake?

So lange AMD nicht deutlich billiger wird,bringt das wenig,weil sie mit den Preisen keine Marktanteile Wett machen.Der Markt für 300€ Karten ist wesentlich größer,und dort muss AMD mit nem größeren Chip und breiterem Interface(7950) gegen NV antreten.
amd wird sie günstiger anbieten wenn die zeit dafür reif ist,ist ja nicht so das sie es nicht können,der chip ist nicht viel größer abgesehen vom SI.

dargo
2012-02-13, 15:01:34
Es ist halt für manche irritierend, wenn eine Performancekarte mit AMDs angeblichem "Highend" mithalten soll. Im Endeffekt ist das auch egal - wir schauen auf Preis, Performance und Verbrauch und beurteilen danach. Dann wird man schon sehen, was bei rauskommt.
Es ist doch ganz einfach - gegen High-End beim GK104 spricht die Chipgröße, die TDP, das SI und der Transistorcount. Dass der GK104 etwas vor dem GK110 kommt spielt doch keine Rolle. Wirtschaftlich ist das sogar die beste Lösung (vorallem wenn die Konkurrenz schon da ist) weil:
Der Markt für 300€ Karten ist wesentlich größer...

also sind die benchwerte kein fake?
50/50. :D

Schaffe89
2012-02-13, 15:01:41
Es ist halt für manche irritierend, wenn eine Performancekarte mit AMDs angeblichem "Highend" mithalten soll.

Es ist keinesfalls irritierend.
AMD´s Karte ist trotz 384bit Speicherinterface kaum größer und enthält wohl noch mehr Ballst für Computing Sachen, als GK104.
Im endeffekt keine Überraschung wenn GK104 mit der HD7970 mithalten kann.

derguru
2012-02-13, 15:07:53
50/50. :D
achso die üblichen 50/50 aus dem spekuthread,also gleich null.:biggrin:

Mancko
2012-02-13, 15:23:31
also sind die benchwerte kein fake?


amd wird sie günstiger anbieten wenn die zeit dafür reif ist,ist ja nicht so das sie es nicht können,der chip ist nicht viel größer abgesehen vom SI.

- Chip ist größer
- SI ist größer
- verbaute RAM Menge ist größer
- Vertragssituation bei TSMC "wahrscheinlich" schlechter

Da kommt schon was zusammen.

Edgecrusher86
2012-02-13, 15:25:34
Ausgehend von den chinesischen "Benchmarks" habe ich auch mal die Differenz der anderen Karten auf GK104 in Prozent ermittelt - auf eine Nachkommastelle gerundet. ;)

http://www.abload.de/img/gk104benchmarkspcinlip2y1w.png

Wenn das stimmen sollte, alle Achtung - vor allem im Hinblick auf GK110, der ja z.B. mit 50% mehr SPs kommen soll (laut BSN). Also locker 30% mehr fps im Schnitt könnte man dann wohl für GK110 setzen. :)

boxleitnerb
2012-02-13, 15:27:28
Ist schon schwer zu glauben. Das wäre fast eine Verdopplung der Performance der 560Ti.

derguru
2012-02-13, 15:29:08
- Chip ist größer
- SI ist größer
- verbaute RAM Menge ist größer
- Vertragssituation bei TSMC "wahrscheinlich" schlechter

Da kommt schon was zusammen.
ram können die ohne weiteres halbieren,1,5gb reicht vollkommen aus im performancebereich.SI ist eigentlich der einzige nachteil aus kostensicht.

boxleitnerb
2012-02-13, 15:33:23
Dann hätte man wieder die Situation wie jetzt, wo Fermi zu wenig VRAM nachgesagt wird. 2GB sind noch okay, wenn man die Karte 2+ Jahre behält, aber 1,5 fände ich grenzwertig. Für BF3 reichts ja nicht immer, und das ist schon heute.

Godmode
2012-02-13, 15:38:46
Ausgehend von den chinesischen "Benchmarks" habe ich auch mal die Differenz der anderen Karten auf GK104 in Prozent ermittelt - auf eine Nachkommastelle gerundet. ;)

http://www.abload.de/img/gk104benchmarkspcinlip2y1w.png

Wenn das stimmen sollte, alle Achtung - vor allem im Hinblick auf GK110, der ja z.B. mit 50% mehr SPs kommen soll (laut BSN). Also locker 30% mehr fps im Schnitt könnte man dann wohl für GK110 setzen. :)

50 % mehr FPS für GK110.

Lieber noch abwarten ob die GK104 Werte überhaupt stimmen.

AwesomeSauce
2012-02-13, 15:51:21
Meint ihr, PDXLan 19 hat etwas mit Kepler zu tun? Das wären dann nur noch 4 Tage Spekulationen:D

Godmode
2012-02-13, 15:52:21
Meint ihr, PDXLan 19 hat etwas mit Kepler zu tun? Das wären dann nur noch 4 Tage Spekulationen:D

Eventuell eine kleine Vorschau?

Adam D.
2012-02-13, 15:53:02
Meint ihr, PDXLan 19 hat etwas mit Kepler zu tun? Das wären dann nur noch 4 Tage Spekulationen:D
Schau mal zwei Seiten zurück, es wird spekuliert, dass Nvidia den GK104 zeigt.

boxleitnerb
2012-02-13, 15:53:07
100pro. Alles andere wäre peinlich. Sie wollen PhysX in einem noch unveröffentlichten Spiel von Gearbox zeigen. Das wird höchstwahrscheinlich auf Kepler laufen. Specs, Benchmarks etc. wird's aber sicher nicht geben. Ich tippe auf richtig geile Effekte und man wird sagen, dass das ja auf keiner anderen Karte so gut läuft und man unbedingt einen Kepler dafür braucht.

Iruwen
2012-02-13, 15:53:44
Hoffentlich, sonst kriegt hier bald noch einer 'nen Herzkasper. Wobei man dann vermutlich irgendein noch nicht gezeigtes Spiel ohne Angabe von Settings oder FPS und ohne Karte sieht, und dann heißt es "that's Kepler" :rolleyes:

/e: ganz genau.

Blediator16
2012-02-13, 16:01:48
http://www.abload.de/image.php?img=kepler_huang5yjzp.jpg

So in etwas siehts dann am Wochenende aus.

Nightspider
2012-02-13, 16:03:02
Die Benchmarkwerte passen auch zu den angeblich Aussagen der Nvidia Mitarbeiter, das man sich mehr von AMD erwartet hätte, wie eben so viele andere auch.
Und wenn GK104 doppelt so schnell sein wird, wie GTX560ti weiß ich auch nicht, wo das Problem sein soll.
Das ist eher das was ich erwartet habe.

derguru
2012-02-13, 16:07:00
du hast also erwartet das die performance gpu GK104 ~40% schneller als die gtx580 ist?(sehr optimistisch):rolleyes:

Blediator16
2012-02-13, 16:09:11
Laut den Erwartungen soll das Topmodell ein Die-Monster werden. Einen Kurswechsel darf NV also nicht machen? Also Enth. als Dualkarte ohne Die-Monster bauen zu müssen.

dargo
2012-02-13, 16:12:34
Ist schon schwer zu glauben. Das wäre fast eine Verdopplung der Performance der 560Ti.
Schwer zu glauben schon. Wäre aber mal bitter nötig nach einer so langen Durststrecke.

boxleitnerb
2012-02-13, 16:13:25
Laut den Erwartungen soll das Topmodell ein Die-Monster werden. Einen Kurswechsel darf NV also nicht machen? Also Enth. als Dualkarte ohne Die-Monster bauen zu müssen.

Das wäre eine Katastrophe imo. Wird so nicht kommen, davon bin ich überzeugt. Es mag GK104x2 geben, aber genauso wird es eine große Karte geben - deren Chip im Übrigen schon ihren Tape out hatte. Also ist diese Diskussion eigentlich überflüssig.

Blediator16
2012-02-13, 16:16:27
Jetzt fehlen noch die Verbrauchstzahlen. Hört sich auf jeden Fall schonmal recht solide an. Hoffentlich wird sie schön billig :freak:

Gipsel
2012-02-13, 16:16:45
Ausgehend von den chinesischen "Benchmarks" habe ich auch mal die Differenz der anderen Karten auf GK104 in Prozent ermittelt - auf eine Nachkommastelle gerundet. ;)

http://www.abload.de/img/gk104benchmarkspcinlip2y1w.png

Wenn das stimmen sollte, alle Achtung - vor allem im Hinblick auf GK110, der ja z.B. mit 50% mehr SPs kommen soll (laut BSN). Also locker 30% mehr fps im Schnitt könnte man dann wohl für GK110 setzen. :)
An der Prozentrechnung würde ich nochmal feilen. Oder genauer gesagt an der Definition, was Du da als Basis benutzt. ;)

Nightspider
2012-02-13, 16:19:22
du hast also erwartet das die performance gpu GK104 ~40% schneller als die gtx580 ist?(sehr optimistisch):rolleyes:

Dann rechne doch mal nach, wieviel schneller eine GTX560ti ist, als eine GTX285. Das dürften gar bis zu 50% sein.

Odal
2012-02-13, 16:20:24
Es ist halt für manche irritierend, wenn eine Performancekarte mit AMDs angeblichem "Highend" mithalten soll. Im Endeffekt ist das auch egal - wir schauen auf Preis, Performance und Verbrauch und beurteilen danach. Dann wird man schon sehen, was bei rauskommt.

Das ist von der Sache her nicht so verwunderlich, das war auch schon mit den HD3870ig und 88GT der fall.

Was mich nur sehr misstrauisch macht ist die angebliche extreme überlegenheit in BF3 mit 4xAA zumal die Bandbreite ja eher zugunsten der 79x0 ausgeht.

Generell fände ich ein deutliche Steigerung gegenüber der alten Performanceklasse schon nachvollziehbar...zumal seit "Thermi" schon ein Weilchen vergangen ist und dazu dann noch der Riesenschritt auf 28nm

mich wunderts nur das es noch solang überteuerte GTX560/570... gibt

das lässt mich entweder an der Verfügbarkeit (paperlaunch) oder an der Leistungsfähigkeit zweifeln.

Hübie
2012-02-13, 16:23:48
Wieso sollte nVidia es sich auch nehmen lassen eine dual-Variante auf den Markt zu werfen. Seit der 7000er-Serie ist das ja schon sowas wie eine Tradition. Neu wäre nur wenn diese Variante einen codename hätte.

LG Hübie

boxleitnerb
2012-02-13, 16:24:08
Es wird bald für BF3 einen Patch für die HD7000er geben. Vielleicht ist damit der starke Einbruch bei AA gegessen. Dass Radeons bei BF3 mit AA ungewöhnlich langsam sind, ist ja nichts Neues.

derguru
2012-02-13, 16:24:29
Dann rechne doch mal nach, wieviel schneller eine GTX560ti ist, als eine GTX285. Das dürften gar bis zu 50% sein.

habe nichts parat wo eine 285 enthalten ist mit den aktuellen benchs,du etwa?vergleich hinkt eh,eigentlich müsste die 560ti mit der 460 ersetzt werden.

Nightspider
2012-02-13, 16:33:04
habe nichts parat wo eine 285 enthalten ist mit den aktuellen benchs,du etwa?

Nö, dazu brauch ich keine Benchmarks raussuchen. Man hat doch schon damals bei der GTX460 gesehen, das sie selbst ohne DX11 Vorteile bis zu 20% schneller war als eine GTX285. Pack da noch 30% rauf, dann ist man bei bis zu ~55% mehr Leistung als bei einer GTX285.

dargo
2012-02-13, 16:33:05
Dann rechne doch mal nach, wieviel schneller eine GTX560ti ist, als eine GTX285. Das dürften gar bis zu 50% sein.
Naja... eher müsstest du eine GTX460 mit der GTX285 vergleichen.

derguru
2012-02-13, 16:35:10
eben;)

Nightspider
2012-02-13, 16:37:25
Naja... eher müsstest du eine GTX460 mit der GTX285 vergleichen.

Wieso sollte ich? Schau auf die Diefläche. Zumal Kepler deutlich höheres Potential hat, durch die Design-Wins bzw. besseren Architektur merklich mehr Leistung pro Transistor zu bringen.

Zumal, die GTX460 war nicht komplett freigeschalten, weil die 40nm Fertigung beschissen lief. Wenn jetzt alles rund läuft in 28nm kannst du nicht den gut laufenden 28nm Performance Chip mit dem teildeaktivierten, schlecht laufenden 40nm Prozess vergleichen.

eben;)

Da hätte ich von dir noch etwas mehr Durchblick erwartet. ;)

dargo
2012-02-13, 16:41:22
Wieso sollte ich?
Weil die 560-er später kam. Das gleiche kann (muss nicht) beim Kepler auch passieren.

Edit:
Wobei die Geschichte auch zwei Seiten hat. Bei der GTX480 gabs ja Probleme, ursprünglich war sie ja mit 512SPs geplant. Wäre also alles nach Plan gelaufen wäre womöglich die GTX460 etwas stärker ausgefallen.

Soul
2012-02-13, 16:41:39
Die 28nm Produktion läuft ja alles andere als rund ;)

Nightspider
2012-02-13, 16:44:41
Weil die 560-er später kam. Das gleiche kann (muss nicht) beim Kepler auch passieren.

Zeit ist KEIN Vergleichskriterium, wenn du 2 Chips miteinander vergleichst. Es geht um Diefläche und Taktrate.
Hat sich die Diefläche etwas von GTX460 zu 560 Verändert? Nein.
Besitzt die GTX560 einen großartig anderen Chip als die 460? Nein.
Hätte der GTX560 Chip schon anstelle der GTX460 erscheinen können, wenn damals alles glatt gelaufen wäre? Ja.

Wir gehen ja im Moment davon aus, das dies bei Kepler, gerade, eben nicht wieder passiert.

Die 28nm Produktion läuft ja alles andere als rund ;)

Sorry aber ich spreche dir die Kompetenz ab, dies einschätzen zu können. ;)

derguru
2012-02-13, 16:44:53
Zeit ist KEIN Vergleichskriterium, wenn du 2 Chips miteinander vergleichst. Es geht um Diefläche und Taktrate.
Hat sich die Diefläche etwas von GTX460 zu 560 Verändert? Nein.
Besitzt die GTX560 einen großartig anderen Chip als die 460? Nein.
Hätte der GTX560 Chip schon anstelle der GTX460 erscheinen können, wenn damals alles glatt gelaufen wäre? Ja.
hätte, wenn und aber – alles nur gelaber!:)

Da hätte ich von dir noch etwas mehr Durchblick erwartet. ;)
die gtx460 ist nun mal die nächste generation danach,kann ich nicht ändern, sorry.:biggrin:

Nightspider
2012-02-13, 16:46:24
Man muss ne ziemlich "steife" denkweise haben, wenn man nur in Generationen "rechnet". :rolleyes:

Ist bei dir der 2600K eigentlich auch eine Generation weiter als der 2500K, weil höhere Taktrate und völlig freigeschaltet? ;D

Iruwen
2012-02-13, 16:47:27
mich wunderts nur das es noch solang überteuerte GTX560/570... gibt

Meintest du GTX 570/580? Die HD 7950 kostet doppelt soviel wie eine GTX 560 Ti, für die gibt es gar keinen Grund im Preis zu fallen. Und wenn GF110 gleichzeitig EOL ist (= sinkendes Angebot) aber noch Nachfrage besteht bleiben die Preise halt stabil. Würde NV jetzt die High-End Preise senken wären die GTX 570/580 ruck zuck ausverkauft und man stünde eine Weile komplett ohne High-End Konkurrenz zu AMD da - das sähe ziemlich doof aus.

Dural
2012-02-13, 16:47:31
ziemlich beschränkt ansicht, der GF104 lief auf der 460er nie voll zudem wurde die Karte nur mit "low takt" betrieben.

Was GF104 im grunde kann sieht man an der GTX560

dargo
2012-02-13, 16:49:20
ziemlich beschränkt ansicht, der GF104 lief auf der 460er nie voll zudem wurde die Karte nur mit "low takt" betrieben.

Siehe mein Edit. ;) NV musste/wollte einen gewissen Abstand zur "kastrierten" GTX480 halten.

Nightspider
2012-02-13, 16:49:21
Wahrscheinlich wäre die GTX560 für viele auch ne neue Generation wenn sie nur 3 Monaten nach der GTX460 erschienen wäre. "Neue Generation" wurde bei diesem Wechsel eh viel zu inflanionär gebraucht.

dildo4u
2012-02-13, 16:50:55
Die 460 passt nicht in den Vergleich sondern nur die 560TI,GK104 wird nicht kastriert ausgeliefert,ebend weil man AMD High End angreifen will,das musste die 460 nicht.

Iruwen
2012-02-13, 16:52:29
GK104 wird nicht kastriert ausgeliefert,ebend weil man AMD High End angreifen,will

Performance!

scnr :tongue:

Soul
2012-02-13, 16:57:04
[QUOTE=Nightspider;9164274]Sorry aber ich spreche dir die Kompetenz ab, dies einschätzen zu können. ;)[/QUOTE

Ich beziehe mich auf diesen Beitrag hier http://www.eetimes.com/electronics-news/4234961/TSMC-manufacturing-process-in-trouble

Dural
2012-02-13, 16:57:26
mal schauen wie NV mit der Bandbreite gezaubert hat, oder eben auch nicht...

kann mir schon gut vorstellen das die Karte in den dafür bekannten Einstellungen "Probleme" macht, beziehungsweisse immer mehr verliert.


aber mal ganz ehrlich, wer verwendet bei so einer Karte schon über 1080?!?

Nightspider
2012-02-13, 17:03:44
Ich beziehe mich auf diesen Beitrag hier http://www.eetimes.com/electronics-news/4234961/TSMC-manufacturing-process-in-trouble

Solche Aussagen kamen, glaube ich, ausnahmslos bei jedem Fertigungsprozess. Wieviel Wahres dran liegt, hängt auch von dem jeweiligem IHV ab und was er daraus macht. AMDs Karten scheinen gute Taktraten mitzumachen und der Prozess scheint bei weitem nicht so viele Probleme zu machen wie der 40nm Prozess. Probleme gibt es immer. Es ist nur eine Frage, wie groß die Probleme sind. ;)
Bisher schein NVidia keine großen Probleme, wie beim GF100 zu haben. Vielleicht auch wegen der Strategie erst den Performance Chip auf den Markt zu bringen um die Fertigung noch besser in den Griff zu kriegen.

Möglicherweise steht uns dann mit dem GK110 ein richtiger Bulle ins Haus, ohne Teildeaktivierung und angemessen hohen Taktraten in Form eines "Monsterchips". ;)
Groß wird er so oder so.

boxleitnerb
2012-02-13, 17:04:41
mal schauen wie NV mit der Bandbreite gezaubert hat, oder eben auch nicht...

kann mir schon gut vorstellen das die Karte in den dafür bekannten Einstellungen "Probleme" macht, beziehungsweisse immer mehr verliert.


aber mal ganz ehrlich, wer verwendet bei so einer Karte schon über 1080?!?

Bei einer 580 hat man das doch auch gemacht, und die war langsamer ;)
Nicht jeder will SLI/CF. Mit einer 580 darf man das, und am nächsten Tag kommt die 660 (die schneller ist) und man darf es nicht? Ist ja nicht so, dass in den letzten 1,5 Jahren die Anforderungen so dramatisch gestiegen sind.

Nightspider
2012-02-13, 17:07:24
Wenn ich das richtig verstanden habe bekommt der GK104 ja auch Speicherchips mit 40% höherher Taktrate zur Seite gestellt. (1400 Mhz vs 1000 Mhz)

Alleine diese Tatsache macht es wahrscheinlich, das nur 2GB VRAM verbaut werden. Die Speicherchips werden nicht gerade billig sein.

Dafür wird beim GK110 sicherlich wieder nur langsamerer Speicher mit 1000-1200 Mhz verbaut werden. Dafür aber sicherlich mit >=3GB VRAM.

N0Thing
2012-02-13, 17:17:51
Was ist denn daran beachtlich? Es sind knapp 17% mehr Takt. Bei der GTX460 gabs auch OC-Modelle die mit 18,5% mehr takteten (800 vs. 675Mhz).

Und waren diese OC-Modelle der GTX460 damals nicht beachtlich? :confused:

AnarchX
2012-02-13, 17:24:20
Alleine diese Tatsache macht es wahrscheinlich, das nur 2GB VRAM verbaut werden. Die Speicherchips werden nicht gerade billig sein.

Es sind die gleichen Speicherchips, wie bei den 2GiB 6900er.
Und für 4GiB müsste man das PCB doppelseitig bestücken, das überlässt man wohl den Herstellern.


Dafür wird beim GK110 sicherlich wieder nur langsamerer Speicher mit 1000-1200 Mhz verbaut werden. Dafür aber sicherlich mit >=3GB VRAM.
Wenn es nur 384-Bit sind, wird da mindestens auch 5,5Gbps 1375MHz Speicher verbaut. Spielraum dieser 0,33ns Chips sind 1500MHz.
Einzig bei 512-Bit 4GiB wären wohl nur 5Gbps 1250Mhz denkbar.

Hübie
2012-02-13, 17:32:15
0,33ns ?? :|

OgrEGT
2012-02-13, 18:33:22
Laut Ailurus:

GK104:

GTX680 = GK104
3*32SPs/SM
8 TMUs/SM
4 SMs/GPC
4 GPCs
32 ROPs
256bit bus
2GB 5.0Gbps GDDR5
950MHz core
2*6pin

Ok es wird so langsam Zeit dass wir uns auf die GK110 specs konzentrieren:

4*32SPs/SM
8 TMUs/SM
4 SMs/GPC
8 GPCs
64 ROPs
850MHz

Mal sehen wie viele fans wir wirklich haben.

Sind die 4096SP's für GK110 noch immer aktuell?
Kann ich irgendwie kaum glauben...
Wieviel der Chipfläche nehmen die SP's alleine im allgemeinen ein?
Laut Fermi Die-Shot wären es dort ca 50%.
Wenn GK104 genau so groß wie Tahiti sein wird (360mm2) und hier neue 1536SP's reinpassen, dann komme ich auf ca. 2300 bei 550mm2. Entweder GK110 hat andere SP's als GK104, oder aber die Chipfläche reicht um Längen nicht.

Edit:
Selbst wenn aufgrund der konstanten Chipteile wie Speicherinterface der Anteil an SP's bei 550mm2 auf sagen wir 60% beträgt, passen doch nur knapp 3000 rein.

Wie schon gesagt, falls das stimmt und 1536SP's verbaut sind, weiß ich nicht, wie man bei GK110 mit 550mm2 4096SP's verbauen sollte. Beide Speku's zusammen können nicht zutreffend sein...

boxleitnerb
2012-02-13, 18:37:00
Bei GK110 hat er Spass gemacht, das war absichtlich Fake um gewisse Leute zu entlarven.

Man From Atlantis
2012-02-13, 18:48:02
Bei GK110 hat er Spass gemacht, das war absichtlich Fake um gewisse Leute zu entlarven.

and here someone takes the bait

http://forum.hardware.fr/hfr/Hardware/2D-3D/nvidia-geforce-kepler-sujet_891447_73.htm#t8216477

chart itself speaks actually.. if you think clearly that GK110 is probably 2048CCs, 128TMUs, 48ROPs, 384bit@5.0/5.5Gbps memory, base clock <900MHz..

OgrEGT
2012-02-13, 18:49:11
OK. muss ich überlesen haben :smile:

Dann sind wohl die 2304SP's in 6GPC's wie bei BSN beschrieben am wahrscheinlichsten für den großen Chip. Auch aus Platzgründen würden die in 550mm2 wohl reinpassen... :ucoffee:

boxleitnerb
2012-02-13, 18:50:50
and here someone takes the bait

http://forum.hardware.fr/hfr/Hardware/2D-3D/nvidia-geforce-kepler-sujet_891447_73.htm#t8216477

chart itself speaks actually.. if you think clearly that GK110 is probably 2048CCs, 128TMUs, 48ROPs, 384bit@5.0/5.5Gbps memory, base clock <900MHz..

128 TMUs seem too few if GK104 already has 128.

OK. muss ich überlesen haben :smile:

Dann sind wohl die 2304SP's in 6GPC's wie bei BSN beschrieben am wahrscheinlichsten für den großen Chip. Auch aus Platzgründen würden die in 550mm2 wohl reinpassen... :ucoffee:

Bloß hat Ail gemeint, die Specs wären vollkommen falsch. Ich blick da aber auch nicht mehr durch.

AnarchX
2012-02-13, 18:52:30
128 TMUs seem too few if GK104 already has 128.
GF114/GF110 = 64 ;)

128 TMUs (FP16-FS) @ ~900MHz, sofern vernünftig mit Daten versorgt, sind wohl genug für einen GK110.

boxleitnerb
2012-02-13, 18:54:57
Dann wäre ein Chip von beiden in dieser Hinsicht über- bzw. unterdimensioniert, nicht? Sofern die TMUs dasselbe können natürlich. Ich finde es logischer, wenn man einen ausgewogenen Chip designt und dann alles schön mitskalieren lässt.

OgrEGT
2012-02-13, 18:55:42
Yeah and if every Shader CLuster has 8 TMUs you would have 192 TMUs in 6GPC's for GK110.

Edit:
Maybe when NV was saying, that they overestimated Tahiti thinking it would had 2304SP's, well they might also went for 2304SPs with GK110 :D

AnarchX
2012-02-13, 18:59:00
Dann wäre ein Chip von beiden in dieser Hinsicht über- bzw. unterdimensioniert, nicht? Sofern die TMUs dasselbe können natürlich. Ich finde es logischer, wenn man einen ausgewogenen Chip designt und dann alles schön mitskalieren lässt.
Ein GK104 mit 64 TMUs wäre wohl unterdimensioniert, der nächste Schritt ist da eben 128, auch wenn er die Füllrate ähnlich GF104/114 nicht ganz ausnutzen kann.

boxleitnerb
2012-02-13, 18:59:09
GF114/GF110 = 64 ;)

128 TMUs (FP16-FS) @ ~900MHz, sofern vernünftig mit Daten versorgt, sind wohl genug für einen GK110.

Und dann zuviel für GK104. Das ist ja gerade mein Punkt. GK104 ist sowieso ein anderes Design, warum dann dort nicht Diespace sparen und nur 96 TMUs verbauen, wenn die übrige Rohleistung auch entsprechend geringer ist im Vergleich zu GK110. Ich mag da voll daneben liegen, aber es erscheint unlogisch für mich.

RoNsOn Xs
2012-02-13, 19:06:11
Ail ist ruhig geworden. jmd muss getroffen haben.

AnarchX
2012-02-13, 19:12:48
Und dann zuviel für GK104. Das ist ja gerade mein Punkt. GK104 ist sowieso ein anderes Design, warum dann dort nicht Diespace sparen und nur 96 TMUs verbauen, wenn die übrige Rohleistung auch entsprechend geringer ist im Vergleich zu GK110. Ich mag da voll daneben liegen, aber es erscheint unlogisch für mich.

Wie gesagt für ~3 TFLOPs eines GK104 sind 64 TMUs wohl einfach zu wenig und da man nur Quads verbauen kann, ist der nächste Schritt 128 TMUs.

Im Endeffekt sind wohl GK104/GK110 grob gesehen verdoppelte GF114/GF110, mit Ausnahme des IMC (hier gibt es 40% mehr Speichertakt) und der ROPs, wo es wohl noch ein paar Detailtweaks (größere Caches,...) geben könnte.

Und dann eben noch die fundamentale Änderung, dass der Hot-Clock wegfällt und man eben ALUs mit doppelter Tiefe verbaut (2x16-> 2x32 / 3x16 -> 3x32), die wohl weniger Platz und Strom benötigen als die HC-ALUs.

Und da man nicht mehr vom Hot-Clock limitiert ist, kann man den Base-Clock noch um gute 15-20% steigern.

boxleitnerb
2012-02-13, 19:15:05
Okay, das klingt plausibel.

OgrEGT
2012-02-13, 19:19:53
GK110 (im Einklang mit BSN)
2304SPs 6GPCs
4SMs/GPC
96SPs/SM
192TMUs
384Bit SI
550mm2
:uponder:

AnarchX
2012-02-13, 19:27:56
Stellt sich die Frage ob GK104 (spekuliert auf ~340mm²) schon DP mit 1:3 unterstützt, wenn nicht würde das wohl die SMs entsprechend vergrößern.
Und mit 2340SPs mit 1/3 DP-Durchsatz wäre man wohl auch weit weg von den zuletzt spekulierten fast ~ 2 TFLOPs.

LovesuckZ
2012-02-13, 19:29:58
2 TFLOPs sind auch einfach nur dumm. Wenn sie 1,5 TFLOPs bei 238 Watt (Tesla) erreichen, dann ist alles im Rahmen.

OgrEGT
2012-02-13, 19:30:51
Und wenn es 1:2 sind?

Edit:
Bzw. es eine Version gibt, die auch das kann...

Gipsel
2012-02-13, 19:30:54
Stellt sich die Frage ob GK104 (spekuliert auf ~340mm²) schon DP mit 1:3 unterstützt, wenn nicht würde das wohl die SMs entsprechend vergrößern.Ich wäre ja für die Sparversion mit 1:6.
Und mit 2340SPs mit 1/3 DP-Durchsatz wäre man wohl auch weit weg von den zuletzt spekulierten fast ~ 2 TFLOPs.Dafür aber nahe den schon sehr lange spekulierten 1,4 TFlop/s.

Godmode
2012-02-13, 19:34:07
GK110 (im Einklang mit BSN)
2304SPs 6GPCs
4SMs/GPC
96SPs/SM
192TMUs
384Bit SI
550mm2
:uponder:

Wie wärs den mit 8 GPCs und 64 SPs/SM? :weg:

/e:
Bei GK104 geht dann 1:3 und bei GK110 geht dann 1:2!

Man From Atlantis
2012-02-13, 19:44:45
hypothetically Tesla M3090 2048CCs @700MHz ~1,43TFLOPs DP, 225W rated TDP

:freak:

Godmode
2012-02-13, 19:48:38
hypothetically Tesla M3090 2048CCs @700MHz ~1,43TFLOPs DP, 225W rated TDP

:freak:

= 6.3 DPFlop/W

:freak: = ?

Nightspider
2012-02-13, 20:57:08
Ail ist ruhig geworden. jmd muss getroffen haben.

Ist mir auch aufgefallen. :biggrin:
Also ich geh davon aus, das die letzten Benmarks stimmen, mit ~doppelter GTX560 Leistung des GK104.

OgrEGT
2012-02-13, 20:58:36
Wie wärs den mit 8 GPCs und 64 SPs/SM? :weg:

/e:
Bei GK104 geht dann 1:3 und bei GK110 geht dann 1:2!

Ich find 4 von den gleichen GPCs auf 6 zu skalieren irgendwie einfacher.

boxleitnerb
2012-02-13, 20:59:32
Ist mir auch aufgefallen. :biggrin:
Also ich geh davon aus, das die letzten Benmarks stimmen, mit ~doppelter GTX560 Leistung des OC-GK104.

Oder er ist einfach nicht da?
Sachen gibts, die gibts gar nicht :eek:

Adam D.
2012-02-13, 21:13:24
Oder er ist einfach nicht da?
Sachen gibts, die gibts gar nicht :eek:
Ail hat wahrscheinlich auch besseres zu tun, als jede Spekulation hier zu kommentieren. Wenn er was zu sagen hat, tut er das auch ;)

Zu den Specs: so ganz glauben kann ich das nicht. Wenn man wirklich auf Tahiti XT-Niveau landet, hat Nvidia echt eine mächtige Karte in der Röhre.

Ailuros
2012-02-13, 21:30:52
Wer ist verwirrt und warum genau? :D

RoNsOn Xs
2012-02-13, 21:51:25
Ail hat wahrscheinlich auch besseres zu tun, als jede Spekulation hier zu kommentieren. Wenn er was zu sagen hat, tut er das auch ;)
.
Richtiges wird nicht kommentiert, falsches immer und teils nachgetreten. zu den letzten benches gabs kein kommentar. Voila

Ailuros
2012-02-13, 22:15:19
Richtiges wird nicht kommentiert, falsches immer und teils nachgetreten. zu den letzten benches gabs kein kommentar. Voila

AdamD hat den Nagel auf den Kopf getroffen. Ιch muss zwischendrin auch mal wieder arbeiten, die beste Ehefrau aller meckert auch immer wieder dass sie sich vernachlaessigt fuehlt und der Nachwuchs hat auch so seine eigene "Sorgen" und will etwas Aufmerksamkeit. Ja ich wechsel auch zwischendrin mal eine Windel obwohl es viele es wohl sich schwer vorstellen koennen und obwohl es sicher nicht nach Rosen duftet macht es mehr Spass als hinter jeglichem silly season Quark 24/7 hinterherzurennen ;)

So und jetzt zu den angeblichen Resultaten; je hoeher man die Frequenz treibt bzw. den TDP desto besser sieht es aus. Es gab doch konstant das angebliche Gegenargument dass Tahiti sich gut uebertakten laesst oder? Sobald man daran denkt dass IHVs nur mit Wasser kochen kann es ebenso fuer beide gelten und nicht nur fuer einen Aspekt.

Adam D.
2012-02-13, 22:20:36
So und jetzt zu den angeblichen Resultaten; je hoeher man die Frequenz treibt bzw. den TDP desto besser sieht es aus. Es gab doch konstant das angebliche Gegenargument dass Tahiti sich gut uebertakten laesst oder? Sobald man daran denkt dass IHVs nur mit Wasser kochen kann es ebenso fuer beide gelten und nicht nur fuer einen Aspekt.
Ich kenne mich zwar nicht mit der Materie genau aus, aber welche Argumente sprächen dafür, dass Nvidias 28nm-Karten ein geringeres Übertaktungspotential als die von Ati haben sollten? Es kommt halt auch drauf an, ob GK104 etwas konservativer mit der Spannung umgeht, IMO ist Ati bei den Tahitis da doch sehr auf Nummer sicher gegangen. Da aber eh kaum einer "stock" übertakten wird, spielt das nur 'ne sekundäre Rolle.

Ailuros
2012-02-13, 22:22:39
Ich kenne mich zwar nicht mit der Materie genau aus, aber welche Argumente sprächen dafür, dass Nvidias 28nm-Karten ein geringeres Übertaktungspotential als die von Ati haben sollten? Es kommt halt auch drauf an, ob GK104 etwas konservativer mit der Spannung umgeht, IMO ist Ati bei den Tahitis da doch sehr auf Nummer sicher gegangen. Da aber eh kaum einer "stock" übertakten wird, spielt das nur 'ne sekundäre Rolle.

Ich hab keine Ahnung was die Spannung betrifft, nur dass der TDP laecherlich klein ist auf GK104 default im Vergleich zur Leistung. Und genau das ist eben der Punkt wo NV gegen Fermi trommelt; Kepler schlaegt den vorigen im Bereich perf/W so stark um die Ohren dass es fast nicht mehr schoen ist und nein es ist eben nicht nur der 40 zu 28nm Effekt.

Adam D.
2012-02-13, 22:28:29
Ich hab keine Ahnung was die Spannung betrifft, nur dass der TDP laecherlich klein ist auf GK104 default im Vergleich zur Leistung. Und genau das ist eben der Punkt wo NV gegen Fermi trommelt; Kepler schlaegt den vorigen im Bereich perf/W so stark um die Ohren dass es fast nicht mehr schoen ist und nein es ist eben nicht nur der 40 zu 28nm Effekt.
IMO eine extrem erfreuliche Entwicklung. Wenn man die letzten Infos zusammensetzt, würde das heißen: Leistung nahe an Tahiti XT bei besserer Perf/W. Klingt wirklich vielversprechend.

Mancko
2012-02-13, 22:49:44
IMO eine extrem erfreuliche Entwicklung. Wenn man die letzten Infos zusammensetzt, würde das heißen: Leistung nahe an Tahiti XT bei besserer Perf/W. Klingt wirklich vielversprechend.

Wenn sich das nach unten hin in der Produktpalette fortsetzt, wäre das eine ziemlich gute Ausgangsposition für OEM desktop Rechner und vor allem das Mobile Segment.

Ailuros
2012-02-13, 22:57:36
Wenn sich das nach unten hin in der Produktpalette fortsetzt, wäre das eine ziemlich gute Ausgangsposition für OEM desktop Rechner und vor allem das Mobile Segment.

Genau der Grund warum NV ihre ersten 28nm Kapazitaeten fuer notebook designs "verschwendet" hat.

Hübie
2012-02-13, 23:01:02
IMO eine extrem erfreuliche Entwicklung. Wenn man die letzten Infos zusammensetzt, würde das heißen: Leistung nahe an Tahiti Pro bei besserer Perf/W. Klingt wirklich vielversprechend.

Korrigiere Mr. Whatson ;D
@Ail: Ab einem gewissen alter gehen Windeln nun mal vor GPUs ;) Das können sich hier mittlerweile genug Leute vorstellen.

Blediator16
2012-02-13, 23:29:48
Diese Perf. mit erschreckend niedrigem Verbrauch/Leistung soll bei 300uvp liegen?

Screemer
2012-02-13, 23:40:39
Dann verkauf ich meine 6950 aber so schnell wie möglich...

redfirediablo
2012-02-14, 00:04:58
Klar kann Nvidia möglicherweise dank nicht ausgelasteter TDP den Takt weiter hoch drehen und wird ggf. ein gleich hohes bzw. höheres Übertaktungspotential haben als ATI mit Tahiti.

Aber fragt euch doch mal WARUM die TDP zunächst so niedrig angesetzt wurde...

Hier geht es nicht um Reserven, schon im Ursprungszustand wird vor allem das 256er Speicherinterface limitieren. Zwar kann man dann die theoretische Rechenleistung durch eine höhere TDP und mehr Takt weiter deutlich hochdrehen, nur wenn der Speicher nicht mitskaliert verpufft das eben.

Ich halte es für möglich das Nvidia ursprünglich den Sweetspot performance/Watt gesucht hat (wohlgemerkt nicht Rechenleistung/Watt) und deshalb den Takt relativ gesehen niedrig ansetzt, weil ein höherer Takt durch das am limit laufende Speicherinterface verpufft. Ich wage also die Prognose das Nvidia beim GK104 in 7950 Performanceregionen noch Vorteile bei perf/W hat, diese dann aber in 7970 Regionen zunehmend verpuffen. Nicht weil der Chip per se ineffizient von der Rechenleistung skaliert gegenüber ATI, einfach weil er in den Regionen dann aber die Leistung dank dem Speicherinterface nicht mehr "auf die Straße" bringt. Spätestens 1,1ghz Tahiti Regionen werden trotz hoher TDP für GK104 nicht erreichbar sein. Somit wird der GK104 auch kein Übertaktertraum. Der Spielraum beim Takt wird da sein, nur kommt der dann aber nicht als Leistungsplus an, ganz im Gegensatz zu Tahiti, der ja mit zusätzlichem core takt wunderbar skaliert.

Na, was sagt Ail dazu? ;-)

AwesomeSauce
2012-02-14, 00:12:53
Hier geht es nicht um Reserven, schon im Ursprungszustand wird vor allem das 256er Speicherinterface limitieren. Zwar kann man dann die theoretische Rechenleistung durch eine höhere TDP und mehr Takt weiter deutlich hochdrehen, nur wenn der Speicher nicht mitskaliert verpufft das eben.
Weisst du überhaupt irgendetwas über die Caches von Kepler?

boxleitnerb
2012-02-14, 05:56:05
Wenn man soviel Spielraum hat, was spricht dagegen, u.a. eine verdetrol-Variante mit mind. 1 GHz als 680 Ti/Ultra/Supergutplus zu bringen, um Tahiti XT dann auch wirklich@stock (knapp) zu schlagen? Ausbeute? Messlatte zu hoch für GK110, bzw. Gefahr, dem kleinen GK110 zu nah zu kommen?

V2.0
2012-02-14, 06:54:06
OC Versionen hat man den IHVs überlassen. Es gibt genug GF104/114 die man als "Ultra" bezeichenen könnte.

Odal
2012-02-14, 08:41:42
Nö, dazu brauch ich keine Benchmarks raussuchen. Man hat doch schon damals bei der GTX460 gesehen, das sie selbst ohne DX11 Vorteile bis zu 20% schneller war als eine GTX285. Pack da noch 30% rauf, dann ist man bei bis zu ~55% mehr Leistung als bei einer GTX285.
Wahrscheinlich wäre die GTX560 für viele auch ne neue Generation wenn sie nur 3 Monaten nach der GTX460 erschienen wäre. "Neue Generation" wurde bei diesem Wechsel eh viel zu inflanionär gebraucht.

GTX560 und GTX460 ist doch im prinzip das selbe, nur das die TI Variante der eientliche "vollausbau" ist der vermutlich so gekommen wäre wenn der Prozess damals keine Probleme gemacht hätte. Sei es zur besseren ausbeute der Performance karten oder damit diese nicht zu stark sind im vergleich zum "nur" 448SP Thermi


Die GTX460 war im Vergleich zur alten GTX2xx Generation alles andere als beeindruckend - um nicht sogar zu sagen enttäuschend

Das Sache mag jetzt durch Treiberoptimierungen etwas besser aussehen aber zum release gabs nicht soviel Gründe von einer GTX260-216 auf die gtx460 zu wechseln (von der gtx285 schon garnicht)
sollten sich die Benches bestätigen sieht das jetzt aber anders aus und gtx560(ti) auf GK104 ist mehr als nur lohnend

Meintest du GTX 570/580? Die HD 7950 kostet doppelt soviel wie eine GTX 560 Ti, für die gibt es gar keinen Grund im Preis zu fallen. Und wenn GF110 gleichzeitig EOL ist (= sinkendes Angebot) aber noch Nachfrage besteht bleiben die Preise halt stabil. Würde NV jetzt die High-End Preise senken wären die GTX 570/580 ruck zuck ausverkauft und man stünde eine Weile komplett ohne High-End Konkurrenz zu AMD da - das sähe ziemlich doof aus.

nein ich meine schon die GTX570/60(ti) denn die soll ja eigentlich vom performance chip 104 ersetzt werden

V2.0
2012-02-14, 08:55:13
Der Vergleich paßt nicht.

GT250 -> GTX460/560 -> GK114
GTX260 -> GTX 470/570 -> GK110 (salvage part)

Nightspider
2012-02-14, 09:16:53
Die GTX460 war im Vergleich zur alten GTX2xx Generation alles andere als beeindruckend - um nicht sogar zu sagen enttäuschend

Inwiefern? Die GTX460 war 10-20% schneller als eine GTX285, schon bei Release und bot ein OC Potential von 30%, sowie DX11 Vorteile zu einem geringen Preis bei erträglichem Stromverbrauch.

Für den einen mag das beeindruckend sein, für den anderen nicht. Auf jeden Fall war es eine positive Steigerung und eine sehr gute Mainstream Karte.

Besser als andere Performance Karten in einem neuen Fertigungsprozess war sie aber auch nicht.

Und dass der Sprung von einer GTX260 zu einer GTX460 nicht groß ist klar, genauso groß wie der Sprung von einer GTX 570 zu einer GK104 Karte nicht besonders anders wird.


Und was genau willst du jetzt überhaupt mit deinem Post aussagen? Außer alten Fakten steht dort nicht viel drin.

PS: Ich bin sogar von zwei GTX 280 auf zwei GTX460 gewechselt, zu einem sehr guten Kurs und es hatte sich gelohnt.

boxleitnerb
2012-02-14, 09:28:07
Naja die 460 hat ggü. der 260 weniger Mehrleistung gebracht als die 480 ggü. der 280. Entweder war die 260 ungewöhnlich stark oder die 460 ungewöhnlich schwach.

Konami
2012-02-14, 09:40:44
Inwiefern? Die GTX460 war 10-20% schneller als eine GTX285
Wirklich? (http://ht4u.net/reviews/2010/nvidia_geforce_gtx_460_768mb_1024_mb/index34.php?dummy=&advancedFilter=false&prod%5B%5D=NVIDIA+GeForce+GTX+460+1024+MB&prod%5B%5D=NVIDIA+GeForce+GTX+285&filter%5B0%5D%5B%5D=1920&filter%5B2%5D%5B%5D=0&filter%5B2%5D%5B%5D=4&filter%5B2%5D%5B%5D=8&filter%5B3%5D%5B%5D=0&filter%5B3%5D%5B%5D=16&aa=all) :ugly:

Ich muss auch sagen, seit den GT200-Karten bringt der Performance-Sektor nur noch maue Verbesserungen. Das sieht man auch in diesem Thread deutlich. (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9014668&postcount=29) Ich würd mich irre freuen, wenn Kepler diesen Trend brechen könnte...

V2.0
2012-02-14, 09:41:53
Es gab keine GT200 Performance-GPU. Das war der alte G92.

Nightspider
2012-02-14, 09:49:59
Naja die 460 hat ggü. der 260 weniger Mehrleistung gebracht als die 480 ggü. der 280. Entweder war die 260 ungewöhnlich stark oder die 460 ungewöhnlich schwach.

Wie V2.0 schon sagt, vergleichst du falsche Chips miteinander. Die GTX260 war damals das, was jetzt GTX470 und 570 waren.

Wirklich? (http://ht4u.net/reviews/2010/nvidia_geforce_gtx_460_768mb_1024_mb/index34.php?dummy=&advancedFilter=false&prod%5B%5D=NVIDIA+GeForce+GTX+460+1024+MB&prod%5B%5D=NVIDIA+GeForce+GTX+285&filter%5B0%5D%5B%5D=1920&filter%5B2%5D%5B%5D=0&filter%5B2%5D%5B%5D=4&filter%5B2%5D%5B%5D=8&filter%5B3%5D%5B%5D=0&filter%5B3%5D%5B%5D=16&aa=all) :ugly:

Das hängt immer ab, welche Benchmarks man heran zieht. Jede Seite misst andere Spiele. Zumal deine Seite sinnlos ist, wenn Grafikkarten mit unters. Details getestet werden. DX11vsDX10 @ Battleforge.

Skysnake
2012-02-14, 10:08:19
Genau der Grund warum NV ihre ersten 28nm Kapazitaeten fuer notebook designs "verschwendet" hat.
Tja, das war/ist ja auch lange schon meine Vermutung gewesen. ;)

Jetzt aber noch was anderes. nVidia hat ja scheinbar (was zu erwarten war) @stock die höhere Effizienz.

Was man allerdings nicht vergessen sollte, und da spielst du glaube ich drauf an (bitte korrigier mich, wenn dem nicht so ist), dass die 7970 mit sehr hohen Spannungen schon daher kommt, um mehr Chips verwenden zu können. Beim GK104 muss das nicht der Fall sein, da die Produktion schon einige Monate mehr läuft, und man hoffentlich die Streuung in den Griff bekommen hat. Man könnte also mit miedrigeren Spannungen arbeiten für den Stock! clock. Das OC Potenzial wäre damit für beide Karten etwa gleich, da man ja auf eine gewisse Spannung limitiert ist durch die TDP etc.

Was allerdings bei nVidia passiert ist, dass der Verbrauch überproportional ansteigt mit dem Takt, da man eben die Spannung schneller und stärker erhöhen muss. Man geht halt von einem niedrigeren Grundwert aus. Bei AMD spart man sich einiges an Spannungserhöhung, weil schon @Stock die Spannung höher ist, was die Perf/Watt natürlich negativ beeinflusst @Stock, dafür aber einen geringeren Verbrauchsanstieg bei OC hervorruft.

Am Ende landen dann beide Karten +/- bei der selben Perf/W bei gleicher! Performance. Das wäre natürlich für nVidia schon unangenehm, wobei AMD Karten ja aber eher als Effizient gelten... Trotzdem würde die ganze Sache aber eben die tollen Perf/W Aussagen ziemlich ruinieren, mit denen man ja so Wirbt. Und auf der anderen Seite kann man sich mit dem GK104 eben nicht die Leistungskrone sichern, da z.B. das SI kleiner ausfällt.

Klingt für mich alles ziemlich schlüssig, oder was meinste Ailuros? Hab ich das getroffen, was du andeuten wolltest? (Ohne den letzten Absatz)

boxleitnerb
2012-02-14, 10:23:00
Wie V2.0 schon sagt, vergleichst du falsche Chips miteinander. Die GTX260 war damals das, was jetzt GTX470 und 570 waren.


Hm, stimmt eigentlich. Es gab erst später die GTX275, die diese Rolle halbwegs eingenommen hat.

AnarchX
2012-02-14, 10:26:57
Wie V2.0 schon sagt, vergleichst du falsche Chips miteinander. Die GTX260 war damals das, was jetzt GTX470 und 570 waren.

Nachdem 285-Launch war eine 260 etwa halb so teuer wie die 285 - 150€ und weniger.
Das war in etwa schon die Postion, welche die 460 zur 480 einnahm und die 560Ti zur 580.

... die guten alten Zeiten, wo man noch ~500mm² Dies und 448-Bit GDDR3 oder 256-Bit GDDR5 für etwas über 100€ bekam. :usad:

boxleitnerb
2012-02-14, 10:28:23
Aber der Chip war derselbe - GT200. Ein kleineres Die gabs für die Klasse irgendwie nicht, da haben die beiden schon Recht. Ist schwierig vergleichbar, weil so viele Sachen anders waren, der Preiskrieg inklusive.

Odal
2012-02-14, 10:31:10
Es gab keine GT200 Performance-GPU. Das war der alte G92.

blödsinn der zum 100. mal umbenannte G92 entsprach preis und leistungstechnisch der heutigen GTX550

Wie V2.0 schon sagt, vergleichst du falsche Chips miteinander. Die GTX260 war damals das, was jetzt GTX470 und 570 waren.


Es gab damals kein 470/570 äquivalent so wird ein Schuh draus.
Erst später wurde eine GTX270/275 nachgeschoben da die "Lücke" gtx260(192/216) zur GTX280/285 gross genug war.

Die GTX260 war ähnlich gepreisst wie die jetzigen GTX560

Allerdings befürchte ich das der GK104 zwar nur der Performance Kepler sein wird, aber erstmal eine Weile zu HighEnd Preisen verkauft wird (daher auch das namensgerücht GTX680) und dann im Q4/2012 der richtige HighEnd Kepler kommt und eine umbenennung erfolgt GK110->GTX780 GK104->GTX760

boxleitnerb
2012-02-14, 10:34:21
Warum soll GK110 so spät kommen? Hätte er nicht den Tape out auch später gehabt? Der war laut Ail womöglich noch 2011 (Dezember nehme ich mal an). GF100 hat mit 2 Respins laut ihm 6 Monate gebraucht. Das wäre also im schlimmsten Fall Juni, eher früher. Hat Nvidia Kepler nicht sogar vorgezogen? GK104 von April auf März und GK110 von Mai auf April?

Ailuros
2012-02-14, 10:48:25
Klar kann Nvidia möglicherweise dank nicht ausgelasteter TDP den Takt weiter hoch drehen und wird ggf. ein gleich hohes bzw. höheres Übertaktungspotential haben als ATI mit Tahiti.

Aber fragt euch doch mal WARUM die TDP zunächst so niedrig angesetzt wurde...

1. Kleinere und billigere Kuehlung.
2. Uebertaktungs-Potenzial fuer vendors und User.
3. Passt in die spezifische Preis-/Leistungs-Kategorie.
4. Laesst logischen Abstand zum kleinsten zukuenftigen GK110 salvage part.
5. Bessere binning yields.

Kurz mehr oder weniger die gleichen Gruende warum TahitiXT und PRO so relativ niedrig getaktet wurden.

Hier geht es nicht um Reserven, schon im Ursprungszustand wird vor allem das 256er Speicherinterface limitieren. Zwar kann man dann die theoretische Rechenleistung durch eine höhere TDP und mehr Takt weiter deutlich hochdrehen, nur wenn der Speicher nicht mitskaliert verpufft das eben.

Cayman hat auch einen 256bit bus und leistet im Durchschnitt um die 15% weniger als GF110/384bit. In 8xMSAA Faellen geht dem letzteren zuerst der framebuffer aus als alles andere.

Ich halte es für möglich das Nvidia ursprünglich den Sweetspot performance/Watt gesucht hat (wohlgemerkt nicht Rechenleistung/Watt) und deshalb den Takt relativ gesehen niedrig ansetzt, weil ein höherer Takt durch das am limit laufende Speicherinterface verpufft. Ich wage also die Prognose das Nvidia beim GK104 in 7950 Performanceregionen noch Vorteile bei perf/W hat, diese dann aber in 7970 Regionen zunehmend verpuffen. Nicht weil der Chip per se ineffizient von der Rechenleistung skaliert gegenüber ATI, einfach weil er in den Regionen dann aber die Leistung dank dem Speicherinterface nicht mehr "auf die Straße" bringt. Spätestens 1,1ghz Tahiti Regionen werden trotz hoher TDP für GK104 nicht erreichbar sein. Somit wird der GK104 auch kein Übertaktertraum. Der Spielraum beim Takt wird da sein, nur kommt der dann aber nicht als Leistungsplus an, ganz im Gegensatz zu Tahiti, der ja mit zusätzlichem core takt wunderbar skaliert.

Na, was sagt Ail dazu? ;-)

Nochmal auch fuer Dich (und ehrlich wenn ich nicht den gleichen Mist dutzende Male wiederholen muesste waere es um einiges leichter) die GESAMTE Kepler Familie hat ein ausgezeichnetes perf/W Verhaeltnis weil es eben hauptsaechlich ARCHITEKTUR-BEDINGT ist.

Zum Rest ist es nur zusammengereimter Quark. GK104 muss und braucht auch nicht TahitiXT zu schlagen. Wenn es dann in der Zukunft vom GK110 salvage part gruen und blau geschlagen wird, kannst Du dann gerne nach der "fehlenden" Bandbreite suchen.

Skysnake,

Nein GK104 Produktion laeuft nicht schon seit "einigen Monaten". Sie brauchen kein besonderes stock piling fuer GK104m da diese dank hohem Preis als mobile high end keine besonders grosse Nachfrage haben werden. Sie sind jetzt erst kurzfristig im vollen Herstellungsprozess und der launch ist etwa in der Mitte von dem was ich vorher projezierte.


Allerdings befürchte ich das der GK104 zwar nur der Performance Kepler sein wird, aber erstmal eine Weile zu HighEnd Preisen verkauft wird (daher auch das namensgerücht GTX680) und dann im Q4/2012 der richtige HighEnd Kepler kommt und eine umbenennung erfolgt GK110->GTX780 GK104->GTX760

GK104 war anfangs fuer Februar mit einem MSRP $299 geplant und da gibt es keine "aber" dafuer und ja mit dem laecherlichem GTX680 Namen. Was am Ende beim finalen launch dabei herauskommt weiss ich noch nicht aber:

1. Sind $299 immerhin ca. 10% mehr MSRP als beim GF114.
2. Man bietet im Monat X eine SKU um $400 an und innerhalb maximal 2 Monaten kommt etwas um X% schnelleres zum gleichen Preis? Na die gerechtfertigen User-Beschwerden sollte mal jemand bewaeltigen wollen.
3. Nochmal auch fuer Dich zum mitlesen: wenn sie es tatsaechlich GTX680 nennen dann hauptsaechlich aus marketing Gruenden weil es fuer notebooks der highest end mobile core sein und fuer einige Zeit bleiben wird. Der desktop vom mobilen launch ist nicht allzu weit zeitlich entfernt.
4. GK110 in Q4? Von was traeumt man sonst noch hier?

N0Thing
2012-02-14, 10:52:35
Warum soll GK110 so spät kommen? Hätte er nicht den Tape out auch später gehabt? Der war laut Ail womöglich noch 2011 (Dezember nehme ich mal an). GF100 hat mit 2 Respins laut ihm 6 Monate gebraucht. Das wäre also im schlimmsten Fall Juni, eher früher. Hat Nvidia Kepler nicht sogar vorgezogen? GK104 von April auf März und GK110 von Mai auf April?

Vorgezogen? Das wäre mir neu, immerhin ging man letztes Jahr noch von einem Launch im Januar aus. Für mich sieht es eher danach aus, daß TSMC zu spät die Produktion größerer Mengen ermöglichte und Nvidia für den Launch von Ivy Bridge die Kepler Desktop-Chips verschieben mußte, um genug Mobile-Chips liefern zu können. Die Überarbeitung der Chips aufgrund des PCIe 3.0 Bugs hat sicher auch nicht für einen früheren Release gesorgt.

boxleitnerb
2012-02-14, 10:55:44
Siehe ein Post über deinem. Februar. Ail hat soweit ich mich da jetzt nicht täusche doch mehrmals was von einem Monat gesagt, den der Launch vorgezogen wurde.

Ich persönlich schätze Mai/Juni ist der spätestmögliche Termin für GK110.

uweskw
2012-02-14, 10:55:48
3000 Points im 3DMark11 Extreme? Mit 256 bit bus? Wie soll das gehen?
Mann, Mann, Mann... ihr schaukelt euch hier auf.. Morgen kann GK 104 auch noch Kafee kochen. Dabei gibts hier doch genug Leute dies eigentlich besser wissen.

Ailuros
2012-02-14, 11:01:00
Getrennter Post aus gutem Grund:

Ja die GK110 specs mit den 4096 SPs war ein uebler Scherz und ja es hat zumindest einer in den bitteren Apfel gebissen wie Man from Antlantis zeigte. Es war lediglich eine live-Uebung fuer einige hier um zu sehen wie leicht es ist einige dort draussen auf die Palme zu treiben. Leider ist die Zeit zu knapp um es durchzusetzen da NV so langsam anfaengt links und rechts einzuweihen und es keinen Sinn mehr macht.

Von dem abgesehen man kann immer Wege finden Zahlen und Daten so zu verdrehen dass sie auch eventuell Sinn machen koennen. Zu den fake GK110 specs:

* Wenn man anstaendiges scheduling fuer 3*32 bzw. 96 SPs/SM auf die Beine stellen kann, dann spricht auch nichts theoretisch gegen 4*32 bzw. 128 SPs/SM.

* Man muss dann aber trotzdem schon an einen 512bit bus denken damit es nicht zu stark mit DP hapert.

* Welche ALUs sind theoretisch billiger 2*32/64SPs/SM 2:1 SP/DP oder 4*32/128SPs/SM 4:1 SP/DP? Vorsicht fuer diejenigen die sofort ans erste denken unter der Logik weniger SPs sind billiger, denn je kleiner das SP/DP ratio desto "teurer" werden ALUs.

* Oh Gott 256TMUs!!! Ich hab nie "volle" TMUs behauptet ;)

Sonst haette der ganze Schnickschnack schon in die die area von GK110 gepasst theoretisch nur eben nicht mit den in der Zukunft angekuendigten zusaetzlichen exklusiven GK110 CUDA-next Faehigkeiten :P

TMU Anzahl duerfte zwischen GK104 und GK110 gleich sein von da ab kann man sich so einiges zusammenreimen und ja "nur" ein 384bit bus.

Ailuros
2012-02-14, 11:03:15
3000 Points im 3DMark11 Extreme? Mit 256 bit bus? Wie soll das gehen?
Mann, Mann, Mann... ihr schaukelt euch hier auf.. Morgen kann GK 104 auch noch Kafee kochen. Dabei gibts hier doch genug Leute dies eigentlich besser wissen.

Nicht mit default Frequenzen. Sonst warte noch ein paar Wochen ab und es wird wohl schon einleuchten um was es sich handelt und ich wuerde sagen dass die verdetroll Pillen wohl doch nicht helfen werden.

N0Thing
2012-02-14, 11:06:57
Siehe ein Post über deinem. Februar. Ail hat soweit ich mich da jetzt nicht täusche doch mehrmals was von einem Monat gesagt, den der Launch vorgezogen wurde.

Ich persönlich schätze Mai/Juni ist der spätestmögliche Termin für GK110.

Wenn Februrar geplant war und der Chip nun erst im März erscheint, ist das für mich eine Verspätung/Verzögerung und kein vorgezogener Release für den GK104. ;)
Für den GK110 hab ich April im Kopf gehabt, bevor die Spekulationen losgingen, der Chip würde erst im 2. Halbjahr heraus kommen, von daher wäre Mai/Juni auch in diesem Fall eher eine Verzögerung.

Wenn man die letzten Spekulationen ernst genommen hat, kann man die nun aktuellen Vermutungen über den Releasezeitpunkt natürlich als einen vorgezogenen Launch bezeichnen.

Ailuros
2012-02-14, 11:08:02
Vorgezogen? Das wäre mir neu, immerhin ging man letztes Jahr noch von einem Launch im Januar aus. Für mich sieht es eher danach aus, daß TSMC zu spät die Produktion größerer Mengen ermöglichte und Nvidia für den Launch von Ivy Bridge die Kepler Desktop-Chips verschieben mußte, um genug Mobile-Chips liefern zu können. Die Überarbeitung der Chips aufgrund des PCIe 3.0 Bugs hat sicher auch nicht für einen früheren Release gesorgt.

Es war original geplant bei der CES den GK104 vorzustellen fuer einen Februar launch. Die CES war im Januar. Der launch wurde storniert hauptsaechlich aus Kapazitaetzsgruenden und GK110 war nie original vor April geplant weil sonst die Herstellungskosten dafuer viel zu hoch gewesen waeren. Beides hat sich um einen Monat ca. verschoben wobei fuer GK110 noch nichts sicher ist weil noch keiner weiss ob es einen weiteren spin brauchte oder nicht.

***edit: "vorgezogen" kann man auch Verspaetung nennen, im gegebenen Fall ein und dasselbe. Ist NV aber wohl wurscht da sie den ivy bridge launch einhalten werden koennen.

boxleitnerb
2012-02-14, 11:08:42
Naja, das musst du eher Ail fragen. Vielleicht hab ich ihn falsch verstanden, aber es kann ja durchaus sein, dass man von Februar auf April verschoben hat und jetzt wieder ein klein wenig vorzieht bzw. merkt, man schafft es doch schneller als gedacht.

Screemer
2012-02-14, 11:12:42
***edit: "vorgezogen" kann man auch Verspaetung nennen, im gegebenen Fall ein und dasselbe. Ist NV aber wohl wurscht da sie den ivy bridge launch einhalten werden koennen.
jetzt sieht man mal wo die verwirrung hier herkommt. "vorgezogen/vorziehen" bedeutet im deutschen sprachgebrauch und im zusammenhang mit einem datum doch wohl immer früher als geplant/gedacht/angekündigt, oder nicht?!

Ailuros
2012-02-14, 11:22:39
jetzt sieht man mal wo die verwirrung hier herkommt. "vorgezogen/vorziehen" bedeutet im deutschen sprachgebrauch und im zusammenhang mit einem datum doch wohl immer früher als geplant/gedacht/angekündigt, oder nicht?!

Kann durchaus sein dass ich die Verantwortung fuer das Missverstaendnis habe. Ich tippe mehr als oefters bei kurzen Arbeitspausen rein und denk leider oefters in letzten Jahren eher auf "englischer Basis" als alles andere beim tippen. "Pulled ahead" ist natuerlich nicht "vorgezogen"; fall ich es wirklich selber so geschrieben habe ist es natuerlich ein reines Missverstaendnis.

Odal
2012-02-14, 11:29:23
Warum soll GK110 so spät kommen?

schlechte ausbeute für den grossen chip (generell zuviel abfall - defekt - oder auch "nur" zuviel die die gesetzten TDP anforderungen nicht erfüllen würden)

man könnte so auch einigen zwei kepler zu highend preisen andrehen - erstmal den performance chip und etliche monate später den gk110 :biggrin:




GK104 war anfangs fuer Februar mit einem MSRP $299 geplant und da gibt es keine "aber" dafuer und ja mit dem laecherlichem GTX680 Namen. Was am Ende beim finalen launch dabei herauskommt weiss ich noch nicht aber:

1. Sind $299 immerhin ca. 10% mehr MSRP als beim GF114.


299$ wären 226€ also praktisch dann eher so 250€ dann frage ich mich warum die GTX560TI und GTX570 immer noch so preisstabil (200-300€) sind

da müsste doch längst mal der Räumungsverkauf losgehen wenn GK104 in 1-2 Monaten zu haben ist und das für <300€

oder das Ding kommt nicht mal ganz auf GTX570 Leistung :tongue:


2. Man bietet im Monat X eine SKU um $400 an und innerhalb maximal 2 Monaten kommt etwas um X% schnelleres zum gleichen Preis? Na die gerechtfertigen User-Beschwerden sollte mal jemand bewaeltigen wollen.


darum hatte ich den spekulatius ja auch auf Q4 gesetzt :D zumindest mit real verfügbarer hardware


3. Nochmal auch fuer Dich zum mitlesen: wenn sie es tatsaechlich GTX680 nennen dann hauptsaechlich aus marketing Gruenden weil es fuer notebooks der highest end mobile core sein und fuer einige Zeit bleiben wird. Der desktop vom mobilen launch ist nicht allzu weit zeitlich entfernt.

wie will man denn dann den GK110 benennen (gesetz dem fall diese namensgebung GK104->GTX680 wird tatsächlich beibehalten)
GTX690? das wäre marketingtechnisch aber äusserst unklug


4. GK110 in Q4? Von was traeumt man sonst noch hier?

Na also träumen tu ich eher davon das der GK104+GK110 dual-launch am besten schon gestern war, der GK104 die GTX580 so richtig vermöbelt, der GK110 den GK104 so richtig vermöbelt damit letzterer dann für <=200€ verkauft wird und ersterer das neue highend wird

aber wir sind hier ja nicht bei "wünsch dir was" :tongue:

Dural
2012-02-14, 11:44:07
Wirklich? (http://ht4u.net/reviews/2010/nvidia_geforce_gtx_460_768mb_1024_mb/index34.php?dummy=&advancedFilter=false&prod%5B%5D=NVIDIA+GeForce+GTX+460+1024+MB&prod%5B%5D=NVIDIA+GeForce+GTX+285&filter%5B0%5D%5B%5D=1920&filter%5B2%5D%5B%5D=0&filter%5B2%5D%5B%5D=4&filter%5B2%5D%5B%5D=8&filter%5B3%5D%5B%5D=0&filter%5B3%5D%5B%5D=16&aa=all) :ugly:

Ich muss auch sagen, seit den GT200-Karten bringt der Performance-Sektor nur noch maue Verbesserungen. Das sieht man auch in diesem Thread deutlich. (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9014668&postcount=29) Ich würd mich irre freuen, wenn Kepler diesen Trend brechen könnte...

Was?!?

So eine schnelle Performance Karte wie die GTX 560 Ti gab es schon lange nicht mehr! Der GF104/GF114 Chip ist für sein Ziel Markt ziemlich schnell und kann es schon fast mit der GTX570 und 6970 aufnehmen.

Schon nur wenn man die EInheiten im Vergleich zum Topmodell Vergleicht dürfte man sehen das der GF114 sogar extrem stark zu seinem vorgänger ist, G94 hatte zb. nur die halben ALUs eines G92 und dieser Chip ist ja nicht mal ein High-End Chip wie es heute mit GF110 der fall ist.

Oder G84 mit nur 32 ALUs (!!!) ... usw.


Übrigens wird in deinem Link nur die GTX 560 ohne TI erwähnt.

Screemer
2012-02-14, 11:44:50
$299 MSRP sind ohne steuer, nur zur anmerkung. das dürften dann eher 299€ werden.

Zergra
2012-02-14, 11:54:04
$299 MSRP sind ohne steuer, nur zur anmerkung. das dürften dann eher 299€ werden.
warscheinlich in den ersten 1-2 Wochen noch ein paar € mehr :P die Gier-Steuer, hoffe das die Lieferbarkeit dann auch Richtig gut ist, das wird dann den Preis auf dem Mark ordentlich drücken.. ich glaube aber fast nicht das die HD7970 von dem Preisfall getroffen werden wird... -> solange sie die Hightend Karte bleibt brauchen die da nicht sooo viel tun

Skysnake
2012-02-14, 11:55:47
Skysnake,

Nein GK104 Produktion laeuft nicht schon seit "einigen Monaten". Sie brauchen kein besonderes stock piling fuer GK104m da diese dank hohem Preis als mobile high end keine besonders grosse Nachfrage haben werden. Sie sind jetzt erst kurzfristig im vollen Herstellungsprozess und der launch ist etwa in der Mitte von dem was ich vorher projezierte.

Nein, so einte ich das nicht. War wohl missverständlich. Ich meinte, das zwischen Tahiti XT/Pro Produktionsstart/Binning und GK104 Produktionsstart/Binning, einige Monate wohl liegen, also >=2 und damit die Fortschritte in der Prozessnetwicklung mitgenommen werden könne, was bei AMD eben nicht konnte, und in verhältnismäßig hohen Spannung niederschlägt, was die OC'ler freut, da Sie die Spannung erst stpä anheben müssen, aber eben Für Perf/W @stock ziemlich blöd ist.

Konami
2012-02-14, 11:57:24
Das hängt immer ab, welche Benchmarks man heran zieht. Jede Seite misst andere Spiele. Zumal deine Seite sinnlos ist, wenn Grafikkarten mit unters. Details getestet werden. DX11vsDX10 @ Battleforge.
War auch nur der einzige direkte Vergleich, den ich auf die Schnelle gefunden hab. Trotzdem: GTX 460 im Schnitt 10-20% schneller als GTX 285? Niemals. Ungefähr gleich schnell sind sie.

Übrigens wird in deinem Link nur die GTX 560 ohne TI erwähnt.
Ist ja auch ein Vergleich von 150€-Grafikkarten, nicht 190€ (was schon in Richtung "High-End" geht).

Dural
2012-02-14, 11:59:39
190.- Euro High-End? ;D :freak:

jedem das seine ;) kleiner Tipp schau mal was die 8600GTS "High-End" karte gekostet hat ;)

Screemer
2012-02-14, 12:01:10
warscheinlich in den ersten 1-2 Wochen noch ein paar € mehr :P die Gier-Steuer, hoffe das die Lieferbarkeit dann auch Richtig gut ist, das wird dann den Preis auf dem Mark ordentlich drücken.. ich glaube aber fast nicht das die HD7970 von dem Preisfall getroffen werden wird... -> solange sie die Hightend Karte bleibt brauchen die da nicht sooo viel tun
das sehe ich genau so. hoffe aber auf das selbe wie du. sollte sich die karte bei unter 300€ einfinden, dann werde ich von meiner 6950 wechseln. hab mir zwar erst einen accelero gekauft um noch ein wenig taktspielraum zu haben (den ich noch nicht getestet habe), aber wenn die karte bei full-hd wirklich so gut performt wie in den benches ein paar seiten zurück werd ich wohl schwach werden. hatte dafür ewigkeiten ne 8800gts g92 und bin "erst" letzten märz auf die ati umgestiegen, aber die gk104 reizen mich bei den vorhersagen doch sehr. bin mal gespannt ob sich das so bewahrheitet.
fall ich es wirklich selber so geschrieben habe ist es natuerlich ein reines Missverstaendnis.
das kann doch jedem passieren. du bist doch soweit ich mich erinnere kein deutscher muttersprachler, oder? da sind das doch wohl kleinigkeiten und jeder der sich aufregt sollte sich am rest eher ne scheibe abschneiden ;)

Konami
2012-02-14, 12:06:46
190.- Euro High-End? ;D :freak:

jedem das seine ;) kleiner Tipp schau mal was die 8600GTS "High-End" karte gekostet hat ;)
Unabhängig von irgendwelchen Definitionen von Marktsegmenten ist es ein Vergleich bei fixem Preispunkt, weswegen er überhaupt erst Sinn macht. Da kann man nicht einfach eine 40-50€ teurere Grafikkarte anführen und sagen "guck mal, wie schnell die ist!" :ugly:

Hübie
2012-02-14, 12:11:27
Eine interessante Aussage bzgl der Yields sagt diese News hier (http://www.electronicsweekly.com/Articles/20/01/2012/52773/28nm-yield-issues-at-tsmc.htm) aus. 6 von 10 Kunden haben Probleme. Wer davon betroffen und um welche Prozesse genau es sich handelt ist nicht näher spezifiziert. Dennoch mal ein netter Einblick.
Wir gehen mal davon aus, das beide Grafikkartenhersteller mit zu den 6 zählen. 36 Produkte hatten erfolgreich ihr tape out. 132 sollen es werden. Na ja den Rest malen wir uns jetzt bunt aus.
Probleme heißt übrigens nicht, das es gar nicht geht ;)

Soul
2012-02-14, 12:56:55
Eine interessante Aussage bzgl der Yields sagt diese News hier (http://www.electronicsweekly.com/Articles/20/01/2012/52773/28nm-yield-issues-at-tsmc.htm) aus. 6 von 10 Kunden haben Probleme.

Da klingt dein Review besser als den den ich gelesen habe mit Bryant said that there are 10 designs in manufacture from seven companies. "We're now hearing none of them work; no yield anyway," aus http://www.eetimes.com/electronics-news/4234961/TSMC-manufacturing-process-in-trouble?pageNumber=0

Interessaant wie man die gleiche Konferenz auslegen kann.

Iruwen
2012-02-14, 13:02:59
Wenn das stimmen würde gäbe es keine HD 79xx zu kaufen.

Ailuros
2012-02-14, 13:26:38
299$ wären 226€ also praktisch dann eher so 250€ dann frage ich mich warum die GTX560TI und GTX570 immer noch so preisstabil (200-300€) sind

da müsste doch längst mal der Räumungsverkauf losgehen wenn GK104 in 1-2 Monaten zu haben ist und das für <300€

Sie muessen gar nichts da noch nichts Neues angekuendigt oder noch schlimmer erhaeltlich ist.

oder das Ding kommt nicht mal ganz auf GTX570 Leistung :tongue:

Zwischen dem was manche sich mit Absicht vorstellen wollen und der eigentlichen Realitaet gibt es stets Gott sei Dank einen gesunden Unterschied. Falls es wirklich so waere nochmal haetten sie auch locker bei einem einfachen Fermi bzw. GF114@28nm bleiben koennen.

darum hatte ich den spekulatius ja auch auf Q4 gesetzt :D zumindest mit real verfügbarer hardware.

Dafuer muesste GK110 total im Eimer sein und es muesste ein kompletter spin vom chip am Werk sein.

wie will man denn dann den GK110 benennen (gesetz dem fall diese namensgebung GK104->GTX680 wird tatsächlich beibehalten)
GTX690? das wäre marketingtechnisch aber äusserst unklug

Da beide IHV so manchen marketingtechnischen Bloedsinn mit der Namesgebung anrichten ist es mir persoenlich wurscht wie sie A, B oder C nennen wollen, so lange das Preis-/Leistungs-Verhaeltnis stimmt.


Na also träumen tu ich eher davon das der GK104+GK110 dual-launch am besten schon gestern war, der GK104 die GTX580 so richtig vermöbelt, der GK110 den GK104 so richtig vermöbelt damit letzterer dann für <=200€ verkauft wird und ersterer das neue highend wird

So leicht wird der GK104 MSRP mit der Zeit nicht verfallen. Wenn er von Anfang so niedrig wie $299 angesetzt wird, wird er wohl aus dem gleichen Grund fuer einige Zeit auf dem Standpunkt bleiben.

aber wir sind hier ja nicht bei "wünsch dir was" :tongue:

It's raining Sherlock :P

Wenn das stimmen würde gäbe es keine HD 79xx zu kaufen.

Wenn man es wirklich richtig herausliesst dann liegt bestimmt nicht sehr viel krummes an dem was der Artikel eigentlich sagen will. ST Micro wollte ihren Novathor A9600 auch schon in 2011 beim sampling haben und sie haben sich momentan wohl immer noch nicht ueber die finale foundry die sie benutzen werden entschieden. Bei Glofo sieht es auch nicht besonders besser aus im Vergleich zu TSMC.

Aber das zur Seite warum scheint Qualcomm keine Probleme mit ihrem S4 zu haben? Erstens weiss keiner ob es wirklich nur der Prozess ist der problematisch ist und zweitens da der Artikel sich eher auf SoCs konzentriert, sollte mir wohl mal jemand erklaeren was genau 28HP damit zu tun haben kann. Ach ja hallo alles 28nm gehoert ja immer in den gleichen Topf :rolleyes:

Hübie
2012-02-14, 13:35:18
We have so far completed 36 individual tape-outs and have scheduled another 132 individual product tape-out in 2012.

[...]Future Horizons’ CTO Mike Bryant said that six out of ten of TSMC’s 28nm customers were reporting yield problems.

Das keins läuft kann ja schon mal net sein. AMDs Karten kann man kaufen und werden in 28nm bei TSMC gefertigt ;D

@Ail: In meinem Beitrag gehts um alle 3 bzw. 4 :P Also auch 28HP welcher ja mit GPUs in Verbindung gebracht wird oder irre ich mich?

Ailuros
2012-02-14, 14:00:12
Das keins läuft kann ja schon mal net sein. AMDs Karten kann man kaufen und werden in 28nm bei TSMC gefertigt ;D

@Ail: In meinem Beitrag gehts um alle 3 bzw. 4 :P Also auch 28HP welcher ja mit GPUs in Verbindung gebracht wird oder irre ich mich?

Aus dem eetimes link:

Bryant acknowledged that the TSMC 28-nm process is now in true volume production and the Qualcomm Snapdragon S4 has won the highest proportion of available design slots.

Qualcomm S4 (welches uebrigens Krait ist, weil eben Analysten bzw. eetimes meistens so "gut" informiert sind) SoC ist auf 28HP afaik. Qualcomm hat eine Uebermenge an smart-phone SoC design wins und sie liefern auch immer zum Zeitpunkt wo sie es versprochen haben deshalb haben sie auch so viele Kapazitaeten vorbestellt und sie eben nicht in irgend einer daemlichen Lotterie "gewonnen" wie hier jemand behaupten will.

Es gibt keine Probleme mit dem vorerwaehnten S4 (um es klar zu machen nichts dass man heutzutage NICHT von einem so neuem Prozess erwarten wuerde), Tahiti und folgende cores sind schon seit einiger Zeit in Produktion und ebenso einige GK10x NV cores unterhalb von GK104, wobei auch das letztere schon in Produktion liegen sollte sonst waere noch kein Launchdatum angeschlagen.

Jetzt bin ich so frech und frage nochmal ob das "Problem" nicht vielleicht auf SoCs begrenzt sein koennte eventuell 28LP und auch fuer Faelle "no yields" dass irgend ein Bumshersteller die Design-Vorschlaege TSMCs nicht eingehalten hat. Yields waren schon seit 65nm am Anfang zunehmend problematischer, schlimmer bei 40G und etwa auf vergleichbarem Nivaeu heute bei 28nm. Kein yield muss aber nicht unbedingt auf dem eigentlichen Prozess liegen. Und ja ich dreh mich nochmal im Kreis und frage warum Qualcomm keine Probleme mit S4 hat und diese tonnenweise herstellt. Du wirst wohl wissen wie klein wirklich smartphone SoCs sein koennen. Ergo?

Screemer
2012-02-14, 14:35:28
wenns derzeit was gibt worauf ich so scharf bin wie auf den gk104, dann ist das MSM8960. also hör bitte auf mir den mund wässrig zu machen ;)

Ailuros
2012-02-14, 14:38:14
wenns derzeit was gibt worauf ich so scharf bin wie auf den gk104, dann ist das MSM8960. also hör bitte auf mir den mund wässrig zu machen ;)

Gut; da es so oder so OT ist werd ich Dir auch nicht erzaehlen wie es sich gegen konkurrierende Loesung vergleicht :P

Hübie
2012-02-14, 15:45:53
Auf die Meldung von eetimes gehe ich nicht ein. Leg es aus wie du willst, aber ich bin mir ziemlich sicher das die GPUs problematischer sind. Klar kann es auf 28nm LP begrenzt sein. Kanns aber auch nicht.
So lang wir keine Kostenaufschlüsselung einsehen können wissen wir es ohne hin nicht. ;)
Edit: Oder jmd. bei TSMC berichtet direkt davon...

redfirediablo
2012-02-14, 16:37:34
Weisst du überhaupt irgendetwas über die Caches von Kepler?
Nein, aber ich glaube weder an Zauberei noch daran, das Sie bei dem kleinen Die auch noch riesige Caches draufpacken konnten.



Zum Rest ist es nur zusammengereimter Quark. GK104 muss und braucht auch nicht TahitiXT zu schlagen.

Letztlich sagst du aber auch nix anderes als ich :-) Im Bereich wo der GK104 kommt ist er sehr gut, alles darüber kann er nicht und dafür gibts dann andere Lösungen.

Es kam nur letztens so rüber, das ja der GK104 eine super niedrige TDP hat im Vergleich z.B. zu einem TahitiPro und im nächsten Satz ging es dann darüber, das es keinen Grund gibt, warum der GK104 sich schlechter übertakten lassen sollte, als die aktuellen Chips von ATI.

Stimmt alles soweit, nur erzeugt das den Eindruck, dass man Quasi durch Übertakten selbst einen Übertakteten TahitiXT gefährlich werden könne und genau das bezweifle ich eben aufgrund des SI.

Cayman hat auch einen 256bit bus und leistet im Durchschnitt um die 15% weniger als GF110/384bit. In 8xMSAA Faellen geht dem letzteren zuerst der framebuffer aus als alles andere.

Cayman @ Stock ist auch nirgend auch nur in der Nähe eines OC TahitiXT. Insofern zieht imho das Beispiel von damals (vs. 384 bit GF110) nicht. Nur weil damals 256 bei Cayman ausgereicht haben, heißt das nicht, dass es in der aktuellen Generation noch ausreicht um ganz nach oben zu kommen.

Ailuros
2012-02-14, 17:05:47
Nein, aber ich glaube weder an Zauberei noch daran, das Sie bei dem kleinen Die auch noch riesige Caches draufpacken konnten.

Es ging NIE um riesige caches sondern eher um vergleichbare cache Mengen mit einer effektiveren Datenverwaltung. Ich weiss nicht ob es zu frueh ist und das two level cache/register cache Zeug eher fuer Maxwell ist, aber im Fall wo sie es schon im Kepler haben sollte, gewinnt schon etwas an Effizienz mit der two level cache und spart etwas Strom mit dem register cache Zeug.


Letztlich sagst du aber auch nix anderes als ich :-) Im Bereich wo der GK104 kommt ist er sehr gut, alles darüber kann er nicht und dafür gibts dann andere Lösungen.

Es kam nur letztens so rüber, das ja der GK104 eine super niedrige TDP hat im Vergleich z.B. zu einem TahitiPro und im nächsten Satz ging es dann darüber, das es keinen Grund gibt, warum der GK104 sich schlechter übertakten lassen sollte, als die aktuellen Chips von ATI.

Stimmt alles soweit, nur erzeugt das den Eindruck, dass man Quasi durch Übertakten selbst einen Übertakteten TahitiXT gefährlich werden könne und genau das bezweifle ich eben aufgrund des SI.

Lassen wir es erstmal so dass das perf/W ratio auf GK104 ziemlich gut ist, um weitere Verwirrung zu vermeiden.

Cayman @ Stock ist auch nirgend auch nur in der Nähe eines OC TahitiXT. Insofern zieht imho das Beispiel von damals (vs. 384 bit GF110) nicht. Nur weil damals 256 bei Cayman ausgereicht haben, heißt das nicht, dass es in der aktuellen Generation noch ausreicht um ganz nach oben zu kommen.

Nur limitieren bei TahitiXT wohl eher die 32 ROPs bei beispielsweise 8xMSAA ab 1080p als die eigentlich zusaetzliche Bandbreite von TahitiXT im Vergleich zu CaymanXT. Sonst wuerde der Unterschied zwischen Tahiti und Cayman nicht mit 8xAA schrumpfen im Vergleich zu 4xAA.

Adam D.
2012-02-14, 17:06:31
Ich hoffe, dass es mittelfristig performance-technisch so aussehen wird:

Tahiti Pro (299$) = GK104 (299$) < Tahiti XT (379$) < GK110 Salvage (399$) < Tahiti XTX (429-449$) < GK110 (479$) < Dual Tahiti (599$)

Was noch fehlt, sind die tatsächlichen Abstände. Wenn GK104 noch im März kommt, dürfte Ati zügig die Preise nachbessern. Auf der anderen Seite könnte Nvidia natürlich auch preislich noch auf Ati zugehen, sollte GK104 tatsächlich Tahiti Pro in Performance und Effizienz schlagen - was für den Endkunden halt ungünstig wär.

Skysnake
2012-02-14, 17:07:48
2 Cachestufen hat doch schon Fermi. Oder steh ich grad auf dem Schlauch. Die haben doch die 768kB oder so an L2 Cache und dazu dann noch die 16/48 kB an L1 Cache bzw 48/16kB Shared Memory(kein Cache).

Oder was meinst du?

PS: da du außer auf die Sache mit den Monaten nicht weiter eingegangen bist, was ja ein Missverständnis war, denke ich mal, das ich getroffen habe, oder? :biggrin:
PS: bekomm ich jetzt nen Lolli? ;D

Ailuros
2012-02-14, 17:16:16
Auf die Meldung von eetimes gehe ich nicht ein. Leg es aus wie du willst, aber ich bin mir ziemlich sicher das die GPUs problematischer sind. Klar kann es auf 28nm LP begrenzt sein. Kanns aber auch nicht.
So lang wir keine Kostenaufschlüsselung einsehen können wissen wir es ohne hin nicht. ;)
Edit: Oder jmd. bei TSMC berichtet direkt davon...

Ich hab bis jetzt von nicht ausserordentlichem problematischem Zeug gehoert was TSMC und >mainstream GPUs betrifft unter 28nm. Lediglich dass nicht zu hohe Frequenzen momentan erreicht werden koennen weil sonst die binning yields zur groesseren Sorge werden. Ich bin mir so sicher wie ich sein kann dass AMD bei der TahitiXT mit Absicht bei 925MHz halt gemacht hat sonst haetten sie kleinere binning yields gehabt.

Das heisst aber in keinem Fall "no yields" denn es gibt schon seit Januar kaufbare 7970-er GPUs. Im Fall wo die wafer yields generell uebermaessig miserabel sein wuerden im Vergleich zu 40G/Cypress beim launch, wuerde es bedeuten dass AMD selbst mit dem hohem MSRP keinen cent Gewinn machen wuerde oder noch schlimmer sogar Verlust. Nach AMD selber sollen die tools generell teurer sein fuer 28nm als je zuvor, was ich teilweise auch schlucken kann; aber es ist kein IHV so bloed etwas in die Produktio zu schicken wenn die Herstellungskosten so hoch sind dass sie keinen cent davon gewinnen und noch schlimmer mit Verlust. Schlag Dir das aus dem Kopf. Die einzige Aussnahme waere Intel und sie haben uebrigens auch ihre eigene foundry.

Aber ich hab bisher keine einzige Indizie oder sogar Geruecht gehoert oder gelesen dass es so miserabel aussieht wie die angeblichen Analysen praesentieren wollen.

Es kann eben nicht nur auf 28LP begrenzt sein, weil eben der Loewenanteil an Kapazitaeten davon an Qualcomm geht.

Noch einfacher ich brauch mehr und standfestere Daten damit ich selbst nur einen Verdacht aus dem eher wagem Zeug herausdichten kann. Es gibt auch IHVs die Probleme mit ihren Designs haben aus A, B oder C Gruenden.

Gipsel
2012-02-14, 18:10:02
Ich hab bis jetzt von nicht ausserordentlichem problematischem Zeug gehoert was TSMC und >mainstream GPUs betrifft unter 28nm. Lediglich dass nicht zu hohe Frequenzen momentan erreicht werden koennen weil sonst die binning yields zur groesseren Sorge werden. Ich bin mir so sicher wie ich sein kann dass AMD bei der TahitiXT mit Absicht bei 925MHz halt gemacht hat sonst haetten sie kleinere binning yields gehabt.Das habe ich ja schon zu den Reviews der 7970er Ende letzten Jahres geschrieben, daß das eigentliche Problem offenbar die Prozeßvariationen sind, die TSMC noch nicht vollends im Griff zu haben scheint (was bei kleineren Prozessen auch immer schwieriger wird). Diese führen dazu, daß man eine recht große Bandbreite an unterschiedlich leakenden und unterschiedlich taktbaren Chips am Ende erhält. Bei CPUs verkaufen die Hersteller oft 10 oder mehr Modelle vom gleichen Die mit unterschiedlichem Takt und unterschiedlicher Verbrauchsklasse, das Binning ist also sehr fein. Bei GPUs ist es dagegen üblicherweise sehr grob. Man hat ein Topmodell und einen Salvage-Part (+ eventuell Mobilversion), der allerdings auch den Yield an funktionsfähigen Dies erhöhen soll, also normalerweise auch deaktivierte Einheiten enthält. Es gibt keine Salvage-Parts mit hohem Takt und hoher Verbrauchsklasse oder voll aktive Parts, die mit niedrigerem Takt ausgeliefert werden. Dies führt zu einem anderen Kompromiß bei der Festlegung der Takte, sie werden notgedrungen niedrig angesetzt, um eben trotz der Schwankungen bei Leakage und Taktbarkeit möglichst viele Dies innerhalb einer festgelegten TDP nutzen zu können (die Dies werden dann auch noch in Bezug auf den Verbrauch homogenisiert, sprich low leakage Dies bekommen eine höhere Spannung, werden also künstlich schlechter gemacht, als sie eigentlich sind).

Das alles wird natürlich erheblich vereinfacht, wenn der Prozeß irgendwann mal sehr stabil laufen sollte, also kaum noch Variationen zwischen den Dies auftreten. Die Verteilung der Bins wird schmaler (üblicherweise zu hohen Takten bei gegebener Spannung/TDP hin), was es ermöglicht, höhere Taktraten als Default zu wählen oder alternativ eine geringere Spannung bei den gleichen Takten oder eben eine Kombination daraus. Kurz, Performance/Watt steigt. Die Frage ist, wieviel das ausmachen könnte (wenn man sich mal die 7970er mit Default-Spannungen zwischen 1,025V und 1,17V ansieht, variiert die Leakage offensichtlich doch sehr beträchtlich) und ob nVidia mit Kepler eventuelle Verbesserungen in den zwei oder drei Monaten bereits ausnutzen kann oder ob dieser Punkt erst für den Refresh in 28nm wesentlich wird.
Eine andere Möglichkeit, die Bins enger zu wählen (was eine bessere Ausnutzung des Potentials ermöglicht), wäre übrigens, nicht nur zwei verschiedene Versionen eines Dies anzubieten sondern z.B. einfach drei.

Ailuros
2012-02-14, 18:17:27
Eine andere Möglichkeit, die Bins enger zu wählen (was eine bessere Ausnutzung des Potentials ermöglicht), wäre übrigens, nicht nur zwei verschiedene Versionen eines Dies anzubieten sondern z.B. einfach drei.

Ich bezweifle dass AMD nur bei einem Tahiti salvage part bleiben wird. Aehnliches duerfte auch fuer Kepler gelten, wobei man in beiden Faellen noch nicht wissen ob die weiteren salvage parts eher im mobilen Markt ausschliesslich geschluckt werden.

HarryHirsch
2012-02-14, 18:52:32
die benches stammen also von einer oc-version? falls ja dann sollte gk 110 ja ne richtige waffe werden!?

OgrEGT
2012-02-14, 18:59:40
GK110 (im Einklang mit BSN)
2304SPs 6GPCs
4SMs/GPC
96SPs/SM
192TMUs
384Bit SI
550mm2
:uponder:

Nachdem Ail bis jetzt noch immer nicht dementiert hat... :freak:

HarryHirsch
2012-02-14, 19:03:59
ich komme leider nicht mehr dazu den thread zu verfolgen. weiß darum auch nicht was spaß oder specu ist.

Odal
2012-02-14, 19:16:22
Sie muessen gar nichts da noch nichts Neues angekuendigt oder noch schlimmer erhaeltlich ist.


Das ist zwar Richtig aber die Ankunft vom gk104 ist ja irgendwo vorherzusagen. Und wenn er mal da ist, wer kauft dann noch eine GTX570?

Die Verfügbarkeit bei den ganzen Onlineshops für GTX570 und GTX560 ist überraschend hoch - so auch die Preise - wenn Kepler Junior in gleichen Gefilden wildern würde, dann würden man doch auf dem ganzen Mist sitzen bleiben bzw. müsste die Dinger total verramschen.

Ich traue der Sache noch nicht so ganz das gk104 zu 299$/€ kommt und dabei mal locker flockig die GTX580 schlägt.

So leicht wird der GK104 MSRP mit der Zeit nicht verfallen. Wenn er von Anfang so niedrig wie $299 angesetzt wird, wird er wohl aus dem gleichen Grund fuer einige Zeit auf dem Standpunkt bleiben.


Dein Wort in Gottes Ohr, denn mein System giert nach einer neuen Non-HighEnd GraKa und ich würde mich ziemlich ärgern wenn bis zu 300€ Anschaffungskosten 2 Monate später auf 200 fallen würden.

Wäre ja schön wenn man als Early Adaptor nicht total überzogene Preise bezahlen müsste und die Dinger so Preisstabil blieben wie die GTX560Ti seit fast nem Jahr

LovesuckZ
2012-02-14, 19:33:45
Das habe ich ja schon zu den Reviews der 7970er Ende letzten Jahres geschrieben, daß das eigentliche Problem offenbar die Prozeßvariationen sind, die TSMC noch nicht vollends im Griff zu haben scheint (was bei kleineren Prozessen auch immer schwieriger wird). Diese führen dazu, daß man eine recht große Bandbreite an unterschiedlich leakenden und unterschiedlich taktbaren Chips am Ende erhält.

Ich sehe keinen Unterschied zum 40nm Prozess. Auch hier wurde vorsichtiger sortiert als schlussendlich notwendig.

Tahiti benötigt einfach zuviel Energie für die Leistung gegenüber Cayman. Wenn AMD nicht ebenfalls an die 250 Watt im Schnitt gehen will, müssen sie eben die Taktrate senken.

M4xw0lf
2012-02-14, 19:47:57
Tahiti benötigt einfach zuviel Energie für die Leistung gegenüber Cayman. Wenn AMD nicht ebenfalls an die 250 Watt im Schnitt gehen will, müssen sie eben die Taktrate senken.

Auf diese Erkenntnis musste dieses Forum viel zu lange warten, danke dafür ;D

Gipsel
2012-02-14, 19:58:46
Ich sehe keinen Unterschied zum 40nm Prozess. Auch hier wurde vorsichtiger sortiert als schlussendlich notwendig.Der Punkt ist, daß es am Anfang tatsächlich notwendig ist, später bei reiferem Prozeß mit geringeren Variationen dann aber nicht mehr. Und natürlich, daß die Variationen auch größer sind, als sie es noch bei den 40nm waren (wie man leicht an der größeren Bandbreite der Spannungen sieht). ;)

LovesuckZ
2012-02-14, 20:02:16
Der Punkt ist, daß es am Anfang tatsächlich notwendig ist, später bei reiferem Prozeß mit geringeren Variationen dann aber nicht mehr. Und natürlich, daß die Variationen auch größer sind, als sie es noch bei den 40nm waren (wie man leicht an der größeren Bandbreite der Spannungen sieht). ;)

Ich seh kein Unterschied zu 40nm. nVidia-Karten werden mit Spannen bis zu 0,1V ausgeliefert. Das entspricht (edit) mehr als 10%.

Gipsel
2012-02-14, 20:09:16
Ich seh kein Unterschied zu 40nm. nVidia-Karten werden mit Spannen bis zu 0,1V ausgeliefert. Das entspricht (edit) mehr als 10%.Du nicht, aber ich.
0,10V Spanne < 0,15V Spanne, zumal das mit kleineren Strukturen prinzipiell schrumpfen sollte.

Ailuros
2012-02-14, 20:36:09
Nachdem Ail bis jetzt noch immer nicht dementiert hat... :freak:

Ich hab schon erwaehnt dass BSN lediglich von der originalen chiphell Tabelle abgeschrieben hat. Als die letzte erschienen ist wollte NV wissen ob ich fuer den leak verantwortlich bin. Es wurde erwaehnt dass die GK104 specs fast stimmen aber die GK110 specs so krumm sind wie es gerade noch geht. Irgendwann wenn man das gleiche Zeug immer und immer wieder erwaehnt, wird es muesahm darueber weiterzukauen.

Das ist zwar Richtig aber die Ankunft vom gk104 ist ja irgendwo vorherzusagen. Und wenn er mal da ist, wer kauft dann noch eine GTX570?

Die Verfügbarkeit bei den ganzen Onlineshops für GTX570 und GTX560 ist überraschend hoch - so auch die Preise - wenn Kepler Junior in gleichen Gefilden wildern würde, dann würden man doch auf dem ganzen Mist sitzen bleiben bzw. müsste die Dinger total verramschen.

Ergo willst Du mir einreden dass NV mit Absicht auf Kepler desktop sitzen bleibt bis etwas mehr Fermi stock verkauft wird oder was? Haette AMD nicht SI veroeffentlicht haetten sie auch wirklich keinen besonderen Druck irgend etwas zu veroeffentlichen aber unter der gegeben Situation ist jeder Tag nach dem Tahiti launch schon zu spaet.

Ich traue der Sache noch nicht so ganz das gk104 zu 299$/€ kommt und dabei mal locker flockig die GTX580 schlägt.

Was fuer ein Wunder! Eine performance GPU einer NEUEN Generation und nicht irgend einem 0815 einfachem refresh schlaegt mit einem relativen Unterschied das vorige high end. Eine Schande wenn man so etwas erwarten sollte den es ist ja nur science fiction. :rolleyes:

Dein Wort in Gottes Ohr, denn mein System giert nach einer neuen Non-HighEnd GraKa und ich würde mich ziemlich ärgern wenn bis zu 300€ Anschaffungskosten 2 Monate später auf 200 fallen würden.

AMD wird egal ob $299 oder 349 MSRP zu einer Preisreduzierung gezwungen werden. Was genau wuerde AMD und auch NV zu einer weiteren Preisreduzierung in absehbarer Zeit zwingen koennen? Und sag mir jetzt bloss nicht GK110.

Wäre ja schön wenn man als Early Adaptor nicht total überzogene Preise bezahlen müsste und die Dinger so Preisstabil blieben wie die GTX560Ti seit fast nem Jahr

Dann warte eben ein paar Monate bevor Du einkaufst.

Screemer
2012-02-14, 21:39:30
AMD wird egal ob $299 oder 349 MSRP zu einer Preisreduzierung gezwungen werden. Was genau wuerde AMD und auch NV zu einer weiteren Preisreduzierung in absehbarer Zeit zwingen koennen? Und sag mir jetzt bloss nicht GK110.

Na Intel bringt nächste Woche knightscorner Grafikkarten und die rocken wie Sau.

Ailuros
2012-02-14, 21:54:31
Na Intel bringt nächste Woche knightscorner Grafikkarten und die rocken wie Sau.

HPC only; zu welchem Preis nochmal genau?

Screemer
2012-02-14, 22:04:12
Ich sag doch extra Grafikkarten und mehr als 200€ werden die gk110 fressenden Karten nicht kosten.

Wer den Scherz findet darf ihn behalten.

Skysnake
2012-02-14, 22:06:20
Na Intel bringt nächste Woche knightscorner Grafikkarten und die rocken wie Sau.
:ulol5:

Ja ne ist klar. Die Karten sind noch nicht mal bei den Partner aufgeschlagen, aber die kommen nächste Woche auf den Markt. Made my Day ;D

Zudem spielen die Dinger wohl hier außerhalb von 99,999% der User. SB-E wird dagegen nämlich billig sein. :freak:

Screemer
2012-02-14, 22:42:53
ich glaub das nächste mal mach ich scherze auf noch niedrigerem niveau und markiere den teil auf den ich mich im quote beziehe dick und rot... hoffentlich haben wenigstens ein paar geschmunzelt.

Ailuros
2012-02-14, 22:55:12
ich glaub das nächste mal mach ich scherze auf noch niedrigerem niveau und markiere den teil auf den ich mich im quote beziehe dick und rot... hoffentlich haben wenigstens ein paar geschmunzelt.

Νur weil ich in ernsthaftem Ton geantwortet habe, heisst es nicht dass ich nicht darueber lachen musste.

Screemer
2012-02-14, 23:03:16
na dann ist ja gut :D

OgrEGT
2012-02-15, 12:29:02
http://forum.beyond3d.com/showpost.php?p=1620359&postcount=1731
So the GK104 'fixes' this by having 4 GPCs, and it's probably safe to assume that the GK110 'fixes' this by having 8 GPCs, each with 4 SMs, with 64SPs each...

And there, ladies & gentleman, we have the spec of the GK110!
:lol:

The 384-bit bus is a given
- so how about TMUs?
- hopefully some sensible increase over the GF110....
:grin:

Jebus as it would had been soo damn hard to reach such an assumption and no I don't know yet if it's true. It makes sense though. Now all you need is to tell me what it actually "fixes", since how many pixels/clock the raster units can process is completely irrelevant to the ROPs as Damien points out in the article you linked to.

How many do you think the GK104 has?

Also doch 2048SPs für GK110 :uponder:
2x32SPs / SM
4 SM's / GPC
8 GPC
4 TMUs / SM = 128TMUs
384/512bit SI
Clock?
850MHz -> 3,85TFlops SP (DP1:2)

Naja... Im Vergleich zu den Tahiti Specs nicht wirklich impressive. Mal sehen, wie sich die 8 Raster Setups im Vergleich zu deren 2 bei Tahiti auszahlen, und ob sich die gleiche Anzahl an SPs damit besser auslasten lässt. Das gab es schon länger nicht, wo die beiden Architekturen so vergleichbar waren wie in dieser Generation...

AnarchX
2012-02-15, 13:07:01
Naja... Im Vergleich zu den Tahiti Specs nicht wirklich impressive.
Man liegt deutlich näher an der Rohleistung von AMD, als noch bei Cayman VS GF110.

Wenn von der 2,2-fachen Rohleistung eines GK110 selbst nur 70% in Spielen ankommen im Vgl. zu GF110, hat man einen gesunden Vorsprung zu Tahiti.

LovesuckZ
2012-02-15, 13:15:43
http://forum.beyond3d.com/showpost.php?p=1620359&postcount=1731




Also doch 2048SPs für GK110 :uponder:
2x32SPs / SM
4 SM's / GPC
8 GPC
4 TMUs / SM = 128TMUs
384/512bit SI
Clock?
850MHz -> 3,85TFlops SP (DP1:2)

Naja... Im Vergleich zu den Tahiti Specs nicht wirklich impressive. Mal sehen, wie sich die 8 Raster Setups im Vergleich zu deren 2 bei Tahiti auszahlen, und ob sich die gleiche Anzahl an SPs damit besser auslasten lässt. Das gab es schon länger nicht, wo die beiden Architekturen so vergleichbar waren wie in dieser Generation...

Hm, dir ist schon klar, dass Tahiti nur 0%-50% schneller als eine GTX580 ist und dabei deutlich bessere Specs aufweist?

Mit diesen Werten wäre GK110 wohl annährend 2x schneller als die GTX580. Ähm, damit wird Tahiti wohl so ziemlich zum Lahmiti degradiert.

Dural
2012-02-15, 13:27:36
Lahmiti

;D


mal schauen was so kommt :smile:

Ailuros
2012-02-15, 14:26:28
Naja... Im Vergleich zu den Tahiti Specs nicht wirklich impressive. Mal sehen, wie sich die 8 Raster Setups im Vergleich zu deren 2 bei Tahiti auszahlen, und ob sich die gleiche Anzahl an SPs damit besser auslasten lässt. Das gab es schon länger nicht, wo die beiden Architekturen so vergleichbar waren wie in dieser Generation...

384bit und Frequenz niedriger als GK104.

Was soll daran genau vergleichbar sein? Ach ja 16er und 32er SIMDs sind ein und dasselbe und man kann sie auf der genau gleichen Architektur mit dem genau gleichen scheduler anwenden oder?

Aber da es nicht "impressive" sein soll, sterile Spezifikationen erzaehlen eben nicht immer die Wahrheit denn umgedreht haette ich bei den Tahiti specs und anhand GCN um einiges mehr erwartet. Ein salvage 110 reicht die vorige Geschichte zu wiederholen und nicht mal der volle Ausbau, weil die specs eben so "bescheiden" sind.

Zergra
2012-02-15, 15:08:29
Hm, dir ist schon klar, dass Tahiti nur 0%-50% schneller als eine GTX580 ist und dabei deutlich bessere Specs aufweist?

Mit diesen Werten wäre GK110 wohl annährend 2x schneller als die GTX580. Ähm, damit wird Tahiti wohl so ziemlich zum Lahmiti degradiert.
naja ist die Frage ob NV diesmal wieder soviel aus der Rohleistung hohlen kann... es kann auch nicht soviel bringen deswegen haben sie vllt. diesmal wieder eine so starke Rohleistung !

AnarchX
2012-02-15, 15:20:17
Wir haben doch schon eine gewisse Rechenbasis.

GK104 (128TMUs/1536SPs@950MHz, 256-Bit@5,5Gbps):
~2,34x TMU/ALU ~1,37x Bandbreite VS GF104 => 1,1x GF110 ~ 1,54x GF104

GK110(128TMUs/2048SPs@850MHz, 384-Bit@5,5Gbps):
~2,2x TMU/ALU ~1,37x Bandbreite VS GF110=> ~1,54x GF110 (ausgehend von GF110VSGF104)

Das wäre für GK110 ~30% Vorsprung auf Tahiti XT. Aber möglicherweise hat man bei GK110 noch ein paar zusätzliche Veränderungen(512-Bit...) vorgenommen bzw. GK104 ist schneller als meine (pessimistischen) 10% gegenüber der GTX 580.

LovesuckZ
2012-02-15, 15:28:37
Die Rechenbasis ist lächerlich. Eine GTX580 hat 28% mehr Bandbreite als die GTX285 und ist trotzdem im Schnitt 2x so schnell. Und das mit annährend gleichviel Texturleistung und leicht mehr Pixel-Leistung.

GK104 und GK110 werden mit den hier spekulierten Werten Kreise um GF110 drehen.

AwesomeSauce
2012-02-15, 15:30:29
Die Rechenbasis ist lächerlich. Eine GTX580 hat 28% mehr Bandbreite als die GTX285 und ist trotzdem im Schnitt 2x so schnell. Und das mit annährend gleichviel Texturleistung und leicht mehr Pixel-Leistung.

GK104 und GK110 werden mit den hier spekulierten Werten Kreise um GF110 drehen.
Bedenke, dass die pro-Einheit-Effizienz gerade bei den SPs deutlich sinken wird.

LovesuckZ
2012-02-15, 15:34:25
Bedenke, dass die pro-Einheit-Effizienz gerade bei den SPs deutlich sinken wird.

Bedenke, dass dies Quatsch ist.

Fermi hat 2xVec16 Einheiten und 16 Gruppierungen im Gegensatz zu den 3xVec8 und 10 Gruppierungen. Die Effizienz ist dabei sogar gestiegen, da Fermi nur noch eine MAD statt MAD und MUL pro Recheneinheiten ausführen kann.

Eine Verdopplung von GF114 auf 16SM bringe die Worst-Case-Rechenleistung auf GF110 Niveau bei gleichem Takt. Da aber die Veränderung in den SM nur in extremen Ausnahmefällen zum 33% Verlust der Leistung pro SM führen, läge der Durchsatz von 16-GF114-SM wohl um die 50-75% über GF110.

boxleitnerb
2012-02-15, 15:38:33
Was ist denn dann deine Schätzung für GK104 und GK110 Top Dog im Vergleich zur GTX580? Mind. 1080p, SSAA etc.

LovesuckZ
2012-02-15, 15:50:16
Was ist denn dann deine Schätzung für GK104 und GK110 Top Dog im Vergleich zur GTX580? Mind. 1080p, SSAA etc.

Ich erwarte von nVidia, dass sie mit BigK die Rechenleistung bei gleicher TDP mindesten verdoppeln. Am Ende werden sie bei normalen 50-100% Zuwachs landen. Abhängig von Art der Anwendung.

AnarchX
2012-02-15, 15:59:41
http://we.pcinlife.com/data/attachment/forum/201202/15/2008263dmycjnnoxjvjjl6.png

http://we.pcinlife.com/thread-1833778-1-1.html

LovesuckZ
2012-02-15, 16:01:33
Fake. Der Typ scheint sich dort dauernd neu anzumelden und irgendwelchen Quatsch zu posten.

AwesomeSauce
2012-02-15, 16:10:26
http://we.pcinlife.com/data/attachment/forum/201202/15/2008263dmycjnnoxjvjjl6.png

http://we.pcinlife.com/thread-1833778-1-1.html
TDP für GK104 220W;D

AnarchX
2012-02-15, 16:12:28
Vielleicht die maximale Belastbarkeit von PCB und Kühler, die der User nach eigenen Ermessen ausnutzen kann? ;)

Godmode
2012-02-15, 16:13:20
Vielleicht die maximale Belastbarkeit von PCB und Kühler, die der User nach eigenen Ermessen ausnutzen kann? ;)

Aka Turbomodus ;D

boxleitnerb
2012-02-15, 16:15:18
Was ist eigentlich mit Overdrive? Gibts das noch?

Godmode
2012-02-15, 16:17:41
Was ist eigentlich mit Overdrive? Gibts das noch?

Das war doch beim AMD IIRC?

boxleitnerb
2012-02-15, 16:18:47
Ja schon. Ich dachte bloß, wenn das dort praktisch untergegangen ist, braucht man bei Nvidia vielleicht nicht mit sowas rechnen.

Iruwen
2012-02-15, 16:20:13
Sowas wie nTune?

boxleitnerb
2012-02-15, 16:22:21
Ne wie bans3i schon sagte eine Art Turbomodus. User legt TDP fest, Karte wird automatisch übertaktet.

Thunder99
2012-02-15, 16:26:21
Finde das ist absurd. Macht wenig Sinn, da die Chip-Qualität ja nicht konstant ist sowie die OC-Modelle der Partner nicht mehr Sinn machen

Screemer
2012-02-15, 16:28:44
powertune macht doch eigentlich nichts anderes, oder? es hält die gpu innerhalb einer gesetzten tdp.

Botcruscher
2012-02-15, 16:31:23
Powertune skaliert die Karte aber nur innerhalb der Taktgrenzen. Für mehr musst du selber Hand anlegen.

boxleitnerb
2012-02-15, 16:33:29
Wobei man fairerweise sagen muss, der Turbo bei CPUs greift vorrangig bei Teillast. Bei GPUs gibts das eher nicht.

Soul
2012-02-15, 16:49:51
/OT

Qualcomm: Kommende SoCs MSM8974 und APQ8094 verschieben sich um etwa ein Quartal wegen 28nm Fertigungsprobleme. Allerdings seien auch die Midrange-Chips verschoben worden. Die exakte Ursache der Probleme ist derweil nicht bekannt.

Schaffe89
2012-02-15, 17:43:48
Hm, dir ist schon klar, dass Tahiti nur 0%-50% schneller als eine GTX580 ist und dabei deutlich bessere Specs aufweist?

Was ist das für ein Vergleich? Man kann die Einheiten nicht vergleichen.

dildo4u
2012-02-15, 17:44:40
Das ist LS Punkt.

Ailuros
2012-02-15, 18:13:22
Aka Turbomodus ;D

Nur liegt dieser bei weitem nicht so hoch :P

Bedenke, dass dies Quatsch ist.

Fermi hat 2xVec16 Einheiten und 16 Gruppierungen im Gegensatz zu den 3xVec8 und 10 Gruppierungen. Die Effizienz ist dabei sogar gestiegen, da Fermi nur noch eine MAD statt MAD und MUL pro Recheneinheiten ausführen kann.

Eine Verdopplung von GF114 auf 16SM bringe die Worst-Case-Rechenleistung auf GF110 Niveau bei gleichem Takt. Da aber die Veränderung in den SM nur in extremen Ausnahmefällen zum 33% Verlust der Leistung pro SM führen, läge der Durchsatz von 16-GF114-SM wohl um die 50-75% über GF110.

Und was soll dass jetzt genau fuer einen Zusammenhang mit Kepler haben?

GK104 hat nicht nur 2x Mal so viel SMs als GF114, sondern auch 2x Mal so breite SIMDs. Ein paar wichtige Punkte sind dass angeblich diesmal der MC hoehere Speicherfrequenzen erlaubt, dass diesmal der chip bis zu 32 pixels/clock bearbeiten kann usw. Die ungefaehr 2.4x Mal so hohe Rechenleistung eines GK104 im Vergleich zum GF114 wird wohl nicht auf die Strasse kommen und nein das Ding ist auch nicht annaehernd im Durchschnitt zwei Mal so schnell als die letzte.

LovesuckZ
2012-02-15, 18:21:36
Und was soll dass jetzt genau fuer einen Zusammenhang mit Kepler haben?

Es zeigt, dass die Wirklichkeit anders aussieht als viele annehmen.


GK104 hat nicht nur 2x Mal so viel SMs als GF114, sondern auch 2x Mal so breite SIMDs. Ein paar wichtige Punkte sind dass angeblich diesmal der MC hoehere Speicherfrequenzen erlaubt, dass diesmal der chip bis zu 32 pixels/clock bearbeiten kann usw. Die ungefaehr 2.4x Mal so hohe Rechenleistung eines GK104 im Vergleich zum GF114 wird wohl nicht auf die Strasse kommen und nein das Ding ist auch nicht annaehernd im Durchschnitt zwei Mal so schnell als die letzte.

Schon GF110 kann 32 Pixel/takt verarbeiten. Das ist nichts neues. Und die Rechenleistung wird sich locker 1:1 durchsetzen, wenn man sich Anwendungen vornimmt, die darauf ansprechen.

AnarchX
2012-02-15, 18:26:37
Und die Rechenleistung wird sich locker 1:1 durchsetzen, wenn man sich Anwendungen vornimmt, die darauf ansprechen.
Nur scheint das wohl in heutiger Software noch nicht immer der Fall zu sein, sodass wir zum Launch GK104 wohl eben nur 15-30% vor GF110 sehen.
Langfristig ist man natürlich mit ~3 TFLOPs deutlich besser gerüstet, als mit ~10% mehr Bandbreite und ~25% mehr ROP-Leistung.

LovesuckZ
2012-02-15, 18:36:15
Nur scheint das wohl in heutiger Software noch nicht immer der Fall zu sein, sodass wir zum Launch GK104 wohl eben nur 15-30% vor GF110 sehen.
Langfristig ist man natürlich mit ~3 TFLOPs deutlich besser gerüstet, als mit ~10% mehr Bandbreite und ~25% mehr ROP-Leistung.

Quatsch. Man sollte langsam begreifen, dass "Graphics" durch die APIs bestimmt sind.

Deswegen hat nVidia ihr Front-End umgebaut und die Geometrieeinheiten näher an die SM gerückt - Verringerung der Latenz bis es zum Rasterizing kommt. GTX580 hat doppelt soviel MAD-Rechenleistung zur GTX285 und ist in Metro2033 z.B. unter DX10 auch ca. doppelt so schnell. GTX480 ist 70% schneller: http://www.hardware.fr/articles/787-21/metro-2033.html

Natürlich gibt es Anwendungen, die eben veraltet (=Konsolenspiele) sind. Die brauchen dann mehr Texturleistung und Bandbreite.

Ailuros
2012-02-15, 18:36:16
Es zeigt, dass die Wirklichkeit anders aussieht als viele annehmen.

Fermi hat immer noch nichts mit Kepler zu tun fuer die Aspekte die Du erwaehnt hast, denn Kepler ist eben nicht ein refresh mit nur mehr SMs. Fuer jegliche architektur-bedingte Aenderung gibt es sowohl Vor- als auch Nachteile. Wen zum Teufel schert es genau wenn sich bei Kepler die pro FLOP Effizienz etwas reduziert wenn alles andere stimmen sollte?

Schon GF110 kann 32 Pixel/takt verarbeiten. Das ist nichts neues. Und die Rechenleistung wird sich locker 1:1 durchsetzen, wenn man sich Anwendungen vornimmt, die darauf ansprechen.

In irgend einer shader- oder tessellations-lastigem synthetischen Bumsanwendung sicher. Wir reden hier offensichtlich von Spielen.

Was soll es mir gerade sagen dass GF110 32 Pixel/Takt bearbeiten kann. Beim GK110 werden es hoechstwahrscheinlich doppelt so hoch sein, was aber NICHT heissen sollte dass es wahre Spiele in absehbarer Zeit auch brauchen werden. Manche Aspekte skalieren eben zwangsweise zu gewissen Raten weil eben IHVs sehr selten bis nie von einer tabula rasa beim chalkboard design einer neuen Architektur anfangen.

Bei doppelt so breiten SIMDs und doppelt so vielen SMs fuer jegliche Leistungs-Kategorie wird scheduling um einiges komplizierter und ueberhaupt der Abstand vom ersten zum letzten SM um einiges groesser.

Es behauptet ja auch keiner dass die pro FLOP Effizienz auf gleicher Ebene sein wird wie bei der Konkurrenz; dafuer muessten beide Architekturen auch fast identisch sein. Noch kuerzer GK104 default TDP liegt einen Schnitt ueber der TahitiPRO in Echtzeit-Spielen im Durchschnitt und dieses ist eben nicht GF114*2. Ein "bis zu 2xMal" in sehr vorsichtig ausgewaehlten Faellen vielleicht schon, aber das ist auch nichts ausserordentliches bei einer neuen Generation.

Gipsel
2012-02-15, 18:36:41
Schon GF110 kann 32 Pixel/takt verarbeiten. Das ist nichts neues. Und die Rechenleistung wird sich locker 1:1 durchsetzen, wenn man sich Anwendungen vornimmt, die darauf ansprechen.Ailuros hat mit GF114 verglichen. :rolleyes:
Und diese Anwendungen sind dann die, in denen auch AMD bisher seine überlegene Rechenleistung demonstrieren konnte?

LovesuckZ
2012-02-15, 18:47:46
Ailuros hat mit GF114 verglichen. :rolleyes:
Und diese Anwendungen sind dann die, in denen auch AMD bisher seine überlegene Rechenleistung demonstrieren konnte?

Ja und schafft GF110 keine 32pixel/takt? :rolleyes:

"Diese" Anwendungen sind Spiele. Also die Anwendungen, für die GCN nicht designt wurde.

foenfrisur
2012-02-15, 18:54:32
nicht vergessen sollte man, das nv dafür bekannt ist, das verwendete fertigungsverfahren (kühlung/verbrauch etc.) ans limit zu bringen.
während amd eher konservativ ist.
oft ist mehr drin, aber irgendwie wollen die wohl nicht ;)

von der gcn-architektur bzw. den 79xx-ern wäre man sicher weniger enttäuscht gewesen, wenn sie von haus aus die +20% mehr takt bekommen hätten.
der verbrauch steigt ja nur minimal an.
aber offenbar würden dann zu viele chips diesen takt nicht erreichen ;)

zumindest müsste man dann schonmal nicht mehr von den "nur +30% ggü. der gtx580" sprechen.
dann liegen kepler und tahiti auch wieder dichter beieinander, als es so manchem lieb ist ;)

mfg

OgrEGT
2012-02-15, 18:55:35
Hm, dir ist schon klar, dass Tahiti nur 0%-50% schneller als eine GTX580 ist und dabei deutlich bessere Specs aufweist?

Mit diesen Werten wäre GK110 wohl annährend 2x schneller als die GTX580. Ähm, damit wird Tahiti wohl so ziemlich zum Lahmiti degradiert.

Wie schon gesagt wurde, handelt es sich bei Kepler nicht um ein upscaling mit mehr Recheneinheiten, sondern um einen größeren architektonischen Change der Recheneinheiten an sich, unabhängig davon ob die Gruppierung vergleichbar zur Vorgängergeneration ist. Im Vergleich zu GF110 wollen 4mal so viele Einheiten anders ausgelastet werden. Demzufolge ist es nicht abwegig zu erwarten, dass die Effizienz pro Recheneinheit im Vergleich sinkt.
Wenn Kepler genau die gleiche Effizienz hätte wie Fermi, dann hättest Du Recht.

384bit und Frequenz niedriger als GK104.

Was soll daran genau vergleichbar sein? Ach ja 16er und 32er SIMDs sind ein und dasselbe und man kann sie auf der genau gleichen Architektur mit dem genau gleichen scheduler anwenden oder?

Aber da es nicht "impressive" sein soll, sterile Spezifikationen erzaehlen eben nicht immer die Wahrheit denn umgedreht haette ich bei den Tahiti specs und anhand GCN um einiges mehr erwartet. Ein salvage 110 reicht die vorige Geschichte zu wiederholen und nicht mal der volle Ausbau, weil die specs eben so "bescheiden" sind.

Sei doch nicht gleich so agressiv...
Na klar gibt es Unterschiede. Aber wir können bei gleicher Anzahl an Recheneinheiten die Effizienz je nach Rechenlast besser vergleichen z.B.

Mit nicht impressive meine ich nicht bescheiden im negativen Sinn, sondern nur irgendwie "schon mal gehört". Kein Grund zur Aufregung. Was die neue NV Architektur leisten wird, werden wir spätestens zum Launch sehen. Ich sträube mich tendenziell eher davor Wunder zu erwarten, da diese in der Regel selten sind, außer Du kannst uns über die zu erwartende Leistung näher aufklären.

Nighthawk13
2012-02-15, 19:00:06
Bei doppelt so breiten SIMDs und doppelt so vielen SMs fuer jegliche Leistungs-Kategorie wird scheduling um einiges komplizierter und ueberhaupt der Abstand vom ersten zum letzten SM um einiges groesser.
Fürs Scheduling dürfte es egal sein, ob nun Vec16@Hotclock oder Vec32@Chipclock(Falls die absoluten Latenzen gleich bleiben).

Die Anzahl der SMs spielt natürlich mindestens proportional rein(bei Traffic für Cachekoheränz z.B.).

Ailuros
2012-02-15, 19:02:31
Fürs Scheduling dürfte es egal sein, ob nun Vec16@Hotclock oder Vec32@Chipclock(Falls die absoluten Latenzen gleich bleiben).

Die Latenz duerfte sogar besser sein trotz dass GK104 ein Stueck hoeher getaktet ist als die Fermi core Frequenzen.

foenfrisur
2012-02-15, 19:07:03
Ich erwarte von nVidia, dass sie mit BigK die Rechenleistung bei gleicher TDP mindesten verdoppeln. Am Ende werden sie bei normalen 50-100% Zuwachs landen. Abhängig von Art der Anwendung.

amd kann auch bei gleicher tdp die leistung in "Abhängig von Art der Anwendung" die leistung (mehr als) verdoppeln.
was für ein kunststück...

http://www.computerbase.de/artikel/grafikkarten/2012/bericht-amd-radeon-hd-7900/8/#abschnitt_gpucomputing

http://www.tomshardware.com/reviews/radeon-hd-7970-benchmark-tahiti-gcn,3104-14.html

mfg

LovesuckZ
2012-02-15, 19:08:00
Wie schon gesagt wurde, handelt es sich bei Kepler nicht um ein upscaling mit mehr Recheneinheiten, sondern um einen größeren architektonischen Change der Recheneinheiten an sich, unabhängig davon ob die Gruppierung vergleichbar zur Vorgängergeneration ist. Im Vergleich zu GF110 wollen 4mal so viele Einheiten anders ausgelastet werden. Demzufolge ist es nicht abwegig zu erwarten, dass die Effizienz pro Recheneinheit im Vergleich sinkt.


Graphics und Compute sind die Anwenungsgebiete in der die Leistung mit den Cores 1:1 mitskaliert. Das es bei Graphics schwerer ist, liegt an den APIs. Deswegen auch der Umbau bei Fermi, um diesen Flaschenhals zu entschärfen.

Ich meine, merkt ihr eigentlich, was für unsinnige Leistungsangaben ihr macht?
GK104 soll angeblich gegenüber der GTX580...

84% mehr Rechenleistung
145% mehr Texturleistung
22% mehr Pixelleistung
22% mehr Geometrieleistung
0% mehr Bandbreite

haben und am Ende bei 10-20% zur GTX580 stehen?!

Da stellt sich mir echt die Frage, wie eine GTX580 gegenüber der GTX285 mit
123% mehr MADD-Rechenleistung
-5% Texturleistung
-5% Pixelleistung
28% mehr Bandbreite

stolze 70-100% schneller sein kann?!

Alleine das Shrinken von GF114 und einer 40% höheren Taktung würde solch einen 28nm Chip auf das Level der GTX580 bringen.

amd kann auch bei gleicher tdp die leistung in "Abhängig von Art der Anwendung" die leistung (mehr als) verdoppeln.
was für ein kunststück...

http://www.computerbase.de/artikel/grafikkarten/2012/bericht-amd-radeon-hd-7900/8/#abschnitt_gpucomputing

http://www.tomshardware.com/reviews/radeon-hd-7970-benchmark-tahiti-gcn,3104-14.html

mfg

Wir reden hier nicht von Computing.

Ailuros
2012-02-15, 19:09:21
Na klar gibt es Unterschiede. Aber wir können bei gleicher Anzahl an Recheneinheiten die Effizienz je nach Rechenlast besser vergleichen z.B.

In synthetischen benchmarks ausserhalb 3dmark11 steht ein GK104 nicht besonders gut gegen eine TahitiXT da falls es helfen sollte. Duerfte aber auch keine besondere Ueberraschung sein da es schon mal erwaehnt wurde.

Mit nicht impressive meine ich nicht bescheiden im negativen Sinn, sondern nur irgendwie "schon mal gehört". Was die neue NV Architektur leisten wird, werden wir spätestens zum Launch sehen. Ich sträube mich tendenziell eher davor Wunder zu erwarten, da diese in der Regel selten sind, außer Du kannst uns über die zu erwartende Leistung näher aufklären.

Ein kastrierter 110 wird wohl ein gutes Stueck vor einer XT liegen. Wenn man es mit der 65/55/40nm Realitaet vergleicht ist es schon ein Unterschied.

Ailuros
2012-02-15, 19:13:54
Ich meine, merkt ihr eigentlich, was für unsinnige Leistungsangaben ihr macht?

Ja wir warteten alle dass Du uns hier einleuchtest und noch besser auf Deine direkten oder indirekten Seitenschlaege. Zweite und allerletzte Vorwarnung wie auch im Qualcomm thread. Der Rest des Posts ohne den obrigen Bloedsinn kann man eventuell so stehen lassen. Und nein ich werde es weder hier noch woanders weiter besprechen. Eine oeffentliche Debatte von diesem fuehrt direkt zur Verpunktung.

Gipsel
2012-02-15, 19:16:07
Ja und schafft GF110 keine 32pixel/takt? :rolleyes:Schon, das macht Deinen Einwurf trotzdem irrelevant für Ailuros' Vergleich. Ihm ging es um die Performancerelation von GK104 zu GF114. ;)
"Diese" Anwendungen sind Spiele.
Aha, Du sagst also, daß sich eine erhöhte Rechenleistung 1:1 in Spielen niederschlägt. :freak:
Kleiner Tipp für Dich: Nein, das tut sie im Normalfall nicht. Es gibt meist eine Vielzahl an begrenzenden Faktoren, nicht genau einen (also hier die Rechenleistung). Nur wenn man alle gleich skaliert (wo man sehr schnell an Grenzen stößt, wenn man das bei feststehender Struktur versucht, deswegen ändert man diese!), sieht man auch eine 1:1 Steigerung. Oft zielt man deswegen darauf, die im angepeilten Workload (da ist sehr viel Abschätzung dabei, den festzulegen) am häufigsten limitierenden Sachen stärker zu erweitern als die anderen. Das ist effizienter (kostet weniger Aufwand), führt aber natürlich nicht zu einer 1:1 Umsetzung der Steigerung eines Faktors in nutzbare Spieleperformance. Du solltest nicht vergessen, daß Spiele ein ziemlich komplexes Szenario sind, in dem während des Renderns eines einzelnen Frames zu unterschiedlichen Zeiten unterschiedliche Sachen limitieren.

LovesuckZ
2012-02-15, 19:24:12
Schon, das macht Deinen Einwurf trotzdem irrelevant für Ailuros' Vergleich. Ihm ging es um die Performancerelation von GK104 zu GF114. ;)

Das heißt also, 32 Pixel/Takt != 32 Pixel/Takt? :freak:


Aha, Du sagst also, daß sich eine erhöhte Rechenleistung 1:1 in Spielen niederschlagt. :freak:
Kleiner Tipp für Dich: Nein, das tut sie im Normalfall nicht. Es gibt meist eine Vielzahl an begrenzenden Faktoren, nicht genau einen (also hier die Rechenleistung). Nur wenn man alle gleich skaliert (wo man sehr schnell an Grenzen stößt, wenn man das bei feststehender Struktur versucht), sieht man auch eine 1:1 Steigerung. Oft zielt man deswegen darauf, die im angepeilten Workload (da ist sehr viel Abschätzung dabei, den festzulegen) am häufigsten limitierenden Sachen stärker zu erweitern als die anderen. Das ist effizienter (kostet weniger Aufwand), führt aber natürlich nicht zu einer 1:1 Umsetzung der Steigerung eines Faktors in nutzbare Spieleperformance. Du solltest nicht vergessen, daß Spiele ein ziemlich komplexes Szenario sind, in dem während des Renderns eines einzelnen Frames zu unterschiedlichen Zeiten unterschiedliche Sachen limitieren.

Und wieso wiederholst du das, was ich geschrieben habe? :confused:
Da bei Fermi die Rechen- und Texturleistung limitiert, wird die Erhöhung sich annährend 1:1 in Leistung umsetzen.

Gipsel
2012-02-15, 19:28:05
Das heißt also, 32 Pixel/Takt != 32 Pixel/Takt? :freak:GF114 kann nur 16 Pixel/Takt überhaupt rastern und auch nur 16 Pixel/Takt von den SMs rausschreiben. ;)
Da bei Fermi die Rechen- und Texturleistung limitiert, wird die Erhöhung sich annährend 1:1 in Leistung umsetzen.
I) Auch bei Fermi limitiert nicht immer die Rechen- und Texturleistung.
II) Selbst wenn, würde das erfordern, daß auch bei Kepler noch die Rechen-und Texturleistung das einzige Limit ist.

Ailuros
2012-02-15, 19:28:10
Das heißt also, 32 Pixel/Takt != 32 Pixel/Takt? :freak:

GF114 = 16 pixels/clock, GK104 = 32 pixels/clock. Bei einem Vergleich zwischen den beiden hat 32 vs 32 gar nichts zu suchen.

LovesuckZ
2012-02-15, 19:32:44
GF114 kann nur 16 Pixel/Takt überhaupt rastern und auch nur 16 Pixel/Takt von den SMs rausschreiben. ;)

Ja und GK104 angeblich das doppelte - also wie GF110. Und mit 950MHz sind es 22% mehr. Und nun? Was soll uns das sagen? Pixelleistung ist nicht annährend so wichtig, dass es leistungsbestimmend wäre.


I) Auch bei Fermi limitiert nicht immer die Rechen- und Texturleistung.
II) Selbst wenn, würde das erfordern, daß auch bei Kepler noch die Rechen-und Texturleistung das einzige Limit ist.

Bei Fermi limitiert hauptsächlich die Rechen- und Texturleistung. Das macht sich vorallem bei den kleinen Karten bemerkbar. Dort, wo AMD zZ noch besser darsteht. GK104 mit diesen Daten ist locker 50% schneller als die GTX580.

Ailuros
2012-02-15, 19:40:07
Ja und GK104 angeblich das doppelte - also wie GF110. Und mit 950MHz sind es 22% mehr. Und nun? Was soll uns das sagen? Pixelleistung ist nicht annährend so wichtig, dass es leistungsbestimmend wäre.

Im Fall von Tahiti im Vergleich zum GK104 schon, da eben die hoehere Bandbreite eben nicht ausreicht einen deutlicheren Unterschied mit 4x und sogar mit 8xMSAA zu machen. Im gegebenen Fall koennte Tahiti tatsaechlich fuer solche Faelle hauptsaechlich ROP-limitiert sein.

Bei Fermi limitiert hauptsächlich die Rechen- und Texturleistung. Das macht sich vorallem bei den kleinen Karten bemerkbar. Dort, wo AMD zZ noch besser darsteht. GK104 mit diesen Daten ist locker 50% schneller als die GTX580.

*glotzt sicherheitshalber nochmal auf die slides* nein ist sie nicht im Durchschnitt und mit default TDP. Wenn man den TDP durch Uebertaktung etwas hochtreibt, dann wird es natuerlich kritischer fuer die GF110, aber nach 50% im Durchschnitt sieht es immer noch nicht aus.

Gipsel
2012-02-15, 19:41:58
Ja und GK104 angeblich das doppelte - also wie GF110. Und mit 950MHz sind es 22% mehr. Und nun? Was soll uns das sagen?Daß Du offensichtlich nicht verstanden hast, daß Ailuros eine Aussage über die Performancerelation von GK104 zu GF114 im Vergleich zu deren Specs getroffen hat. :rolleyes:
Bei Fermi limitiert hauptsächlich die Rechen- und Texturleistung. Das macht sich vorallem bei den kleinen Karten bemerkbar. Dort, wo AMD zZ noch besser darsteht. GK104 mit diesen Daten ist locker 50% schneller als die GTX580.
Schreibe ich chinesisch? Ich dachte, ich hätte das möglichst klar mit meinen Punkten I und II formuliert.

Nun ja, mal sehen wir lange wir noch warten müssen, bis wir dann einen GK104 mit +50% über GTX580 im Durchschnitt vieler Spiele sehen. :D

Ailuros
2012-02-15, 19:46:55
Nun ja, mal sehen wir lange wir noch warten müssen, bis wir dann einen GK104 mit +50% über GTX580 im Durchschnitt vieler Spiele sehen. :D

Du kannst es beruhigt in die OBR cape verde Schublade stecken.

LovesuckZ
2012-02-15, 19:48:03
Daß Du offensichtlich nicht verstanden hast, daß Ailuros eine Aussage über die Performancerelation von GK104 zu GF114 im Vergleich zu deren Specs getroffen hat. :rolleyes:

Achja? Okay, hiermal der relationale Vergleich:
GK104 soll angeblich
2,3x mehr Rechenleistung
2,3x mehr Pixelleistung
2,3x mehr Texturleistung
2,3x mehr Geometrieleistung
1,5x mehr Bandbreite
haben.

Und am Ende sollen angeblich 1,6x mehr Leistung zur GTX560TI stehen.
Ich denke, ich habe sehr wohl alles verstanden. ;)


Schreibe ich chinesisch? Ich dachte, ich hätte das möglichst klar mit meinen Punkten I und II formuliert.
Nun ja, mal sehen wir lange wir noch warten müssen, bis wir dann einen GK104 mit +50% über GTX580 im Durchschnitt vieler Spiele sehen. :D

So, du stimmst mir zu, dass bei Fermi hauptsächlich die T- und R-Leistung limitiert und eine radikale Erhöhung sich daher ebenfalls radikal auswirken wird? Dann ist doch alles in Ordnung.

Gipsel
2012-02-15, 19:52:36
Im Fall von Tahiti im Vergleich zum GK104 schon, da eben die hoehere Bandbreite eben nicht ausreicht einen deutlicheren Unterschied mit 4x und sogar mit 8xMSAA zu machen. Im gegebenen Fall koennte Tahiti tatsaechlich fuer solche Faelle hauptsaechlich ROP-limitiert sein.Ist hier zwar etwas OT, aber AMD GPUs sind mit 4xMSAA am stärksten bandbreitenlimitiert, mit 8xMSAA verlagert sich das Limit tendentiell wieder mehr zu den ROPs (wenn nicht andere Dinge ins Spiel kommen). Deswegen sieht auch der Einbruch bei 8xAA bei Tahiti im Vergleich zu Cayman größer aus (weil der Bandbreitenbedarf im ROP-Limit bei 4xAA höher liegt als bei 8xAA).
Sowas hängt prinzipiell an solchen "Feinheiten" wie den ROP-Fähigkeiten und der benutzten Framebuffer-Kompression in den ROP-Caches (und deren Wirksamkeit). Mit Verbesserungen bzw. Unterschieden zwischen nV und AMD in diesem Bereich kann man also auch die Bandbreitenlimitierung etwas hinausschieben.

Edit:
@LS:
Was soll das? Post 1 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9167540#post9167540), Post 2 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9167562#post9167562) nochmal lesen und darüber bis zum Verständnis des Geschriebenen (Punkte I und II des zweiten Posts) nachdenken. Ich mag es nicht, wenn man mir Dinge in den Mund legt, die ich nicht gesagt/geschrieben habe.
Und jetzt bitte Schluß mit dem Blödsinn.

AnarchX
2012-02-15, 19:53:58
Glaubt man den Chinesen (und vielleicht damit dem NV-Marketing), dann könnten es mit ~10% mehr Takt, diese 50% sein:
http://we.pcinlife.com/thread-1831876-1-1.html
;)

Mit aber nur 3 Mrd. spekulierten Transistoren müssen irgendwo Einsparungen erfolgt sein, um bei nur ~50% mehr Transistoren die doppelte Zahl an GPCs, TMUs und eine Vervierfachung der SPs zu erreichen, wenn natürlich letzere ohne HC etwas kleiner ausfallen.
Vielleicht Einsparungen im Bezug auf Caches (wieder nur 512KiB L2) und Datenpfade?

Gipsel
2012-02-15, 20:03:40
Glaubt man den Chinesen (und vielleicht damit dem NV-Marketing), dann könnten es mit ~10% mehr Takt, diese 50% sein:
http://we.pcinlife.com/thread-1831876-1-1.html
;)Das sind selbst dort längst nicht +50% im Schnitt (und da steht wohl schon ein 10% erhöhter Takt dran, aber mal sehen, womit GK104 dann wirklich kommt).

Ailuros
2012-02-15, 20:08:02
Das sind selbst dort längst nicht +50% im Schnitt (und da steht wohl schon ein 10% erhöhter Takt dran, aber mal sehen, womit GK104 dann wirklich kommt).

Der slide ist alles andere als neu auch fuer den thread hier. Es ist lediglich eine Reihe von handausgesuchten benchmarks oder besser best case scenarios. Das einzig imposante an der Sache ist dass der Stromverbrauch bei diesen GK104 Frequenzen immer noch >20% niedriger ist als der einer GF110 und das ist schon mal wieder zu viel verraten ;)

Botcruscher
2012-02-15, 20:16:54
Sollte jetzt nicht so überraschend sein. GF110 ist schon arg am Limit und schleppt eine Menge Dinge mit die sich im Mainstream nicht finden. Fairerweise sollte man hier mit GF114 vergleichen. Der ganze Chip dürfte vom Charakter auch besser passen.

boxleitnerb
2012-02-15, 20:17:58
Der slide ist alles andere als neu auch fuer den thread hier. Es ist lediglich eine Reihe von handausgesuchten benchmarks oder besser best case scenarios. Das einzig imposante an der Sache ist dass der Stromverbrauch bei diesen GK104 Frequenzen immer noch >20% niedriger ist als der einer GF110 und das ist schon mal wieder zu viel verraten ;)

Naja das ist doch selbstverständlich, auch mit leichtem OC. Für 10% mehr Takt hat man sicher nicht die Spannung erhöht. Das klingt jetzt ehrlich gesagt sogar nicht so positiv, wie ich es gehofft hatte.

Bei HT4U brauchte eine 560Ti 150W (TDP=170W), eine 580 knapp 250W. Wenn man dieses Verhältnis grob zugrunde legt, würde GK104 bei maximal 200W (250-25%) landen. Bei der tollen Effizienz sollte GK104 maximal das verbrauchen, was die 560Ti verbraucht, wenn man die Performance "nur" um 50% erhöht im Schnitt. Eigentlich gehe ich von mindestens +80% Perf/W aus, eher einer Verdopplung. Du hast ja angedeutet, dass GK104 Fermi da regelrecht verkloppt.

AnarchX
2012-02-15, 20:19:12
Ein teildeaktivierter GK104 mit vernünftigem PCB (300W 8+6-Pin) und 0,33ns Speicher mit einem 3-Slot-Kühler könnte wohl ausgehend von dieser Perspektive ziemlich interessant sein.
Wenn das dann noch für <$299 (http://geizhals.at/de/?phist=686505&age=365) realisierbar ist.

LovesuckZ
2012-02-15, 20:22:14
Soso, die Leistungsaufnahme ist also nur 20% niedriger, bei 10% Mehrleistung? Oder anders: Die Karte benötigt angeblich 33% mehr Strom für 50% Mehrleistung gegenüber der GTX560TI?

Na, klingt nach fake.

boxleitnerb
2012-02-15, 20:23:55
>20 kann auch 40% sein. Vielleicht will er nicht zuviel verraten?

AnarchX
2012-02-15, 20:24:01
Nein, die OC-Version soll bei 80% (~200W) bzw. weniger liegen. Also wohl ~70% mehr Leistung bei maximal 30% mehr Vebrauch und das wohl im eher pessimistischen 10% Szenario.

LovesuckZ
2012-02-15, 20:25:57
>20 kann auch 40% sein. Vielleicht will er nicht zuviel verraten?

25% wären 200 Watt. Egal wie man es dreht, es wäre nichtmal eine Verbesserung um 33%. Eigentlich vollkommen sinnlos, so etwas zu produzieren. Da würde selbst ein reiner GF114 Shrink mehr sinn ergeben.

boxleitnerb
2012-02-15, 20:26:00
Wieso pessimistischen 10% Szenario? Ich dachte die Ergebnisse von der Folie sind cherrypicked. Oder auf welcher Basis kommst du zu den 70%?

25% wären 200 Watt. Egal wie man es dreht, es wäre nichtmal eine Verbesserung um 15%. Eigentlich vollkommen sinnlos, so etwas zu produzieren. Da würde selbst ein reiner GF114 Shrink mehr sinn ergeben.

Lies nochmal AnarchX's Post. Das ist eine OC-Version. Schau dir die Folie doch an, da ist man mindestens 60% flotter als eine 560Ti und 30% flotter als eine 580.

AnarchX
2012-02-15, 20:26:57
Die 70% beziehen sich auf die 560Ti im Vergleich zum 104 mit 10% OC.

boxleitnerb
2012-02-15, 20:28:20
Auf Basis der Folie oder anderer Benchmarks/Annahmen?

LovesuckZ
2012-02-15, 20:28:25
Äh, euch ist schon klar, dass die Folie ein Fake ist?!

Ailuros
2012-02-15, 20:28:51
Soso, die Leistungsaufnahme ist also nur 20% niedriger, bei 10% Mehrleistung? Oder anders: Die Karte benötigt angeblich 33% mehr Strom für 50% Mehrleistung gegenüber der GTX560TI?

Na, klingt nach fake.

Lies es nochmal durch. Bei >20% niedrigerem Stromverbrauch ist GK104 bis zu so viel schneller ungefaehr als die GF110 wie in den handausgesuchten benchmarks im Bildchen oben stehen. Den Unterschied kannst Du Dir gefaelligst selber ausrechnen und es sind fuer die paar Faelle weder nur 10% Unterschied zur GF110 aber auch nicht 50%.

Wie stark gefaelscht meine Infos in letzter Zeit sind kann man in diesem thread sehen. Nur eben gibt es stets einen Unterschied zwischen diesen und den zu optimistischen und zu pessimistischen Erwartungen jeglicher moeglichen Seite.

Äh, euch ist schon klar, dass die Folie ein Fake ist?!

Schoen abgeschrieben ist sie schon. Das Problem ist dass sich einiges mit dem Material hier deckt.