Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GK110 - High-End-Kepler - Q1 2013


Seiten : 1 [2] 3 4 5 6 7 8 9 10 11 12 13 14 15 16

Godmode
2012-04-03, 10:46:24
Obr meint im Sep oder Okt soll der Launch sein:

http://www.obr-hardware.com/2012/04/what-will-be-big-kepler.html

Odal
2012-04-03, 11:46:22
wenn dann sicher nicht für den Desktopmarkt

Konami
2012-04-03, 12:30:44
Obr meint im Sep oder Okt soll der Launch sein:

http://www.obr-hardware.com/2012/04/what-will-be-big-kepler.html
smaller then GF110
Klar :rolleyes:

Skysnake
2012-04-03, 12:47:21
Die Frage ist IMO, ob GK110 sich als High-End noch stärker differenziert von Performance differenziert als es früher war.
Früher waren unterschiedliche Shader-TMU-Verhältnisser in der Architektur der Unterschied.

Jetzt ist die Frage, ob "Cuda-Next" die generelle 11x-Cores-Architektur ist oder ob GK110 andere Cuda-Cores hat als GK114, GK116 & Co.
Wenn zweiteres eintrifft, kann man schon zum diskutieren beginnen, ob GK110 überhaupt noch High-End-Gamer-GPU oder nicht doch schon als eine Profi-GPU besser zu benennen wäre.
Guten Morgen. Das ist doch genau das, was ich schon seit Wochen/Monaten vor predige :ugly:

Spätestens seit man GK104 am Launchtag gesehen hat, hätte doch jedem klar werden müssen, das man die Effizienz wohl kaum halten wird können bei GK110. Der Weg, der mit GF1x4 und GF1x0 eingeschlagen wurde, wird konsequent weiter geführt, wobei die Unterschiede wohl eher noch größer werden, denn kleiner. GK114 wird sicherlich über die gleichen ALUs etc. verfügen, aber eben eine andere Aufteilung der Einheiten untereinander besitzen und hier und da wieder etwas beschnitten. Man sollte von GK110 aber auf keinen Fall eine bessere Perf/W erwarten im Vergleich zu GK104 als zwischen GF114 und GF110. Eher sogar schlechter.

Die wirklich Frage ist halt. Wenn GK110 30% schneller ist als GK104. Ist er dann ein neuer High-End Gamer chip? Die meisten werden wohl "Ja" sagen.

Ganz unabhängig davon, ob es eigentlich ein HPC Chip ist, der halt AUCH Gamer zu neuen Höhen verhelfen kann...

Gamer kaufen halt "alles".

Hugo78
2012-04-03, 13:17:48
Klar :rolleyes:

Die Kosten für die immer feineren Fertigungen steigen seit Jahren und man kann so riesige Dies irgendwann nicht mehr wirtschaftlich produzieren.
Es ist somit logisch, dass Nvidia hier in Zukunft zurückhaltender wird, was die Dimensionen angeht.

Skysnake
2012-04-03, 13:18:52
Klar. Zumindest bis Interposer es ENDLICH in den Markt schaffen... Dann werden die "DIE"-Sizes für Chips wohl regelrecht explodieren.

boxleitnerb
2012-04-03, 13:21:37
Warum? Die Yields sind für kleine Chips sicher besser, aber ob man eine Karte mit z.B. 4x 200-250mm2 Dies bezahlen kann, bezweifle ich doch mal. Und nur weil man plötzlich noch mehr Transistoren draufpappen kann, muss man trotzdem auf den Verbrauch und auch auf die Skalierung achten.

Skysnake
2012-04-03, 13:32:09
Klar, aber es wird eben deutlich einfacher, große Chips zu bauen, und ihr denkt schon wieder nicht weit genug...

Der beste Ansatzpunkt wäre es RAM und GPU/CPU auf einen Interposer zu pappen. Dann müsste man nämlich nicht mehr über solche "lächerliche" Interfaces von 256 oder 512 Bit reden.

Damit geht die "DIE"-Size schon mal gewaltig hoch. Als nächstes kannste dann die CPU und GPU zusammen pappen.

Schaut euch einfach mal Haswell an. Das ist ein weiterer/erster Schritt dahin.

Dann wird die Sache nämlich auch deutlich interessanter wieder, was die Kosten anbelangt. Klar, der Interposer kostet Geld, aber das sollte human ausfallen, weil man ja alter Fertigungstechnologie weiter verwenden kann. Man nutzt also seine Maschinen länger. Zudem wird das packaging deutlich billiger, weil man weniger Pins ansteuern muss. Dafür muss man halt die Sachen richtig positionieren. Sollte aber unterm Strich wohl billiger sein, vor allem wenn es dann großserientauglich ist.

Das PCB wird aber auf jeden Fall gewaltig billiger, und die möglichen Energieersparnisse sind auch sehr groß, vor allem wenn man CPU und GPU zusammen packen kann. Erinnert ihr euch an die Größe des SI/PCI-E Interfaces? Da kann man verdammt viel an DIE-Size einsparen, wenn man alles auf einen Interposer hat. Die Treiber verbrauchen ja keinen unwesentlichen Anteil von den Modulen.

boxleitnerb
2012-04-03, 13:39:55
Die Anbindung zwischen GPU und Speicher kann man aber auch mit Interposer nicht beliebig erhöhen. Was sind da die aktuellen begrenzenden Faktoren?

Mit dem Preis wollte ich eher darauf hinaus, das ich dachte, du wolltest kleinere Chips in einem Die zusammenpappen, die in Summe größer sind als die bisherigen 500mm2. Die Chips kosten so oder so Geld, dieser flächenabhängige Posten bleibt unbeeinflusst bis auf die Yield-Geschichte.

Konami
2012-04-03, 13:41:11
Die Kosten für die immer feineren Fertigungen steigen seit Jahren und man kann so riesige Dies irgendwann nicht mehr wirtschaftlich produzieren.
Es ist somit logisch, dass Nvidia hier in Zukunft zurückhaltender wird, was die Dimensionen angeht.
Ich halte trotzdem Ailuros (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9211998&postcount=6568) und Charlie (http://semiaccurate.com/2012/02/07/gk110-tapes-out-at-last/) für glaubwürdiger als Obrovsky ;)

Skysnake
2012-04-03, 13:49:04
Die Anbindung zwischen GPU und Speicher kann man aber auch mit Interposer nicht beliebig erhöhen. Was sind da die aktuellen begrenzenden Faktoren?
Pin limitation wie schon seit zich Jahren auf der einen Seite, und Kosten des PCBs wie ebenfalls seit zich Jahren auf der anderen.

Daher ist der "billige" Weg ja auch, die Taktraten immer weiter hoch zu treiben. Da kommt man aber inzwischen auch an Grenzen, die die Sache extrem schnell extrem teuer werden lässt.


Mit dem Preis wollte ich eher darauf hinaus, das ich dachte, du wolltest kleinere Chips in einem Die zusammenpappen, die in Summe größer sind als die bisherigen 500mm2. Die Chips kosten so oder so Geld, dieser flächenabhängige Posten bleibt unbeeinflusst bis auf die Yield-Geschichte.
Du kannst aber auf einen 300mm Wafer mit 100mm² Chips deutlich mehr Chipfläche unter bringen, als mit einem 500mm² Chip. Zudem sind wie gesagt die Yealds bei einem 100mm² und einem 500mm² Chips schon zwei Paar Stiefel. Ganz abgesehen davon, dass die Fertigung eh immer schwieriger wird, und es eh immer länger dauert, bis man überhaupt die großen Chips fertigen kann.

Aber wie gesagt, das sind alles nur Randerscheindungen. Wenn man die Interposer-Geschichte konsequent durch zieht, dann hat man nur noch SOCs, bzw. ClusteronaChip. Aber die Entwicklung wird wirklich noch einiges an Zeit benötigen, wird aber aus Effizienzgründen früher oder später aber kommen müssen, es sei denn Fibre on Chip setzt sich richtig durch. Dann könnte! es "klassische" MBs eventuell noch deutlich länger geben.

Ailuros
2012-04-03, 20:11:09
Interessant, würdest Du das noch etwas genauer ausführen? Was meinst Du mit "zusätzliche DP Einheiten"?

GT200 war nichts anders als anders aufgelegter G80 mit ein paar zusaetzlichen dedizierten DP Einheiten (stets vereinfacht).

Das hier?

Nein. Seit Fermi sprich GF100 wird double precision von den ALUs selber ausgefuehrt in dem vereinfacht bei Fermi jeweils 2*16SIMDs zusammenarbeiten um DP zu generieren. Fuer jeweils 2*16 bekommst Du entweder 64 FLOPs single precision/clock oder 32 FLOPs double precision/clock (Vorraussetzung es ist keine desktop SKU weil dort DP gedrosselt ist).

Kannst Du noch was zur Frage der Nummerierung schreiben? Warum existiert kein GK100? Willkür in der Nummerierung?

GK110 hat in seinen ALUs exclusive CUDA next Faehigkeiten die bei allen GK10x cores nicht existieren. Einen sehr grossen Unterschied duerfte das Zeug nicht machen so wie ich es verstanden habe und der ganze Schnickschnack wird offiziell Mitte Mai bei der GTC vorgestellt egal ob GK110 dann vor der Tuer steht oder nicht. Auf Anfrage ob es Holzschrauben geben wird bekam ich natuerlich keine Antwort :biggrin:

Obr meint im Sep oder Okt soll der Launch sein:

http://www.obr-hardware.com/2012/04/what-will-be-big-kepler.html

Warum wagt er sich irgend eine Anzahl zu aeussern? Er ist sich doch normalerweise so sicher dass seine Infos korrekt sind :P

Ich halte trotzdem Ailuros (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9211998&postcount=6568) und Charlie (http://semiaccurate.com/2012/02/07/gk110-tapes-out-at-last/) für glaubwürdiger als Obrovsky ;)

Das dumme ist eben dass er "nur" 23xx SPs erwartet. Wie zum Teufel so ein Ding dann ca. 50% schneller sein koennte als ein GK104 wuerde ich gerne mal erklaert bekommen. Anders nur wenn jemand in der engineering Abteilung luegt sind es weniger als 550mm2 und nein der Herr war nicht besoffen wie der von Charlie ;)

Pin limitation wie schon seit zich Jahren auf der einen Seite, und Kosten des PCBs wie ebenfalls seit zich Jahren auf der anderen.

Daher ist der "billige" Weg ja auch, die Taktraten immer weiter hoch zu treiben. Da kommt man aber inzwischen auch an Grenzen, die die Sache extrem schnell extrem teuer werden lässt.


Du kannst aber auf einen 300mm Wafer mit 100mm² Chips deutlich mehr Chipfläche unter bringen, als mit einem 500mm² Chip. Zudem sind wie gesagt die Yealds bei einem 100mm² und einem 500mm² Chips schon zwei Paar Stiefel. Ganz abgesehen davon, dass die Fertigung eh immer schwieriger wird, und es eh immer länger dauert, bis man überhaupt die großen Chips fertigen kann.

Aber wie gesagt, das sind alles nur Randerscheindungen. Wenn man die Interposer-Geschichte konsequent durch zieht, dann hat man nur noch SOCs, bzw. ClusteronaChip. Aber die Entwicklung wird wirklich noch einiges an Zeit benötigen, wird aber aus Effizienzgründen früher oder später aber kommen müssen, es sei denn Fibre on Chip setzt sich richtig durch. Dann könnte! es "klassische" MBs eventuell noch deutlich länger geben.

Kein Einwand. NV hat sozusagen Druck von zwei Richtungen; die eine ist ivy bridge design wins zu fuettern (hauptsaechlich von der Kepler Fraktion GK107 und genau deshalb wird es das Ding fuer einige Zeit nicht fuer desktop geben) und von der anderen Seite supercomputers und Quadro/Tesla was auch immer.

Die Milchmaedchen-rechnung fuer den letzten Fall ist einfach: wie viele desktop GK110 SKUs muss NV verkaufen um den Umsatz einer einzigen Tesla SKU zu decken?

Wenn dann bessere Kapazitaeten bzw. yields fuer 28nm ankommen, aendert sich das Bild natuerlich um einiges und auch natuerlich die Herstellungskosten fuer brutal grosse dies.

Jetzt mal ehrlich da desktop GK110 so oder so kastiert sein wird was sowohl Geometrie bzw. DP betrifft, wie viele Spinner wuerden denn wirklich so ein Ding HEUTE bezahlen wollen wenn sie den GK104 schon um $499 verkaufen?

Wenn beide IHVs etwas an ihrer zukuenftigen Strategie aendern wollen - ueberhaupt da Herstellungsprozesse zunehmend problematischer werden - waere ein logischer Anfang das alberne "ich hab zuerst veroeffentlicht" Marketing-Zeug loszuwerden. Die erste Idee dafuer waere dass PR/marketing erstmal die Klappe haelt mit bunten Projektionen fuer zukuenftige GPUs auf einem nagelneuen Prozess und die naechste danach erst dann in die Massen produktion zu gehen wenn Kapazitaeten/yields/Herstellungskosten auf logischerem Nivaeu liegen. AMD hat schon ihren eigenen "Ausgang" fuer die Zukunft damit es teilweise besser werden koennte names GloFo; bleibt abzusehen ob NVIDIA auch in Zukunft wirklich so treu zu TSMC sein wird wie bisher. Dass NV schon einen Probe-SoC zu Samsung's foundries geschickt hat kann wohl kein reiner Zufall sein.

***edit: es wird sich in absebahrer Zukunft schon zeigen ob und wie AMD GloFo ausserhalb SoCs genau benutzen wird.

Duplex
2012-04-03, 20:18:19
Obr meint im Sep oder Okt soll der Launch sein:

http://www.obr-hardware.com/2012/04/what-will-be-big-kepler.html
with fair performance gain above GK104. Source are talking about 20-25 percents above GeForce GTX 680

Damit wäre der Chip schonmal ein reinfall :rolleyes:
Das kann nur eine Lüge sein, für beschissene 20% lohnt sich niemals ein neues DIE, erst recht nicht wenn man bedenkt das 550mm² = 90% mehr Fläche als GK104 bedeuten...
Wir wollen bei 90% mehr Chipfläche mind. 50% mehr Leistung als GK104 sehen.

Godmode
2012-04-03, 20:33:42
Damit wäre der Chip schonmal ein reinfall :rolleyes:
Das kann nur eine Lüge sein, für beschissene 20% lohnt sich niemals ein neues DIE, erst recht nicht wenn man bedenkt das 550mm² = 90% mehr Fläche als GK104 bedeuten...
Wir wollen bei 90% mehr Chipfläche mind. 50% mehr Leistung als GK104 sehen.

Darum hab ich das auch kommentarlos eingestellt. Nicht der Rede wert.

Knuddelbearli
2012-04-03, 20:51:02
Damit wäre der Chip schonmal ein reinfall :rolleyes:
Das kann nur eine Lüge sein, für beschissene 20% lohnt sich niemals ein neues DIE, erst recht nicht wenn man bedenkt das 550mm² = 90% mehr Fläche als GK104 bedeuten...
Wir wollen bei 90% mehr Chipfläche mind. 50% mehr Leistung als GK104 sehen.

glaube das zwar auch nicht aber sogar wenn er in spielen langsamer als der 680 wäre wäre es kein reinfall wenn er dafür im gpgpu und vor allem dp abgeht wie sonstwas

Zergra
2012-04-03, 21:03:28
Zeigt wohl wieder das es keine Gamer CPU ist, und NV sich wohl andere Piriotäten gesetz hat, 10% schneller als die Konkurenz reicht locker, wird wohl was für HPC´´s werden und einen anderen Weg einschlagen.

Duplex
2012-04-03, 21:07:41
Leute einfach nachdenken...
Warum soll das keine Gamer GPU werden?
GF110 ist 44% größer als GF104, hat im gegensatz zu GF104 sogar den ganzen GPGPU Zeug im DIE & damit ist GF110 in Games bereits 70% schneller als GF104
GK110 müsste eig. mit 550mm² DIE Space wie eine Bombe einschlagen.

kunibätt
2012-04-03, 23:35:22
So kann man gar nicht argumentieren. Wenn man sich die bisherigen GPGPU-Ergebnisse der GTX680 ansieht, kann man nur zu dem Ergebniss kommen, dass eine 560 im Ggs. zur GTX680 wohl deutlich weniger auf den puren Gamermarkt hinentwickelt wurde.

M4xw0lf
2012-04-04, 10:26:56
Leute einfach nachdenken...
Warum soll das keine Gamer GPU werden?
GF110 ist 44% größer als GF104, hat im gegensatz zu GF104 sogar den ganzen GPGPU Zeug im DIE & damit ist GF110 in Games bereits 70% schneller als GF104
GK110müsste eig. mit 550mm² DIE Space wie eine Bombe einschlagen.

Hast dus auch ne Nummer kleiner? ^^
70% kommen höchstens in irgendwelchen limitierten Extremfällen raus.
HT4U und Computerbase haben in ihren Performanceratings 47% (alle Auflösungen und Settings) bzw 44% (FullHD + 4xAA) Abstand, das ist eher die realistische Hausnummer.

Gaestle
2012-04-04, 11:00:37
Seit Fermi sprich GF100 wird double precision von den ALUs selber ausgefuehrt in dem vereinfacht bei Fermi jeweils 2*16SIMDs zusammenarbeiten um DP zu generieren. Fuer jeweils 2*16 bekommst Du entweder 64 FLOPs single precision/clock oder 32 FLOPs double precision/clock (Vorraussetzung es ist keine desktop SKU weil dort DP gedrosselt ist).

Aber die ALUs an sich sind bei GF104 und GF110 bzw. GF110 identisch? Nur die "Ansteuerung" ist unterschiedlich, damit man mehr DP aus den selben ALUs bekommt?



Jetzt mal ehrlich da desktop GK110 so oder so kastiert sein wird was sowohl Geometrie bzw. DP betrifft...

Das klingt für mich nach zwei GK110-Varianten (Gamervariante und HPC-Variante). Ist das nur ein Softwareunterschied, oder gibt es auch bei der Hardware (nur der Chip) Unterschiede?

AnarchX
2012-04-04, 11:04:43
Wie bei GF110 könnte GK110@GeForce auf 1/4 seiner DP-Leistung und auf die Hälfte seiner Geometrie-Leistung (ohne Culling) kastriert werden um Quadro und Tesla nicht zu gefährden.

boxleitnerb
2012-04-04, 12:01:42
Stehen noch die 128 TMUs im Raum oder hat sich da was geändert?

Dural
2012-04-04, 12:01:55
Leute einfach nachdenken...
Warum soll das keine Gamer GPU werden?
GF110 ist 44% größer als GF104, hat im gegensatz zu GF104 sogar den ganzen GPGPU Zeug im DIE & damit ist GF110 in Games bereits 70% schneller als GF104
GK110 müsste eig. mit 550mm² DIE Space wie eine Bombe einschlagen.


GF110 ist 60% grösser als GF114...

Im schnitt 70% schneller?!? das möchte ich mal sehen!


Ich sage ja eh schon lange das hier manche komplett träumen und wunsch vorstellungen haben die gar nicht möglich sind.

Godmode
2012-04-04, 12:59:25
Stehen noch die 128 TMUs im Raum oder hat sich da was geändert?

Es werden wohl 8 Stück pro SMX. Und bei den anvisierten GPCs und SMXen sollten es mehr als 128 werden.

dargo
2012-04-04, 13:16:17
GF110 ist 60% grösser als GF114...

Im schnitt 70% schneller?!? das möchte ich mal sehen!

Es wäre zwar möglich. Dann liegt es aber nicht an der Rohleistung sondern dem geringen Vram wenn man einen GF114 mit 1GB nimmt. GF110 ist ca. 40-45% schneller als GF114.

AnarchX
2012-04-04, 13:33:44
GF110 ist 60% grösser als GF114...

GF104/114 waren beide doch um die 360mm², also eher 40-50%.

Duplex
2012-04-04, 13:43:26
70% kommen höchstens in irgendwelchen limitierten Extremfällen raus.

Erzähle bitte keinen unsinn über GF110

http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-580/20/#abschnitt_performancerating_mit_aaaf

http://www.abload.de/thumb/1x9zbo.jpg (http://www.abload.de/image.php?img=1x9zbo.jpg) http://www.abload.de/thumb/28pz1f.jpg (http://www.abload.de/image.php?img=28pz1f.jpg)

GF110 ist 60% grösser als GF114...
Lerne erstmal richtig lesen, von GF114 war nicht die rede, ich hab GF104 mit GF110 verglichen http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9237214&postcount=267


Im schnitt 70% schneller?!? das möchte ich mal sehen!
Siehe Beitrag oben.


Ich sage ja eh schon lange das hier manche komplett träumen und wunsch vorstellungen haben die gar nicht möglich sind.
Ich glaube du bist hier der einzige der träumt...

AnarchX
2012-04-04, 14:02:27
Wir können hier doch auch ohne "Träumerei" diskutieren? ;)

y33H@
2012-04-04, 15:21:50
@ Duplex

Die GTX 460 ist kein GF114-Vollausbau und noch dazu "lahm" getaktet. Nimm mal die GTX 560 Ti als Vergleich ;-)

Hugo78
2012-04-04, 15:35:14
Bei +50% mehr GPCs/SMs (sofern die gleich zum Gk104 sind) und 80-100% mehr Bandbreite,
wird GK110 sicher deutlich mehr als die 20-25% leisten, die OBR in den Raum gestellt hat.

GK104 würde ja schon allein durch ein breiteres SI, kräftig zulegen.
http://www10.pic-upload.de/04.04.12/1q8zclepz5w.jpg (http://www.pic-upload.de/view-13623630/bandbreite.jpg.html)
http://www.pcgameshardware.de/aid,875267/Overclocking-Test-Geforce-GTX-680-Radeon-HD-7970/Grafikkarte/Test/

Aber mein Baugefühl sagt mir genau wie Marc, es wäre realistischer den Vergleich GTX 560 (Ti) vs GTX 580 zubemühen, und da kommen wir dann bei max. ca. 45% raus.

Screemer
2012-04-04, 16:13:01
@ Duplex

Die GTX 460 ist kein GF114-Vollausbau und noch dazu "lahm" getaktet. Nimm mal die GTX 560 Ti als Vergleich ;-)
nein, nein. man nimmt das was einem gerade in den kram passt. das der chip im verhältniss zum gk104 nicht voll ausgefahren wird ist da nebensächlich.

Iruwen
2012-04-04, 17:12:49
Wie soll das Einheitenverhältnis von GK104 zu GK110 denn aussehen? Daran sollte man doch etwaige Vergleiche festmachen, falls das durch die Architekturänderungen überhaupt geht. GK110 wird ja offenbar größer als GF110 und GK104 ist kleiner als GF114.

M4xw0lf
2012-04-04, 18:02:35
Erzähle bitte keinen unsinn über GF110

http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-580/20/#abschnitt_performancerating_mit_aaaf

http://www.abload.de/thumb/1x9zbo.jpg (http://www.abload.de/image.php?img=1x9zbo.jpg) http://www.abload.de/thumb/28pz1f.jpg (http://www.abload.de/image.php?img=28pz1f.jpg)


Lerne erstmal richtig lesen, von GF114 war nicht die rede, ich hab GF104 mit GF110 verglichen http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9237214&postcount=267




Na das macht ja alles extrem viel Sinn was du da vergleichst. GF104 <-> GF100 / GF114 <-> GF110, das sind die analogen Paarungen zu GK104 <-> GK110. GF104 vs GF110 ist mehr wie Cypress Pro versus Cayman XT :rolleyes:

Ailuros
2012-04-04, 19:12:51
Wie soll das Einheitenverhältnis von GK104 zu GK110 denn aussehen? Daran sollte man doch etwaige Vergleiche festmachen, falls das durch die Architekturänderungen überhaupt geht. GK110 wird ja offenbar größer als GF110 und GK104 ist kleiner als GF114.

Ein paar Stellen mit 100% mehr Einheiten und andere mit 50% mehr Einheiten. Fuer einen 512bit bus z.B. braucht NV 64 ROPs ergo 2x Mal so viel wie GK104.

Duplex
2012-04-06, 23:44:06
Die GTX 460 ist kein GF114-Vollausbau und noch dazu "lahm" getaktet. Nimm mal die GTX 560 Ti als Vergleich ;-)
Dann nehmen wir GF114 vs. GF110 als vergleich
GF114 = 367mm²
GF110 = 530mm²
44% Flächen Unterschied

Und GK104 vs. GK110
GK104 = 294mm²
GK110 = 550mm²
87% Flächen Unterschied

Bei GK110 kann Nvidia deutlich mehr Shader als GF114 > GF110 verbauen, weil der Chip 87% größer werden kann, damals bei Fermi waren es nur 44% Flächen Unterschied, sollte das Monster tatsächlich 550mm² ausfallen, 512 Bit SI & 4GB, dann würde ich 3072 Shader nicht ausschließen. Bei AMDs Sea Island @2013 gehe ich mitlerweile neben einem überarbeiteten Frontend auch von über 3000 Shader aus, alles andere macht keinen sinn für eine neue GPU Generation weil GK104 nur der Performance Chip ist.

Iruwen
2012-04-07, 00:28:32
Das 512 Bit Interface schluckt aber auch nicht unerheblich mehr Platz als das 384 Bit Interface auf GF110 und wie die Packdichte aussehen wird ist ja auch nicht klar.

Hugo
2012-04-07, 10:02:31
Bei AMDs Sea Island @2013 gehe ich mitlerweile neben einem überarbeiteten Frontend auch von über 3000 Shader aus, alles andere macht keinen sinn für eine neue GPU Generation weil GK104 nur der Performance Chip ist.

von 3000 SPs bei AMD, im Jahr 2013, würde ich nicht ausgehen. Ich glaube nicht dass AMD so einen riesen Chip fertigt. Das wären da ja auch so um die 500mm²
Wenn überhaupt dann einen besseres Frontend und paar mehr SPs sagen wir zw 2300 - 2500

Duplex
2012-04-07, 11:03:13
von 3000 SPs bei AMD, im Jahr 2013, würde ich nicht ausgehen. Ich glaube nicht dass AMD so einen riesen Chip fertigt. Das wären da ja auch so um die 500mm²

Für 3072 Shader brauchst du nur 48 CUs, Tahiti hat bereits 32 CUs. (Der Chip muss nicht größer als 450mm² ausfallen)
http://www.abload.de/thumb/tahiti32cuszpjkd.jpg (http://www.abload.de/image.php?img=tahiti32cuszpjkd.jpg)
Man braucht auf jeder Seite nur 4x CUs erweitern, dann kommst du auf 48x64, mit dem aktuellen Frontend machts aber keinen sinn (siehe Pitcairn > Tahiti "Games" skalierung). Das Frontend muss überarbeitet werden damit die CUs besser skalieren.

Cape Verde = 10 CUs, Pitcairn = 20 CUs, Tahiti = 32 CUs, für eine neue GPU Generation sind 40 CUs schonmal zu wenig, für mich sind die 48x64 erstmal der Favorit, GK110 mit 3072 Shader wäre dann im GPGPU immer noch locker 20% schneller als Sea Islands @3072.

Sry für das offtopic.

Ailuros
2012-04-08, 11:03:24
Das 512 Bit Interface schluckt aber auch nicht unerheblich mehr Platz als das 384 Bit Interface auf GF110 und wie die Packdichte aussehen wird ist ja auch nicht klar.

Kein bedeutender Abstand von der auf GK104 IMHO.

Für 3072 Shader brauchst du nur 48 CUs, Tahiti hat bereits 32 CUs. (Der Chip muss nicht größer als 450mm² ausfallen)

Das "nur" war gut. +50% ist alles andere als wenig und obwohl man hoechstwahrscheinlich nicht mehr als 384bit auf so einem hypothetischem Ding brauchen wuerde, wuerde ich an Stelle AMD's nicht so bloed sein nochmal so ein Ding mit nur 32 ROPs auszustatten.

Man braucht auf jeder Seite nur 4x CUs erweitern, dann kommst du auf 48x64, mit dem aktuellen Frontend machts aber keinen sinn (siehe Pitcairn > Tahiti "Games" skalierung). Das Frontend muss überarbeitet werden damit die CUs besser skalieren.

Genau. Und obwohl die die-area mir so oder so ziemlich wurscht ist, wie sieht es mit Stromverbrauch aus? Und nein die Antwort ist nicht soooo einfach. WIE LANGE muss 28nm genau halten bis 20nm aufs Lager kommen kann und wie schnell will man N Stromverbrauch pro Prozess so verdonnern dass fuer den zweiten 28nm refresh dann auch etwas anstaendiges uebrig bleibt?

Cape Verde = 10 CUs, Pitcairn = 20 CUs, Tahiti = 32 CUs, für eine neue GPU Generation sind 40 CUs schonmal zu wenig, für mich sind die 48x64 erstmal der Favorit, GK110 mit 3072 Shader wäre dann im GPGPU immer noch locker 20% schneller als Sea Islands @3072.

Sry für das offtopic.

Tatsaechlich OT aber ich hab irgendwie das Gefuehl dass die meisten von Euch zu optimistisch seit fuer Sea Islands. Wenn dass Ding erst ab Q2 2013 kommen soll ja schoen ok dann kein Einwand; je mehr man aber unter Zeitdruck liegt desto kleiner die Aenderungen die man vornehmen sollte.

Man muss ja auch nicht mir nichts dir nichts soo stark in die Breite gehen wenn man doch etwas mehr aus den Taktreserven rauskitzeln kann, aber was wer ich wohl wissen :P

boxleitnerb
2012-04-16, 17:26:15
Btw:


SPs/SMX: 192
SMX/GPC: 3
GPCs: 6
SPs: 3072


6*3*192 macht 3456 und nicht 3072. Wie passt das zusammen?

8 GPCs und 2 SMX/GPCs würden rein rechnerisch passen.

Godmode
2012-04-16, 17:27:55
Btw:



6*3*192 macht 3456 und nicht 3072. Wie passt das zusammen?

Es passt eh nicht, aber das richtige stand schon mal dort. TBA.

boxleitnerb
2012-04-16, 17:32:41
Hm, wieso schreibst du es dann nicht so hin? :)

Botcruscher
2012-04-16, 17:48:07
Tatsaechlich OT aber ich hab irgendwie das Gefuehl dass die meisten von Euch zu optimistisch seit fuer Sea Islands. Wenn dass Ding erst ab Q2 2013 kommen soll ja schoen ok dann kein Einwand; je mehr man aber unter Zeitdruck liegt desto kleiner die Aenderungen die man vornehmen sollte.
Warum sollte vor Jahreswechsel von AMD überhaupt etwas kommen? Laut Gerüchteküche tut sich beim 28nm Volumen eh erst richtig was Richtung Juli. Und ob wir Kepler noch in Q3 sehen werden...

Godmode
2012-04-16, 18:00:12
Hm, wieso schreibst du es dann nicht so hin? :)

Weil ich es nicht darf.

boxleitnerb
2012-04-16, 18:07:00
Interessant :D

AnarchX
2012-04-20, 09:11:01
7 Milliarden Transistoren!


S0642 - Inside Kepler
Stephen Jones ( CUDA Developer, NVIDIA )
Lars Nyland ( Senior Architect, NVIDIA )

In this talk, individuals from the GPU architecture and CUDA software groups will dive into the features of the compute architecture for “Kepler” – NVIDIA’s new 7-billion transistor GPU. From the reorganized processing cores with new instructions and processing capabilities, to an improved memory system with faster atomic processing and low-overhead ECC, we will explore how the Kepler GPU achieves world leading performance and efficiency, and how it enables wholly new types of parallel problems to be solved.
https://registration.gputechconf.com/?form=schedule Die Session ist am Mittwoch und der Text wird per Mouse-Over angezeigt.

Dural
2012-04-20, 09:23:55
:eek:

hätte ich nie gedacht, habe mehr mit 5-6 Miliarden gerechnet...

somit dürfte Ailuros recht haben mit den 3072SPs... :eek:


Neben GK110 wirkt GK104 und Thaiti somit wirklich nur wie Mainstream GPUs ;)

Neurosphere
2012-04-20, 09:56:37
Dann dürfte GK110 doch in 600mm² Regionen vorstoßen, immerhin ist GK104 bei 3,54 Milliarden Transistoren auch schon 294mm² groß.

Wenns dann wirklich das Doppelte wird und man die Packdichte nicht erreicht, kommt wohl nen Größenrekord auf uns zu...

AnarchX
2012-04-20, 10:03:45
Größere Dies haben häufig eine höhere Packdichte:

7000 Mio auf ~550mm² : 12,72 Mio.Tr./mm²
3540 Mio auf 294mm²: 12,04 Mio.Tr./mm²

Also nur durchaus realistische 5% höhere Transistordichte für GK110. Zumal wohl hier nicht unerheblich größere Mengen an Cache verbaut sein sollten, die sich recht gut packen lassen.

Chris Lux
2012-04-20, 10:17:08
Lasst uns nicht vergessen, dass der GK110 auch höher DP Performance haben wird. Vielleicht werden es nicht ganz 3072 SPs...

AnarchX
2012-04-20, 10:23:57
Etwa 2 TFLOPs bei Half-Rate-DP und gemäßigten Taktraten setzen 3072SPs schon vorraus.

Aber das ist auch nur ein Papierwert, wichtiger für Spiele sind nach wievor ein vernünftiges Front-End und eine gute Bandbreitenversorgung von ALUs und TMUs.
Wenn da im Endeffekt für den Spieler ein guter Faktor 2 gegenüber GF110 herauskommt, kann man wohl zufrieden sein. Mit der hohen ALU-Leistung kann man vielleicht langfristig etwas anfangen.

robbitop
2012-04-20, 10:34:06
Mit 512 bit SI und 4x Frontend sollte GK110 wohl auch in Spielen seine Leistung auf die Straße bekommen.
Ich verstehe nur nicht, warum jetzt alle jubeln... das haben wir doch schon vor Monaten gesagt. GK104 ist Midrange und GK110 wird wieder seinen knapp Faktor 2 haben. Alles wie immer. (nur dass NV diesmal so dreist war und den Midrange als High End verkaufte...)

AnarchX
2012-04-20, 10:40:20
Mit 512 bit SI und 4x Frontend sollte GK110 wohl auch in Spielen seine Leistung auf die Straße bekommen.
[...] GK104 ist Midrange und GK110 wird wieder seinen knapp Faktor 2 haben.

Das ist aber ein Widerspruch. Wenn GK110 seine 5 TFLOPs auf die Straße bringen würde, dann müssten wir über einen Faktor 3 sprechen.

Mit einem Faktor 2 könnte man aber wohl zufrieden sein.
Im Endeffekt sind wohl die wichtigeren Fragen, wann dieses "Monster" überhaupt am Markt sein wird und ob man nicht wieder aus Yield-Gründen die Top-SKU beschneiden muss.

Neurosphere
2012-04-20, 11:24:58
Größere Dies haben häufig eine höhere Packdichte:

7000 Mio auf ~550mm² : 12,72 Mio.Tr./mm²
3540 Mio auf 294mm²: 12,04 Mio.Tr./mm²

Also nur durchaus realistische 5% höhere Transistordichte für GK110. Zumal wohl hier nicht unerheblich größere Mengen an Cache verbaut sein sollten, die sich recht gut packen lassen.

Das kommt ganz drauf an. Die höchste Packdichte hat man bisher meist bei Chips im 300mm² Bereich. Darunter UND darüber nimmt die Packdichte aber meist wieder ab.

robbitop
2012-04-20, 11:27:24
Das ist aber ein Widerspruch. Wenn GK110 seine 5 TFLOPs auf die Straße bringen würde, dann müssten wir über einen Faktor 3 sprechen.

Wenn Rechenleistung der reine Flaschenhals bei Spielen wäre - dann wäre das so. Ich denke mal, dass er das aber nicht ist. Außerdem Kepler =! Fermi. Kepler opfert Kontrolllogik für Ausführungsanzahlsteigerung. Man kann also nicht einfach die Rechenleistungen gleichsetzen.

Skysnake
2012-04-20, 11:38:24
Ich finde das hier ja ganz interessant :biggrin:


S0360 - Set GPUs Free: Integrating a File System with CUDA Programs

Mark Silberstein (UT Austin) , Emmet Witchel (UT Austin )

This session seeks the answer to the question: ``Can we simplify and speed up CUDA programs by allowing them to access files residing on a host?''. To prove our affirmative answer, we demonstrate how the concept of a file system enables programs with non-trivial CPU-GPU and GPU-GPU interactions to be efficiently and easily implemented on top of a new GPU file-system layer. We also show that such a file system enables implementation of fully stand-alone GPU programs without any CPU wrapper code. Finally we outline the details of the file system design which contributed to scalability, data consistency and performance.

Topic Areas: General Interest
Level: Intermediate

Day: Thursday, 05/17
Time: 9:30 am - 9:55 am
Location: Hall 1

Ailuros
2012-04-20, 11:42:35
Mit 512 bit SI und 4x Frontend sollte GK110 wohl auch in Spielen seine Leistung auf die Straße bekommen.
Ich verstehe nur nicht, warum jetzt alle jubeln... das haben wir doch schon vor Monaten gesagt. GK104 ist Midrange und GK110 wird wieder seinen knapp Faktor 2 haben.

Faktor 2 in Bezug zu was? DP? Falls ja wird der Unterschied zwischen high end und performance diesmal um einiges groesser sein als in der Vergangenheit. Sonst fuer 3D wird wohl GK110 (wenn alles nach Plan laeuft blah blah blah...) etwas schneller werden im Vergleich zu GK104 als GF110 vs. GF114. Sollte aber auch nicht wundern denn die Bandbreite auf GK110 wird diesmal auch um einiges groesszuegiger sein.

Alles wie immer. (nur dass NV diesmal so dreist war und den Midrange als High End verkaufte...)

Es ist das erste Mal dass NV nicht den high end core zuerst zum Laufband schickt oder zumindest so weit zurueck wie ich mich erinnern kann. GK104 ist nicht midrange sondern performance und es ist eben der gleiche 28nm Nebeneffekt wie auch bei AMD's Tahiti. Bei der immer noch beschissenen Verfuegbarkeit von GK104 chips gab es wohl keinen anderen Ausweg als die Preise hoch anzulegen. Mein Einwand diesbezueglich fuer beide IHVs ist lediglich dass sie dann erst in die Produktion haetten gehen sollen wenn sich die Herstellungskosten normalisiert haetten. Mir sagen solche 0815 semi-paper launches gar nichts.

***edit:

http://forum.beyond3d.com/showpost.php?p=1638161&postcount=4156

7 Mrd. Transistoren.

robbitop
2012-04-20, 11:51:53
Nein ich meine schon SP - DP ist für Spiele ja nicht relevant. Und ich meine Faktor 2 ggü. Fermi. :)

Und ja du hast Recht: ich meine Performance. Die Performancekarte wurde als High End verkauft.

boxleitnerb
2012-04-20, 12:09:07
Faktor 2 ist illusorisch. Sowas gabs bis auf seltene Fälle im Schnitt lange nicht mehr. GK104 bringt von seinen 200% der SP-Leistung ggü. der 580 nur ca. 130% auf die Straße im Schnitt, manchmal mehr. Rechnen wir das auf 300% hoch und ziehen nochmal ein bisschen was, weil die Skalierung mit mehr Einheiten eher abnehmen dürfte, kommen wir auf vielleicht +80% ggü. der 580.

Die Energieeffizienz von Kepler ist schon sehr gut, aber angesichts 28nm und Augenmerk auf Effizienz wäre vielleicht doch noch etwas mehr drin gewesen imo. Verdoppelte Leistung der 580 bei gleichem Verbrauch wird GK110 wohl nicht schaffen.

AnarchX
2012-04-20, 12:16:06
GF110 war ~40% schneller als GF114 bei ~57% mehr Transistoren und 50% mehr Bandbreite.
GK110 wird hier ~100% mehr Transistoren und ~90% mehr Bandbreite gegenüber GK104 bieten.

Auf Basis dieser besseren Ausgangslage könnten die ~55% Leistungsunterschied zwischen GK110 und GK104 wohl durchaus erreichbar sein und somit auch der Faktor 2 gegenüber GF110.

Wie es am Ende ausgehen wird, hängt natürlich auch ab ob man hier Teildeaktivierungen vornimmt und ob man die TDP von 250W überschreiten will.

boxleitnerb
2012-04-20, 12:21:54
Bei so vielen Transistoren sollte man eigentlich noch mehr erwarten können, so 70% :D
Die Frage ist, wieviel in GPGPU fließt und wie sehr GK104 noch von der Bandbreite zurückgehalten wird. Gibts dazu jetzt eigentlich verlässliche Aussagen? Angenommen GK104 hätte die doppelte Bandbreite, wieviel Plus wäre drin, wenn überhaupt?

Auch muss man sich fragen, ob Nvidia 2013 dann nochwas anderes bringen will und vielleicht etwas Takt zurückhält. Maxwell wird ja wohl kaum vor 2014 aufschlagen. So wie das bei TMSC läuft, eher Mitte 2014.

Nightspider
2012-04-20, 12:24:03
GK110 hat ja noch den zeitlichen Vorteil von 6-9 Monaten für Optimierungen bei der Packdichte sowie Taktrate und generell dem Chipdesign. Das könnte auch paar % bringen.
Sonst haben die Mainstreamchips immer die Vorteile der späteren Fertigung mitgenommen. Diesmal nimmt der HighEnd Chip die Erkenntnisse der Performance Fertigung mit.

robbitop
2012-04-20, 12:39:31
Faktor 2 ist illusorisch. Sowas gabs bis auf seltene Fälle im Schnitt lange nicht mehr. .
Ich meine Faktor 2 ggü der GTX580. Die ja viel weniger als die Hälfte der Rechenleistung der GK110. Das darf man aber auch nicht vergleichen.
Vieleicht werden's auch nur 80 % - wie sonst jedes Mal. Ich finde aber gemessen am Sprung und an der Die-Size ist das jetzt kein Monster über das man staunen müsste. Sowas gibt's halt jedes Mal von NV.

Ailuros
2012-04-20, 13:16:45
Ich meine Faktor 2 ggü der GTX580. Die ja viel weniger als die Hälfte der Rechenleistung der GK110. Das darf man aber auch nicht vergleichen.
Vieleicht werden's auch nur 80 % - wie sonst jedes Mal. Ich finde aber gemessen am Sprung und an der Die-Size ist das jetzt kein Monster über das man staunen müsste. Sowas gibt's halt jedes Mal von NV.

Ihr muesst aber auch erklaeren ob Ihr den absoluten Durchschnitt meint oder irgendwelche "bis zu" Steigerung. Im ersten Fall sind +80% eine logische Schaetzung und im zweiten Fall vielleicht doch etwas zu mager fuer nur einen Faktor 2x. Denk mal an das Pixel- bzw. Texel-Fuellraten zu Bandbreite Verhaeltnis auf GK110 im Vergleich zu GF110.

GK110 hat ja noch den zeitlichen Vorteil von 6-9 Monaten für Optimierungen bei der Packdichte sowie Taktrate und generell dem Chipdesign. Das könnte auch paar % bringen.
Sonst haben die Mainstreamchips immer die Vorteile der späteren Fertigung mitgenommen. Diesmal nimmt der HighEnd Chip die Erkenntnisse der Performance Fertigung mit.

12.73Mio/mm2 fuer GK110 im Vergleich (falls es wirklich 7Mrd@550mm2 sind und die 7 Mrd. nicht eine vereinfachte Aufrundung sind) zu 12.04Mio/mm2 fuer GK104.

So und da NV mit der Transistoren-anzahl rausgerutscht hat (mir wurde fast 7 Mrd. vermittelt aber der Unterschied duerfte wohl wurscht sein) hier die moegliche GK110 Konstellation:

4*32SPs/SMX
8 TMUs/SMX (2*32SPs <-> 1 quad-TMU)
4 SMXs/GPC
6 GPCs
64 ROPs

Bon apetit ;)

AnarchX
2012-04-20, 13:22:46
Vieleicht werden's auch nur 80 % - wie sonst jedes Mal. Ich finde aber gemessen am Sprung und an der Die-Size ist das jetzt kein Monster über das man staunen müsste. Sowas gibt's halt jedes Mal von NV.

Wenn wir wirklich über 512-Bit@5,5Gbps+ reden, ist das eine Bandbreitensteigerung, die es in dieser höher schon lange nicht mehr bei NV gab.

hier die moegliche GK110 Konstellation:

4*32SPs/SMX
8 TMUs/SMX (2*32SPs <-> 1 quad-TMU)
4 SMXs/GPC
6 GPCs
64 ROPs

Bon apetit ;)
... wo wir auch bei den TMUs einen Faktor 3 gegenüber GF110 hätten.

Ailuros
2012-04-20, 13:26:41
Wenn wir wirklich über 512-Bit@5,5Gbps+ reden, ist das eine Bandbreitensteigerung, die es in dieser höher schon lange nicht mehr bei NV gab.

Kommt drauf an wann GK110 ankommt und wie die 28nm GPU Preise zu dem Zeitpunkt aussehen werden. Bei einem 4GB framebuffer und 64 ROPs sieht es mir nicht danach aus dass man wirklich so teuren Speicher benutzen wuerde. IMHO (ohne dass ich etwas genaues weiss) 300-320GB Bandbreite aber nicht mehr.

AnarchX
2012-04-20, 13:29:30
Eine 4GiB 6Gbps GTX 680 (http://geizhals.at/de/?cat=gra16_512&bpmax=&filter=+Liste+aktualisieren+&asuch=jetstream&asd=on&v=e&plz=&dist=&xf=1439_GTX+680&sort=p) gibt es für 600€ (Tendenz fallend). Fraglich ob man da sparen sollte.

Godmode
2012-04-20, 13:35:58
Ja das wäre eine Karte! Ich hoffe wir erfahren bald wann das Teil vorgestellt wird. Würde gerne auf GTX680 verzichten....

Auf den Preis bin ich aber am meisten gespannt. Entweder GTX680 wird massiv im Preis gesenkt oder GK110 kostet 700-800€...

Knuddelbearli
2012-04-20, 13:41:15
naja doppelte Leistung bei doppelter shader Anzahl / Transistoren würde auch doppelte Leistungsaufnahme bedeuten, dazu noch schwieriger die Performance abzurufen und cpu limits

50% max 60% dürfte wohl ganz gut hinkommen

Duplex
2012-04-20, 14:07:06
GK110 wird selbst in Games mind. 80% mehr Leistung als GF110 haben, der Abstandt wird viel größer als bei den vorgänger ausfallen...

3072 Shader | 64 ROPS | 512 Bit SI :cool:

robbitop
2012-04-20, 14:13:02
Wenn wir wirklich über 512-Bit@5,5Gbps+ reden, ist das eine Bandbreitensteigerung, die es in dieser höher schon lange nicht mehr bei NV gab.
Aber auch nur, weil man bei Fermi mit sehr konventionellen Taktraten hantierte. Sollte dann in etwa auf eine Verdopplung der Bandbreiten herauskommen.


... wo wir auch bei den TMUs einen Faktor 3 gegenüber GF110 hätten.
Sollte GK110 nicht 128x bekommen?

AnarchX
2012-04-20, 14:23:54
Aber auch nur, weil man bei Fermi mit sehr konventionellen Taktraten hantierte. Sollte dann in etwa auf eine Verdopplung der Bandbreiten herauskommen.
Und eine solche gab es bei NV in der Vergangenheit nicht so oft.
Aber mit Interposern und Memory-Cubes steht hier wohl bald eh eine Explosion der Bandbreite an.


Sollte GK110 nicht 128x bekommen?
Das basierte auf einer Analogie von GF104 zu GF110. Aber GK110 wird dieser wohl nicht folgen.

Zergra
2012-04-20, 15:15:21
GK110 wird selbst in Games mind. 80% mehr Leistung als GF110 haben, der Abstandt wird viel größer als bei den vorgänger ausfallen...

3072 Shader | 64 ROPS | 512 Bit SI :cool:
Könnte...

Ich bezweifle immer noch das die Karte was für den Gaming Bereich ist, da wird Nv diesmal wohl bei 104 bleiben...dies könnte sich aber ändern wenn AMD einen guten Refresh bringt und NV mit ihrem nicht hinterher kommt.
Dann bleibt nur Gk110

Gaestle
2012-04-20, 16:08:28
Die Idee hatte ich auch schon, mir wurde aber recht deutlich dargelegt, dass GK110 auch für den Gamermarkt kommen muss, um die Entwicklungskosten wieder rein zu holen.
Trotz der extrem hohen Preise im HPC-Bereich ist dort die Stückzahl zu klein.
Ich kenne die Entwicklungskosten für die Kepler-Serie nicht, aber für die 6800er(?)-Serie habe ich aus irgendeiner Diskussion 400 Mio. US$ im Hinterkopf (die ich aber nicht belegen kann).

robbitop
2012-04-20, 16:26:55
Aber mit Interposern und Memory-Cubes steht hier wohl bald eh eine Explosion der Bandbreite an.

Ja das wurde hier schon oft erzählt... Ich glaub erst daran, wenn ich es bei einem konkreten Produkt sehe...

VooDoo7mx
2012-04-20, 16:49:18
Wenn man sieht wie "gut" die 28nm Fertigung bei TSMC momentan läuft kann ich mir gar nicht vorstellen wie man da einen 7Mrd 550-600mm² Transistoren Chip auf den Markt bringen will. Bei den ~300-350mm² ist die ja momentan so schlecht das die Karten in geringen Dosen auf den Markt kommen und für sehr viel Geld verkauft werden müssen.

Natürlich wird die Fertigung bis zum erscheinen von GK110 Produkten besser werden, ich sehe da aber nicht so eine Steigerung das man dann ein Top SKU GK110 Board für $600 MSRP verkaufen könnte. Realistisch gesehen müsste so ein Board mindestens für $800 verkauft werden. Es ist dann auch sehr wahrscheinlich das die TOP SKU trotzdem noch beschnitten wird wie bei der GTX480 oder das Anfangs alle gut funktionierenden GK110 gleich in den Profimarkt gehen und wenn überhaupt erst einige Zeit später in den Consumer Markt aufschlagen. Denn genau für diesen Profi Markt ist der Chip angedacht.

Wenn man vom GK104 ausgeht dürfte ein GK110 bei doppelter Einheitenanzahl und ähnlicher Taktung bei voller Auslastung locker alles bisher dagewesene an Stromverbrauch sprengen. Gegen sowas wird selbst eine GTX480 ziemlich alt aussehen. So ein Monster zu kühlen wird keine einfache Aufgabe. Oder man lässt die Taktraten relativ niedrig, dann dürfte aber bei der Game Performance kein all zu großer Vorsprung ggü dem GK104 rausspringen.

Meiner Meinung nach ist GK104 vs GK110 viel mehr als nur der schnöde Vergleich Performance vs High End.
GK104 von Anfang für den Gaming Markt angedacht und auch die Treiber dahin optimiert, mit sehr schlechter Compute Optimierung der Treiber wird noch einige Zeit auf High End Gaming Boards zu finden sein
GK110 von Anfang für den Profi und HPC Bereich gedacht und Optimierung der Treiber in diese Richtung wird in diesen Bereich den GK104 locker um 100% und mehr übertreffen aber in Gaming Performance wenn er überhaupt in diesen Markt aufschlägt bestenfalls minimal schneller sein im Bereich von 20-30%.

Den Uber Enthusiast Gaming Bereich wird nVidia Dual GK104 überlassen, dagegen kann auch dann ein extrem teures GK110 Board rein gar nichts ausrichten.

Duplex
2012-04-20, 17:00:47
Ich bezweifle immer noch das die Karte was für den Gaming Bereich ist, da wird Nv diesmal wohl bei 104 bleiben...dies könnte sich aber ändern wenn AMD einen guten Refresh bringt und NV mit ihrem nicht hinterher kommt.
Dann bleibt nur Gk110
GK104 ist doch nur ein Mainstream Chip bzw. nur 30% schneller als GF110...
GK110 wird der richtige High End Gamer Chip, genau wie es bei GT200 > GF100 der Fall war :rolleyes:

2x GK110 im SLI Verbund @1Ghz WaKü und du hast die perfekte Kombi für 8xSGSSAA.
1x GK110 Karte wird in Games besser als 2x580GTX Karten skalieren !!!

AnarchX
2012-04-20, 17:05:51
Den Uber Enthusiast Gaming Bereich wird nVidia Dual GK104 überlassen, dagegen kann auch dann ein extrem teures GK110 Board rein gar nichts ausrichten.
Da AFR jenseits von 4 GPUs nicht sonderlich sinnvoll ist, wird 4x GK110 hier auch eine deutlich höhere maximale Ausbaustufe bieten.

Und wenn NV aus Stromverbrauchsgründen die Taktrate stärker drosseln sollte, könnte es von der Partnern sehr potente Werks-OC-Versionen geben, die mit WaKü und >400W PCBs wenig limitiert sind.

Aber natürlich bleiben wirklich die Fragen "Wann?"/"Zu welchem Preis?". Laut NV könnte wohl eine GK110 GPU mehr als doppelt so teuer wie ein GF110 sein, trotz vergleichbarer Die-Size. Aber im Endeffekt dürfte im späten zweiten Halbjahr ein "verträglicher" Preis von ~600€ möglich sein, auch mit 4GiB 6Gbps an Board.

Dural
2012-04-20, 17:09:00
mit 1950MHz Speicher Takt hätte man 500GB/s Bandbreite :freak:

mit realistischen (OC) 1800MHz sind es immer noch 460GB/s ;D

boxleitnerb
2012-04-20, 17:12:23
Und du meinst, man kriegt 5 Gbps Speicher so hoch?

AnarchX
2012-04-20, 17:14:23
Ja das wurde hier schon oft erzählt... Ich glaub erst daran, wenn ich es bei einem konkreten Produkt sehe...

Mittlerweile gibt es Prototypen, fast marktfertige Designs, Roadmaps und Spezifikationen. Da sollte in den nächsten 5 Jahren eine Implementierung sehr wahrscheinlich sein. Dann dürften High-End-Designs deutlich über 1TB/s zur Verfügung stehen.

Dural
2012-04-20, 17:16:20
ende 2012 dürften da min. 6Gbps drauf sein :)

Duplex
2012-04-20, 17:24:17
Wenn die 3072 Shader bei GK110 sicher sind, dann braucht die konkurrenz AMD im Jahr 2013 mehr als 3072 Shader da man sonst nicht konkurrenz fähig wäre, das beste Beispiel ist GK104 vs. Tahiti XT, AMD hat 512 Shader mehr als die 680GTX, ist aber nicht schneller, damit will ich sagen das AMDs Sea Islands dringend mehr als 3072 Shader braucht (+50% mehr EInheiten ist das minimum), außerdem muss das Frontend verbessert werden, sonst haben wir wieder RV670 vs. G80 Zeiten...

AwesomeSauce
2012-04-20, 17:55:39
Wenn die 3072 Shader bei GK110 sicher sind, dann braucht die konkurrenz AMD im Jahr 2013 mehr als 3072 Shader da man sonst nicht konkurrenz fähig wäre, das beste Beispiel ist GK104 vs. Tahiti XT, AMD hat 512 Shader mehr als die 680GTX, ist aber nicht schneller, damit will ich sagen das AMDs Sea Islands dringend mehr als 3072 Shader braucht (+50% mehr EInheiten ist das minimum), außerdem muss das Frontend verbessert werden, sonst haben wir wieder RV670 vs. G80 Zeiten...
Herrliche Übersimplifizierung :freak: Mal abwarten, mit welchem Powerbudget GK110 daherkommt. Das hört sich nämlich alles andere als stromsparend an.

VooDoo7mx
2012-04-20, 18:46:00
Da AFR jenseits von 4 GPUs nicht sonderlich sinnvoll ist, wird 4x GK110 hier auch eine deutlich höhere maximale Ausbaustufe bieten.
Ich frag mich wie du den Bogen von einer Dual GK104 Board auf 4way+ SLI spannst?
Meine Argumentation war das eine teure GK110 Karte wenig Sinn macht, wenn man in dem Preisbereich schon eine Dual GK104 Karte hat, die nicht nur deutlich schneller ist, sondern auch von Yield Raten und Komplexität deutlich billiger zu fertigen ist, also bessere Margen verspricht. Eine Dual GK110 ergibt wenig Sinn da es einfach nicht mehr Consumertauglich kühlbar wäre. Du prognostizierst ja selber bis 400W für ein GK110 Board. Rechne das mal auf ein Dual GPU Board hoch. Bei so einen Board müsste man den GK110 so weit runter takten das das so ein Board nicht schneller als ein Dual GK 104 wäre.
Und wenn NV aus Stromverbrauchsgründen die Taktrate stärker drosseln sollte, könnte es von der Partnern sehr potente Werks-OC-Versionen geben, die mit WaKü und >400W PCBs wenig limitiert sind.
Sowas ist durchaus möglich. Aber von der Performance sollte man von der nVidia Standardausgabe ausgehen und nicht von Kleinserien OC Versionen die sich Hersteller vergolden lassen. Eine Asus Ares Karte ist auch kein Maßstab für die normalen Produkte.
Aber natürlich bleiben wirklich die Fragen "Wann?"/"Zu welchem Preis?". Laut NV könnte wohl eine GK110 GPU mehr als doppelt so teuer wie ein GF110 sein, trotz vergleichbarer Die-Size. Aber im Endeffekt dürfte im späten zweiten Halbjahr ein "verträglicher" Preis von ~600€ möglich sein, auch mit 4GiB 6Gbps an Board.
Das siehst du viel zu optimistisch. Für 600€ werden heute 4GB GK104 Karten verkauft. Selbst wenn man deutliche bessere Fertigung mit einbezieht ist ein doppelt so fetter Chip, der nochmal eine schlechtere Yield hat und auch ein viel teureres Baord benötigt für 600€ 2012 nicht realisierbar.

VooDoo7mx
2012-04-20, 18:58:53
Herrliche Übersimplifizierung :freak: Mal abwarten, mit welchem Powerbudget GK110 daherkommt. Das hört sich nämlich alles andere als stromsparend an.
In der Tat diese Betrachtungsweise ist extrem simpel, wenn nicht geraddzu schwachsinnig.
GK104 ist nicht unbedingt besser als Tahiti. Was Compute Performance angeht ist Tahiti GK104 deutlich überlegen.
Es kommt einfach nur darauf an wofür der Chip ausgelegt ist. ATi scheint den Tahiti als Allrounder konzipiert zu haben. GK104 ist ein kompromisloses Game Design und GK110 wird kompromisloses Profi Design was in erster Linie auf unschlagbare Compute Performance ausgelegt ist.

AnarchX
2012-04-20, 19:31:53
Ich frag mich wie du den Bogen von einer Dual GK104 Board auf 4way+ SLI spannst?

Du sprachst von Uber Enthusiasten und da sind >2 von den schnellsten Karten nicht unüblich.


Das siehst du viel zu optimistisch. Für 600€ werden heute 4GB GK104 Karten verkauft. Selbst wenn man deutliche bessere Fertigung mit einbezieht ist ein doppelt so fetter Chip, der nochmal eine schlechtere Yield hat und auch ein viel teureres Baord benötigt für 600€ 2012 nicht realisierbar.
Imo haben die GTX 680 Karten deutlich überdurchschnittliche Margen. Bei den GK110-Karten geht man dann vielleicht auf ein normales Maß zurück, wenn man die Liefermengen deutlich erhöhen kann und darausfolgend auch von AMD mehr unter Druck gesetzt wird.

VooDoo7mx
2012-04-20, 22:09:05
Du sprachst von Uber Enthusiasten und da sind >2 von den schnellsten Karten nicht unüblich.
Ich Spreche nicht davon was sich der Uber Enthusiast kauft sondern welche Produkte nVidia in den verschiedenen Kategorien bringt. Wenn man im Mai/Juni eine Dual GK104 für $700-800 MSRP bringt, macht ein paar Monate später ein langsameres und teurer herzustellendes GK110 Board im gleichen Preissegment rein marktwirtschaftlich keinen Sinn.

Imo haben die GTX 680 Karten deutlich überdurchschnittliche Margen. Bei den GK110-Karten geht man dann vielleicht auf ein normales Maß zurück, wenn man die Liefermengen deutlich erhöhen kann und darausfolgend auch von AMD mehr unter Druck gesetzt wird.
Wie hoch die Margen nun letztendlich sind weiß keiner genau. Nur ist ein 300mm² 28nm Chip deutlich teurer als ein 40nm 300mm² Chip. Board und Speicher sind auch bei der GTX680 deutlich teurer als das was man traditionell im Performance Segment verbaut, was auch weiterhin darauf hindeutet das die GTX680 eben keine Performance Karte ist.

Vielleicht sind auch die Zeiten allgemein vorbei wo die High End Chips verramscht werden und beide IHVs halten die Preise dauerhaft hoch. auch wenn sich die Fertigung bessert. Weder nVidia noch AMD sind dafür bekannt dauerhaft in schwarzen Zahlen zu sein. Und ich würde es beiden gönnen für das was da geleistet wird, wurde imho die letzten Jahre viel zu wenig Geld verlangt.
Eine GeForce 2 Ultra ging 2000 auch für 1500 Mark über die Ladentheke, das wäre heute inflationsberinigt locker mehr als 800€ und die Herstellungskosten für so ein Board waren damals geradezu lächerlich wenn man es mit aktuellen High End Boards vergleicht.
GTX startete auch mit $649 MSRP.

AnarchX
2012-04-20, 22:16:57
Ich Spreche nicht davon was sich der Uber Enthusiast kauft sondern welche Produkte nVidia in den verschiedenen Kategorien bringt. Wenn man im Mai/Juni eine Dual GK104 für $700-800 MSRP bringt, macht ein paar Monate später ein langsameres und teurer herzustellendes GK110 Board im gleichen Preissegment rein marktwirtschaftlich keinen Sinn.

Wir reden hier wohl über 5-6 Monaten Abstand zwischen Dual-104 und 110.
Bis dahin sollte 28nm sich entsprechend entwickelt haben und auch der Gesamtmarkt ein anderes Preisniveau angenommen haben.
Wer weiß ob nicht NV schon im kommenden Monat entsprechend auf AMDs Preissenkung reagiert.


Board und Speicher sind auch bei der GTX680 deutlich teurer als das was man traditionell im Performance Segment verbaut, was auch weiterhin darauf hindeutet das die GTX680 eben keine Performance Karte ist.

Board und Speicher der GTX 680 entsprechen dem was auf einer HD 6970 verbaut ist, die teilweise schon für deutlich unter 300€ verkauft wurde.
Zumal NVs Partner sehr aggressive mit Cost-Down-PCBs sind, wie man auch an den ultra-kurzen GTX 560 Ti Versionen sieht, die mittlerweile die Referenz-Version ersetzt haben.

VooDoo7mx
2012-04-21, 00:24:42
Wir reden hier wohl über 5-6 Monaten Abstand zwischen Dual-104 und 110.
Bis dahin sollte 28nm sich entsprechend entwickelt haben und auch der Gesamtmarkt ein anderes Preisniveau angenommen haben.
Wer weiß ob nicht NV schon im kommenden Monat entsprechend auf AMDs Preissenkung reagiert.
5-6 Monate von GK104 bedeutet das GK110 zum Jahresende kommt. Aber bisherige Gerüchte sprechen doch von August?

Board und Speicher der GTX 680 entsprechen dem was auf einer HD 6970 verbaut ist, die teilweise schon für deutlich unter 300€ verkauft wurde.
Ja super, damit bestätigst du selber meine Aussage, dass GTX680 ein teureres Board ist als ansonsten bei Performance Chips verbaut wird. Vielen Dank!
6970 war nämlich keine Performancekarte. Desweiteren sind Preisvergleiche mit Karten die schon weit über 1 Jahr auf dem Markt sind absolut Banane. Die 6970 ging Anfangs auch für $369 MSRP an den Start. Da ist $499 MSRP für eine GTX680 die zum Launch das schnellste verfügbare Gamingboard darstellt, was die 6970 nicht war und den neuen teuren 28nm Prozess verwendet nicht zu viel verlangt.

Zumal NVs Partner sehr aggressive mit Cost-Down-PCBs sind, wie man auch an den ultra-kurzen GTX 560 Ti Versionen sieht, die mittlerweile die Referenz-Version ersetzt haben.
Seit wann gibt es denn Cost Down PCBs bei High End Produkten?
Hast du schon mal eine verkürzte GTX 580 mit Billig Board gesehen? Ich nicht.
Der Gegenteil ist der Fall, bei den High End Produkten gehen die Board Partner immer in die andere Richtung, so auch bei der GTX 680. Da wurden reihenweise nochmal deutlich teurere Partner Boards angekündigt mit haufenweise extra Features, mehr Speicher und fast schon überdimensionierter Spannungsversorgung. Aber auch da kannst du mir gerne mal die Cost Down Versionen zeigen.

davidzo
2012-04-21, 00:55:48
GK104 ist doch nur ein Mainstream Chip bzw. nur 30% schneller als GF110...
GK110 wird der richtige High End Gamer Chip, genau wie es bei GT200 > GF100 der Fall war :rolleyes:

2x GK110 im SLI Verbund @1Ghz WaKü und du hast die perfekte Kombi für 8xSGSSAA.
1x GK110 Karte wird in Games besser als 2x580GTX Karten skalieren !!!

lol, deine glaskugel möchte ich haben.


Wenn die 3072 Shader bei GK110 sicher sind, dann braucht die konkurrenz AMD im Jahr 2013 mehr als 3072 Shader da man sonst nicht konkurrenz fähig wäre, das beste Beispiel ist GK104 vs. Tahiti XT, AMD hat 512 Shader mehr als die 680GTX, ist aber nicht schneller, damit will ich sagen das AMDs Sea Islands dringend mehr als 3072 Shader braucht (+50% mehr EInheiten ist das minimum), außerdem muss das Frontend verbessert werden, sonst haben wir wieder RV670 vs. G80 Zeiten...

du machst es dir zu einfach. GK104 hat je nach Turbo ca. 10-20% mehr ROP-Leistung und Texturierleistung. Es gibt kaum einen Benchmark/Spiel wo Shaderleistung limitiert und kaum einen wo die Bandbreite knapp wird, daher kann die 7970 ihre Reserven dort nicht ausspielen. Nicht zuletzt der immernoch gut doppelt so hohe dreiecksdurchsatz bei nvidia. Ich denke die Leistung der 7970 wird bisher nie durch die Shadingleistung gebremst.
In GpGPU Anwendungen sieht man allerdings dass die ALUs der 7970 sehr potent sind.

Mancko
2012-04-21, 10:46:32
In der Tat diese Betrachtungsweise ist extrem simpel, wenn nicht geraddzu schwachsinnig.
GK104 ist nicht unbedingt besser als Tahiti. Was Compute Performance angeht ist Tahiti GK104 deutlich überlegen.


Dürfte der großen Masse egal sein und die Leute die Compute im professionellen Bereich benötigen werden sowieso GK110 nehmen.


Es kommt einfach nur darauf an wofür der Chip ausgelegt ist. ATi scheint den Tahiti als Allrounder konzipiert zu haben. GK104 ist ein kompromisloses Game Design und GK110 wird kompromisloses Profi Design was in erster Linie auf unschlagbare Compute Performance ausgelegt ist.

Und hier ist ATIs Problem. Sollte Nvidia sich weiter diversifizieren, wird man in beiden Segmenten (Gaming und Professionellen Bereichen) jeweils die beste Antwort haben, allerdings mit dem kleinen aber feinen Unterschied, dass man nun auch im Gamingbereich mit sehr kosteneffizienten Produkten keine Bedenken vor irgendwelchen Preisanpassungen der Konkurenz haben muss. Die kanibalisiert sich dann ihre Margen selber.

aylano
2012-04-21, 12:00:05
Natürlich wird die Fertigung bis zum erscheinen von GK110 Produkten besser werden, ich sehe da aber nicht so eine Steigerung das man dann ein Top SKU GK110 Board für $600 MSRP verkaufen könnte. Realistisch gesehen müsste so ein Board mindestens für $800 verkauft werden. Es ist dann auch sehr wahrscheinlich das die TOP SKU trotzdem noch beschnitten wird wie bei der GTX480 oder das Anfangs alle gut funktionierenden GK110 gleich in den Profimarkt gehen und wenn überhaupt erst einige Zeit später in den Consumer Markt aufschlagen. Denn genau für diesen Profi Markt ist der Chip angedacht.

5-6 Monate von GK104 bedeutet das GK110 zum Jahresende kommt. Aber bisherige Gerüchte sprechen doch von August?

So ist es.
GK110 wird dann weniger gut aussehen, als sie es vorher in den "Gerüchten" verlautbaren.
Ende Dez sagten die gerüchten von einem GK104 in Jan mit deutlich besseren Effizienzwerten & Preis-Werten als es dann real wurden, auch wenn er dann schneller war.
Aber die teildeaktivierte Version ist noch immer nicht draußen.

Wenn die Gerüchte schon bei GK104 bis zu 1 Monate was ziemlich anderes sagten, dann kannst du dir ausdenken, wie groß die Gerüchte-Trefferwahrscheinlichkeit 3-5 Monate davor ist.

Die 28nm-Wafer-Kapazitäten würde ich nicht unterschätzen.
Denn wenn Qualcomm schon öffentlich @ Geschäftbericht über diese Kapazitäten starken erklärungsbedarf hat, wird Nvidia nicht beliebig zusätzliche Wafer-Kapazitäten erhalten, die sie dann einfach für Big-Chips verwenden können.

Nur weil jetzt eine zweite Fabrik ebenfalls ramp, bedeutet das nicht die Kapazitätslösung im 3 Quartal. Schließlich wird so eine Fabrik nur zu 1/4 pro Quartal hochgefahren. Es stellt sich die Frage, ob mit voller Fabriken-Auslastung überhaupt genug 28nm-Kapazitäten gibt, da die Tablet-&-Smarpthone-Hersteller noch nie so einen Run auf die neuste Fertigung hatten. Nicht umsonst berichtete Nvidia Anf 2012 schon über einen Kapazitäts-Problem bis Ende 2012 und suchen sich eventuell andere Foundries.

Dürfte der großen Masse egal sein und die Leute die Compute im professionellen Bereich benötigen werden sowieso GK110 nehmen.

Wollen wir an eine pünktliche Lieferung der Profi-GK110-Karten hoffen. Nicht dass die große Masse dann warten muss und währendessen dann AMD-Profi-GPU-Prospekte mit realer Verfügbarkeit "lesen muss".


Und hier ist ATIs Problem. Sollte Nvidia sich weiter diversifizieren, wird man in beiden Segmenten (Gaming und Professionellen Bereichen) jeweils die beste Antwort haben, allerdings mit dem kleinen aber feinen Unterschied, dass man nun auch im Gamingbereich mit sehr kosteneffizienten Produkten keine Bedenken vor irgendwelchen Preisanpassungen der Konkurenz haben muss. Die kanibalisiert sich dann ihre Margen selber.
Eine weitere Diversifizierung ist nur der logische Schritt der vorigen Entwicklungen. Das ist nichts neues, sondern was ich durch Anzeichen & Tendenzen vor Quartalen & Jahren vermutete.

Den größten Schritt im Profi-Markt schafft in Verlauf des Jahres eh AMD, die mit C++ im Prof-Markt und C++ & ECC im HPC-Markt.
Wenn ich es richtig verstanden habe, soll OpenCL 2.0 stark auf HPC sowie nativ C++ ausgelegt/entwickelt worden sein und 2012 kommen.

GK110-Desktop interessiert noch nicht, da wir noch nichts von der Sea-Island-Konkurrenz wissen, auch wenn noch viele an einem 3Q hoffen.
Aber GK104 zeigte, dass sie trotz verspätung noch doppelte Preise verlangten, als die Gerüchte vorhersagten. Somit ist die Verfügbarkeit von damals auch nicht mehr das, was wir von der Nvidia-Verfügbarkeit aus der Vergangenheit gewohnt sind.

Dural
2012-04-21, 12:12:53
was schreibst du da den... GK104 hat genau das gebracht was die gerüchte schon MONATE bevor die karte überhaupt im handel war gesagt haben...

AMD wird eh nix gegen GK110 in der hand haben, damit müsst ihr euch schon mal abfinden, ob ihr es wollt oder nicht.

mit den daten von GK110 die die gerüchte bis jetzt sagen und wenn die war sind, wird das teil locker doppelt so schnell wie der GF110 sein :rolleyes:

Mancko
2012-04-21, 13:07:39
Wollen wir an eine pünktliche Lieferung der Profi-GK110-Karten hoffen. Nicht dass die große Masse dann warten muss und währendessen dann AMD-Profi-GPU-Prospekte mit realer Verfügbarkeit "lesen muss".


AMD hat nicht den Softwaresupport um hier überhaupt eine Rolle zu spielen und darf jetzt erstmal wieder 700 Mio$ Minus verkraften.

Skysnake
2012-04-21, 13:21:31
590 Mio Minus. Die 700 Mio sind "nur" eine Strafzahlung. Ansonsten wären wir bei 110 Mio Plus ;)

DIe sind aber auch als strategische Entscheidung zu sehen. AMD ist jetzt frei.

aylano
2012-04-21, 14:41:41
was schreibst du da den... GK104 hat genau das gebracht was die gerüchte schon MONATE bevor die karte überhaupt im handel war gesagt haben...
Die Gerüchte von 120-130W-300$-GK104 mit einer ca. 10% geringere Performance als HD7970 für Ende Jänner waren die Basis um die HD7970 als überteuer darzustellen.
Damals wurde man schon fast als Troll angesehen, wenn man diese Gerüchte etwas mehr als im Ansatz anzeifelte.
Von eventuellen 28nm-Fertigungs & Kapazitätsproblem waren damals sowieso noch unerwünscht diese auch nur zu erwähnen.


AMD wird eh nix gegen GK110 in der hand haben, damit müsst ihr euch schon mal abfinden, ob ihr es wollt oder nicht.

Genauso wie AMD nichts gegen GK100 Ende 2011 haben wird. Es gab ja mal eine Zeit, da ging man noch von der High-End-Karte als Einführskarte aus.
Wir haben uns schon lange abgefunden, dass es lange nichts von einer GK110 zu sehen gibt, auch als die Gerüchte später Mai fast schon als quasi sicher galt. Aber das ist halt der Unterschied zwsichen Plan und Realität.

AMD hat nicht den Softwaresupport um hier überhaupt eine Rolle zu spielen

Trotzdem konnte AMD den Profi-Marktanteil von 5 auf 10-15% steigern.
Wenn du meinst, man braucht kein ECC im Supercomputer-Markt und AMD wird in den nächsten Monaten mit der neuen GPU damit keine Vorteile erhalten, sowie man im Profi-Markt kein C++ braucht, dann könnte ich mir meine Aussage nochmal überdecken.

Der Softwaresuppert ist sicher besser als bei AMD. Nur muss Nvidia auch die Preise rechtfertigen können.

Alleine in den letzten 12 Monaten hat sich viel neben der generellen OpenCL-Forcierung von AMD getan.
Während man vor 12 Monaten noch nichts von C++ und ECC @ GCN wussten sowie Llano noch auf sich warten lässt, bestehen ab diesem Quartal fast alle CPUs von AMD aus APUs sowie wird Ive-Bridge mti einer OpenCL-Unterstützung beim iGPU eingeführt.

und darf jetzt erstmal wieder 700 Mio$ Minus verkraften.
Und wie hat AMD die vorigen Gewinne in Wert von mehreren Hunderten Mio. $ vertragen?

Mancko
2012-04-21, 16:05:09
590 Mio Minus. Die 700 Mio sind "nur" eine Strafzahlung. Ansonsten wären wir bei 110 Mio Plus ;)

DIe sind aber auch als strategische Entscheidung zu sehen. AMD ist jetzt frei.

AMD hat so ziemlich in jedem Quartal irgendeine Sonderaktion. Am Ende gilt was unterm Strich da ist und das ist ein sattes Minus, das wahrscheinlich ausreichen wird um das Gesamtjahr im Minus abzuschließen. Firmen die permanent irgendwelche Sonderabschreibungen und -zahlungen ausweisen kann man an den Kapitalmärkten kaum noch ernst nehmen. AMD hält hier so ziemlich alle Rekorde in der IT Branche.

Felixxz2
2012-04-21, 17:23:49
du machst es dir zu einfach. GK104 hat je nach Turbo ca. 10-20% mehr ROP-Leistung und Texturierleistung. Es gibt kaum einen Benchmark/Spiel wo Shaderleistung limitiert und kaum einen wo die Bandbreite knapp wird, daher kann die 7970 ihre Reserven dort nicht ausspielen. Nicht zuletzt der immernoch gut doppelt so hohe dreiecksdurchsatz bei nvidia. Ich denke die Leistung der 7970 wird bisher nie durch die Shadingleistung gebremst.
In GpGPU Anwendungen sieht man allerdings dass die ALUs der 7970 sehr potent sind.


Das ist jetzt nicht dein Ernst oder? :eek:

Ziemlicher Humbug, den du da schreibst. Im Prinzip ist es genau andersherum: TMUs, Bandbreite, Tris und ROPs limitieren in aktuellen Games und einer 680/7970 kaum bis garnicht.

Das was in allen modernen Spielen limitiert ist die Shaderleistung. Mit Shadern wird ein Großteil der heutigen Grafik dargestellt, alle Effekte und sogar ein gutes Stück der Texelinfos wird über die ALUs berechnet.

Der Grund warum die 7970 langsamer ist, liegt darin begründet, dass ihr Frontend (-> Rasterizer) nicht genügend Pixeldaten in die ALUs schieben kann um diese gut auszulasten. Ein Guter Teil der Shaderleistung liegt brach (-> geringer Performancesprung von 7970 auf 7970). Die 680 kann ihre ALUs vernünftig auslasten und erreicht daher mit weniger Shadern mehr Leistung.

john carmack
2012-04-22, 11:31:34
wie schätzt ihr den GK110 leistungstechnisch ein?

Im Schnitt wieviel % über der 680 / 7970 ?

Felixxz2
2012-04-22, 13:22:41
wie schätzt ihr den GK110 leistungstechnisch ein?

Im Schnitt wieviel % über der 680 / 7970 ?

Laut Ail 50% vor der GTX680.

V2.0
2012-04-22, 17:12:00
wie schätzt ihr den GK110 leistungstechnisch ein?

Im Schnitt wieviel % über der 680 / 7970 ?

30-50% vor GF104.

Ailuros
2012-04-23, 03:39:00
30-50% vor GF104.

GK110 wird langsamer als eine GF110? :D


du machst es dir zu einfach. GK104 hat je nach Turbo ca. 10-20% mehr ROP-Leistung und Texturierleistung. Es gibt kaum einen Benchmark/Spiel wo Shaderleistung limitiert und kaum einen wo die Bandbreite knapp wird, daher kann die 7970 ihre Reserven dort nicht ausspielen. Nicht zuletzt der immernoch gut doppelt so hohe dreiecksdurchsatz bei nvidia. Ich denke die Leistung der 7970 wird bisher nie durch die Shadingleistung gebremst.
In GpGPU Anwendungen sieht man allerdings dass die ALUs der 7970 sehr potent sind.

Felixxz2 oben hat wohl Recht.

Tahiti ist neben desktop auch rein zufaellig ein HPC chip, welches aber nicht fuer GK104 gibt. Das einzig laecherliche hier ist dass die 7970 momentan etwas weniger kostet als eine GTX680.

Die Gerüchte von 120-130W-300$-GK104 mit einer ca. 10% geringere Performance als HD7970 für Ende Jänner waren die Basis um die HD7970 als überteuer darzustellen.
Damals wurde man schon fast als Troll angesehen, wenn man diese Gerüchte etwas mehr als im Ansatz anzeifelte.
Von eventuellen 28nm-Fertigungs & Kapazitätsproblem waren damals sowieso noch unerwünscht diese auch nur zu erwähnen.

Es war NIE und NIRGENDS die Rede von 120-130W Stromverbrauch und ja solche bodenlose Luegen grenzen tatsaechlich an Trollerei. Um es auf den Punkt nochmal zu wiederholen ich sagte mehr als einmal dass NUR der chip <150W verbraucht. Wenn ich noch gleichzeitig im gleichen Absatz betone dass man Speicher und noch ein paar andere Faktoren draufrechnen muss, duerfte man ziemlich bloed sein daraus 120-130W zu interpretieren.

Und ja die Planung war fuer einen $299 MSRP in der Hoffnung dass ihnen TSMC noch N zusaetzliche Kapazitaeten einraeumt was aber nie passierte. Es ging alles aufs GK107 und co. "Herstellungs-konto" und seither trottelt die Herstellung nur so vor sich hin,


Genauso wie AMD nichts gegen GK100 Ende 2011 haben wird. Es gab ja mal eine Zeit, da ging man noch von der High-End-Karte als Einführskarte aus.

Da es keinen GK100 gibt wird das obrige wohl auch nicht passieren. Und nein nur in deinem verdrehten Universum war fuer Kepler high end als erste irgendwann weiss der Geier wann vorgesehen.

Wir haben uns schon lange abgefunden, dass es lange nichts von einer GK110 zu sehen gibt, auch als die Gerüchte später Mai fast schon als quasi sicher galt. Aber das ist halt der Unterschied zwsichen Plan und Realität.

Na vielleicht waere es anstaendiger ab und zu etwas mehr mitzulesen denn ich hatte den Anstand mich zu entschuldigen dass ich tape out mit design-Fertigung falsch verstanden hatte. Selbst Charlie-semiaccurate deutete auf einen ca. Januar tape out fuer GK110 was aber auch nicht stimmte. Nochmal extra fuer Dich: Design-Fertigung Dezember 2011, tape out/A1 silicon Anfang Maerz 2012.

boxleitnerb
2012-04-23, 07:11:42
Wie schauts denn mit den 28nm Yields von Nvidia aus, vor allem im Vergleich zu AMD? Ist es richtig, dass nur Nvidia große Probleme hat oder ist das nur Charlies übliche Schwarzmalerei?

Palpatin
2012-04-23, 07:29:21
Wie schauts denn mit den 28nm Yields von Nvidia aus, vor allem im Vergleich zu AMD? Ist es richtig, dass nur Nvidia große Probleme hat oder ist das nur Charlies übliche Schwarzmalerei?
Bei AMD gehen imo die Preise runter und die Verfügbarkeit der meisten Karten ist gut, also entweder liegt das Zeug wie Blei in den Regalen weils keiner will oder sie bekommen die Yields langsam in den Griff, tippe da schon auf letzteres. Die sinkenden Preise gelten ja auch für die 7770 und 7750.

boxleitnerb
2012-04-23, 07:40:28
Es gibt ja im Grunde drei Möglichkeiten, warum die Verfügbarkeit (weltweit gesehen) nicht so gut ist bei der 680:

1. Yields sind wirklich schlecht, es kommen zu wenig gute Chips vom Band. Mit der 670Ti könnte sich das dann deutlichst ändern, wenn diese mit vielen kaputten Chips den Markt flutet.
2. Yields sind ok, aber insgesamt bekam man nicht genug Wafer.
3. Yields sind ok, aber man hat weiterhin die Priorität auf die die mobilen Chips gelegt.

Tja, was isses nu? :)

Mist, ich seh grad, das ist der 110 Thread, wollte das eigentlich bei GK104 posten. Könnte es ein Mod bitte verschieben? Danke.

Gaestle
2012-04-23, 08:40:40
Es scheint wohl eine Mischung aus 2. und 3. zu sein. Begrenzte Anzahl Wafer und Priorität auf Mobiles (wegen der begrenzten Wafezahl und den notwendig zu erfüllenden Verträge).

AFAIR gibt es derzeit nur eine(?) FAB bei TSMC, die alles, was weltweit an 28nm von TSMC gefordert wird (inkl. der Aufträge von Qualcomm, AMD u.a.), produziert.

Nakai
2012-04-23, 12:19:01
Nochmal extra fuer Dich: Design-Fertigung Dezember 2011, tape out/A1 silicon Anfang Maerz 2012.

Interessant, dann wird Kepler frühstens Juni/Juli auf dem Markt kommen...eher später. Wahrscheinlich erst in geringen Stückzahlen auf dem GPGPU-Markt, dann auf dem Gaming-Sektor. Für uns normale Kunden können wir erst so ab August/September damit rechnen, wahrscheinlich noch etwas später.

Gaestle
2012-04-23, 12:29:42
Es gab schon im im Februar/März im GK104-Speku-Thread detaillierte Äußerungen, dass GK110 im HPC-Bereich nicht von Q3 und im Consumer-Bereich nicht vor Ende 2012 zu erwarten ist.

Ailuros
2012-04-23, 21:59:01
Es gab schon im im Februar/März im GK104-Speku-Thread detaillierte Äußerungen, dass GK110 im HPC-Bereich nicht von Q3 und im Consumer-Bereich nicht vor Ende 2012 zu erwarten ist.

Genau.

aylano
2012-04-26, 23:54:23
Es war NIE und NIRGENDS die Rede von 120-130W Stromverbrauch und ja solche bodenlose Luegen grenzen tatsaechlich an Trollerei. Um es auf den Punkt nochmal zu wiederholen ich sagte mehr als einmal dass NUR der chip <150W verbraucht. Wenn ich noch gleichzeitig im gleichen Absatz betone dass man Speicher und noch ein paar andere Faktoren draufrechnen muss, duerfte man ziemlich bloed sein daraus 120-130W zu interpretieren.

Aha, ich soll ein Lügner & grenzwertiger Troll sein?
Wer bestimmt und definiert die Gerüchte? Du als Moderator? Ein Moderator hat nicht die Aufgabe die Information zu überwachen & kontrollieren, was spekuliert werden darf und was nicht, sondern jene Leute zu bestrafen die andere als Lügner & gernzwertiger Troll hetzen!!!
Bevor du jetzt weiter Forenregeln brichst und mich weiter als Blöd darstellst sowie mir Lügen & Grenzen an Trollerei vorwirfst, solltest du auch einmal wissen, dass GF104 nur 120W bei 160W-TDP/MCP hatte.
Also, einerseits hatte der GK104 Vorgänger nur 120W-Spieleverbrauch. (Daher die 120W) und andererseits verbrauchte er von den angegeben TDP nur 120/160=0,75 davon.
Du sollst nicht gleich andere als Lügner und Trollerei bewerten, wenn du in der Spekulation wieder logisches nicht verstehst, da TDP nicht gleich automatisch Spiele-Verbrauch bzw. W nicht gleich automatisch TDP ist.
Es war nirgends klar, dass die 170-180W wie beim Vorgänger ebenfals TDP gemeint war und somit 120-130W-SPieleverbrauch bedeuten können. (Schließlich kann man auch nicht automatisch ein +50%-Stromverbrauch bei GK110 annehmen und alle als Troll bezeichnen, die einen realen Spiele-verbrauch unter 375W für möglich halten.

Es nervt gewaltig, dass du mich immer als Troll und verdreht und Lügner bewertest, nur weil ich nicht deine Märchengeschichten wie ein Lemming mit Plus-minus-5% nacherzähle/widerkäue.
Vorallem, wenn ich eh schon einige Wochen nichts schreibe, um deine forenregelbrechenden Beschimpfungen aus dem Weg zu gehen, nur weil du wiedermal nichts verstanden hast und dir von deinen Quellen naive Märchen erzählen lässt.


Und ja die Planung war fuer einen $299 MSRP in der Hoffnung dass ihnen TSMC noch N zusaetzliche Kapazitaeten einraeumt was aber nie passierte. Es ging alles aufs GK107 und co. "Herstellungs-konto" und seither trottelt die Herstellung nur so vor sich hin,

Also Moderator kannst vielleicht paar User rausperren oder Gerüchte andererseiten zensieren, aber die Wahrheit kann man nicht ignroieren, egal wie viel du träumst.
Spätestens nach deinen Fermi-Lügen (wo ich sogar monatelang den Thread komplett meidete, um deinen Beschimpfungen & Trollerein und Strafen zu entgehen) hättest du aus deinen damaligen Fehlern lernen können und nicht mit der 300$ Lüge zu wiederhohlen und die extremen Fertigungsproblemen während des gesamten Jahres zu ignorieren.

Nicht umsonst hatte ich schon damals (Mitte 2011) aufgrund den Massiven Verspätungen und Problemen und den vermuteten Kapazitätsproblemen aus dem 40nm-AMD-Ramp (Neue Fertigung bei neuer Architektur) sogar nur geringer Performance-Zuwächse für Möglich gehalten, während andere das niemals glaubten und teils noch an +100% hofften. (siehe nächsten beiden Beiträgen)

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=492112&page=16
aylano - Juni-2011
Also, die Frage bleibt, ob Nvidia & AMD gleich zum Start Big Dies (350-500mm²) rausbringt.
Da wäre ich mir nicht so sicher.
200-350mm²-Dies mit 15-35%-Mehr-Performance (+ ?%-Mehr-Performance durch Architektur-Verbesserungen) & weniger Stromverbrauch klingt IMO für Anfang 2012 vernünftiger/realistischer.

Und z.B. boxleitnerb dazu.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=492112&page=16
Nur 30% mehr als die 580 GTX? Nie im Leben. Oder erwartest du von der 7970 auch nur 30% mehr als von der heutigen Generation?
Ich schätze 70-80%, hoffe auf 90-100%.


Da es keinen GK100 gibt wird das obrige wohl auch nicht passieren. Und nein nur in deinem verdrehten Universum war fuer Kepler high end als erste irgendwann weiss der Geier wann vorgesehen.
Was für ein Lügner bist du. Natürlich spekulierten zuerst alle von Big-CHips, als sie von Kepler sparchen. So wie es die letzten Jahre war. Das hast du ja genauso angedeutet.

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=492112&page=19
July-2011
Unter normalen Umstaenden sollte Kepler's Ziel sein bis zu 2x Mal Fermi Leistung zu erreichen; wenn alles nach Plan laufen sollte klingt es auch gar nicht so merkwuerdig denn der Schritt von 40 auf 28nm (ueberhaupt da 32nm entfallen ist) ist alles andere als klein.
Kepler soll laut NV's roadmap in DP 2.5x Mal potenter sein als Fermi. Tesla 2050 = 515 GFLOPs/s * 2.5x = 1287.5 GFLOPs/s
Umgekehrte spekulative Mathe:
1024SPs * 1 FLOP (fuer DP) * 1.26GHz = 1290 GFLOPs, wobei die Tesla 2050 auch nur bei 1.15GHz taktet.
Wenn man jetzt die These weiterstrickt waere etwas wie [16*(4*16-3 warp schedulers)] vielleicht gar nicht so bloed.

Übrigend, selbst in Dezember-2011 glaubtest auch du noch an Hotclock
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=492112&page=69
Wieso sollte NV den hotclock schon jetzt aufgeben?

Natürlich gibts von dir recht wenig genaue Angaben, da man sonst deine beschränkte mathematische Logik erkennt.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=492112&page=69
Wieso sollte NV den hotclock schon jetzt aufgeben? Zwar handelt es sich um eine alberne Milchmaedchen-rechnung denn GPUs bestehen NICHT nur aus ALUs, aber ich hab im Fall von TahitiXT 2048SPs@925MHz die (insgesamt als GPU und nicht nur ALUs) schaetzungsweise 50% mehr Leistung liefern als eine GTX580 mit 512SPs@1.544GHz.

3.79 TFLOPs = 1.581 TFLOPs +50%
Da würden jetzt die 12 jährigen lachen, die gerade Variablen (a,b) lernten und somit wissen, dass eine Gleichung immer richtig (linke Seite = rechte Seite) sein muss.
Wenn das jetzt zu Mathematisch und kompleziert war, könnte man die Varibalen auch AMD-TFLOPS und Nvidia-TFLOPS nennen. [/i]
3.79 AMD-TFLOPs = 1.581 Nvidia-TFLOPs * 1,50%

Dass du mich dann oft als Troller beschimpfts, wundern mich ebenso nicht. Genauso, wenn du überfordert bist, wenn ich mehr als 3 Quotes in einem Beitrag poste.


Na vielleicht waere es anstaendiger ab und zu etwas mehr mitzulesen denn ich hatte den Anstand mich zu entschuldigen dass ich tape out mit design-Fertigung falsch verstanden hatte
Na vielleicht waere es anstaendiger ab und zu die Meinung/Spekulation anderen zu höhren und verstehen zu wollen, anstatt sie als Troller, vertrehter, Trottel oder sonst wie zu bewerten und als unglaublich allwissender Mensch nur mit jenen Informationen "weiterzuspekulieren", an die du nur hoffst.
Das man gerade dir Märchen erzählen kann, ist nichts neues. Das war ja bei Fermi auch nicht anders, wo du Charlie als Trottel beschimpftest/hetzte und ihr lange noch mit der Fermi-215W-TDP-750Mhz @ Nov 2011 (oder so ähnlich) auf hohem Niveau weiterspekuliertest, obwohl die RV740-Yield & Takt-Probleme Monate lang mehr als bekannt waren. Aufbauend zu den GT200a und GT200b-Problemen.

Oder als du mir letztens mal ungerecht eine Strafe wegen deiner verfehlten Kommunikation gabst. Du wirst es nicht glauben, aber ich hatte deine Entschuldigung nicht mitbekommen.
Dein Missbrauch als Moderator ist ja schon daran zu erkenne, weil du dich entschuldigst. Man muss sich nicht entschuldigen, wenn man nichts falsches macht oder sagt. Eine Falsche Information in einem Spekulationsforum ist noch lange nichts falsches. Ich betone. Eine (oder sehe wenige)

Aber ich hätte die eEtschuldigung sowieso nicht angenommen.
Denn wieso sollte ich in Zukunft wieder von dir beschimpfen & bestrafen lassen, wenn du was nicht verstehst, wenn dich deine Quellen wieder mal verarschen.

Dass ein Moderator einen User als Lügner & grenzwertiger Troller und Verdrehter beschimpft, und dabei blöderweise falsch liegt, ist schon absoluter Worst-Case bzw. Komplett Versagen eines Moderators, der eigentlich aufkeimnede Missstimmung durch Ansprechen gezielter Personen im Keim ersticken sollte.
Na ja, zumindestes im Realen Leben.
Vorallem hat es bei dir nichts gebracht, deinen Beschimpfungen & Trollerein aus dem Weg zu gehen und nicht darauf zu reagieren bzw. immer wieder wegen dir Wochen bzw. Monate Threads zu meiden. Ganz im gegenteil. Es wurde schlimmmer.

boxleitnerb
2012-04-27, 00:52:11
Ist ja nett, dass du mich zitierst, aber das war natürlich auf den großen Chip bezogen. Zu dem Zeitpunkt war praktisch niemandem klar, dass der kleine Chip zuerst kommt. Das hast du zwar angezweifelt, aber ich ging zu dem Zeitpunkt nicht damit konform.

Gaestle
2012-04-27, 08:54:59
IMHO doch, AFAIR wurde relativ früh relativ klar angedeutet, dass dieses mal die kleineren Kepler-Derivate zuerst kommen und Kepler selbst danach.

===

Ich finde es nicht gut von aylano, Ail hier in dieser Form zu kritisieren. Ails Tonfall ist manchmal sehr harsch. Da stimme ich zu, das betrifft/betraf auch seinen Ton gegenüber anderen Ex-Membern. Das finde ich auch nicht gut.
ABER: Ich finde es unmöglich, seine Aussagen teilweise zu verdrehen und ihn gleichzeitig dafür verantwortlich zu machen, wenn andere seine Posts ignorieren oder nicht verstehen (können oder wollen).

Beispiel: die Aussage, dass TaitiXT 50% über 580GTX läge und wie lächerlich das wäre, wenn man auf die FLOPS schielt. Es ist seit mehreren Jahren klar, das es einen Unterschied zwischen FLOPs und Spieleleistung gibt, weil schon die 6790 etwa doppelt so viele (SP)FLOPS wie GTX580 hatte und auch beider 5000er Serie war das so (bei der 4000er auch schon?). Und es ist IMHO auch klar, das sich Ail auf die Spieleleistung und eben nicht auf die FLOPS bezieht. Und wie sieht die Spieleleistung von TaitiXT aus? 30% über GTX580. Trotz der vielen schönen FLOPS.

PS @aylano: Deine Zitate sind für mich unbrauchbar, weil ich nicht die Standardeinstellung des Forums nutze, deshalb bringen Links zu kompletten seiten für mich gar nix. Jeder Post hat eine eindeutige Identifikationsmarke. Die Nutzung dieser Marke wäre für eine Nachvollziehbarkeit der Herkunft Deiner Zitate besser. Ansonsten: Ich kenne Ail seit über 11 Jahren (schon aus anderen Foren). Er war immer auffallend gut informiert und seine direkten und indirekten Leaks trafen außergewöhnlich häufig schon außergewöhnlich früh die spätere Realität (aber natürlich auch nicht immer). Du kannst es von mir aus "Phantasie" und "Träumerei" nennen. Ich vermute eher gute Quellen.

boxleitnerb
2012-04-27, 09:00:08
Meinst? Das war 9 Monate vor Release. Angedeutet vielleicht, aber die Mehrheit hat sicher nicht daran geglaubt ;)

Gaestle
2012-04-27, 09:08:39
Ja, aber:
Andeuten und glauben sind IMHO zwei verschiedene Paar Schuhe. Die Andeutung war IMHO recht klar. Du kannst dem Andeutenden nicht ankreiden, wenn andere ihm nicht glauben.

Und der Strategiewechsel war/ist vor allem auch logisch nachvollziehbar, nach den Problemen mit Fermi und angesichts des Verzichts auf High-End-Chips bei AMD.

Ailuros
2012-04-28, 08:33:47
Aha, ich soll ein Lügner & grenzwertiger Troll sein?
Wer bestimmt und definiert die Gerüchte?

Ich hab zumindest nirgends hier im Forum jemand behaupten sehen dass GK104 nur 120-130W verbrauchen soll. Nochmal da ich fuer die Mehrzahl an relevanten GK104 Teil-Infos verantwortlich war (und es hat sich auch gezeigt inwiefern sie genau daneben lagen), war die GENAUE Behauptung dass nur der chip etwas unter 150W verbraucht wobei betont wurde dass Speicher und andere Bestandteile auch noch zum Stromverbrauch beitragen werden. Das erste ist und bleibt eine Luege und das zweite eine so akkurate wie moeglich Illustrierung der Realitaet ohne dass es noch einen offiziellem launch zum diesem Zeitpunkt gab.

Du als Moderator? Ein Moderator hat nicht die Aufgabe die Information zu überwachen & kontrollieren, was spekuliert werden darf und was nicht, sondern jene Leute zu bestrafen die andere als Lügner & gernzwertiger Troll hetzen!!!

Moderation hat hier gar nichts mit dem Thema zu tun. Wenn ueberhaupt irgendwo ein 120-130W TDP behauptet oder spekuliert wurde in der Vergangenheit, dann habe ich es wohl mit dem obrigen beantwortet. Und ja Du kannst von mir aus stundenlang die Datenbank hier dafuer aufsuchen.

Bevor du jetzt weiter Forenregeln brichst und mich weiter als Blöd darstellst sowie mir Lügen & Grenzen an Trollerei vorwirfst, solltest du auch einmal wissen, dass GF104 nur 120W bei 160W-TDP/MCP hatte.

Tud mir leid aber ich bin extrem allergisch gegen jeglichen Versuch etwas zu verdrehen ueberhaupt wenn es sich um den Mist handelt den wir hier alle vermitteln. Sonst was den eigentlichen Stromverbrauch von GK104 betrifft bleibt es beim obrigem.

Also, einerseits hatte der GK104 Vorgänger nur 120W-Spieleverbrauch. (Daher die 120W) und andererseits verbrauchte er von den angegeben TDP nur 120/160=0,75 davon.

Der offizielle TDP fuer GF104 ist bei 160W.

Du sollst nicht gleich andere als Lügner und Trollerei bewerten, wenn du in der Spekulation wieder logisches nicht verstehst, da TDP nicht gleich automatisch Spiele-Verbrauch bzw. W nicht gleich automatisch TDP ist.
Es war nirgends klar, dass die 170-180W wie beim Vorgänger ebenfals TDP gemeint war und somit 120-130W-SPieleverbrauch bedeuten können. (Schließlich kann man auch nicht automatisch ein +50%-Stromverbrauch bei GK110 annehmen und alle als Troll bezeichnen, die einen realen Spiele-verbrauch unter 375W für möglich halten.

Nochmal der originale Absatz:

Die Gerüchte von 120-130W-300$-GK104 mit einer ca. 10% geringere Performance als HD7970 für Ende Jänner waren die Basis um die HD7970 als überteuer darzustellen.
Damals wurde man schon fast als Troll angesehen, wenn man diese Gerüchte etwas mehr als im Ansatz anzeifelte.



Also Moderator kannst vielleicht paar User rausperren oder Gerüchte andererseiten zensieren, aber die Wahrheit kann man nicht ignroieren, egal wie viel du träumst.
Spätestens nach deinen Fermi-Lügen (wo ich sogar monatelang den Thread komplett meidete, um deinen Beschimpfungen & Trollerein und Strafen zu entgehen) hättest du aus deinen damaligen Fehlern lernen können und nicht mit der 300$ Lüge zu wiederhohlen und die extremen Fertigungsproblemen während des gesamten Jahres zu ignorieren.

Die $300 Affaere war keine Luege; NV plante tatsaechlich das Teil anfangs aggressiv auf den Markt zu setzen, aber natuerlich unter der Vorraussetzung dass sie extra Kapazitaeten von TSMC dafuer bekommen. Und ja natuerlich klang es von Anfang too good to be true, aber tud mir leid das originale marketing-Material fuer den stornierten launch fuer die CES erwaehnte einen $299 MSRP.

Nicht umsonst hatte ich schon damals (Mitte 2011) aufgrund den Massiven Verspätungen und Problemen und den vermuteten Kapazitätsproblemen aus dem 40nm-AMD-Ramp (Neue Fertigung bei neuer Architektur) sogar nur geringer Performance-Zuwächse für Möglich gehalten, während andere das niemals glaubten und teils noch an +100% hofften. (siehe nächsten beiden Beiträgen)

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=492112&page=16
aylano - Juni-2011
Also, die Frage bleibt, ob Nvidia & AMD gleich zum Start Big Dies (350-500mm²) rausbringt.
Da wäre ich mir nicht so sicher.
200-350mm²-Dies mit 15-35%-Mehr-Performance (+ ?%-Mehr-Performance durch Architektur-Verbesserungen) & weniger Stromverbrauch klingt IMO für Anfang 2012 vernünftiger/realistischer.

Und z.B. boxleitnerb dazu.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=492112&page=16
Nur 30% mehr als die 580 GTX? Nie im Leben. Oder erwartest du von der 7970 auch nur 30% mehr als von der heutigen Generation?
Ich schätze 70-80%, hoffe auf 90-100%.



Was für ein Lügner bist du. Natürlich spekulierten zuerst alle von Big-CHips, als sie von Kepler sparchen. So wie es die letzten Jahre war. Das hast du ja genauso angedeutet.

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=492112&page=19
July-2011
Unter normalen Umstaenden sollte Kepler's Ziel sein bis zu 2x Mal Fermi Leistung zu erreichen; wenn alles nach Plan laufen sollte klingt es auch gar nicht so merkwuerdig denn der Schritt von 40 auf 28nm (ueberhaupt da 32nm entfallen ist) ist alles andere als klein.
Kepler soll laut NV's roadmap in DP 2.5x Mal potenter sein als Fermi. Tesla 2050 = 515 GFLOPs/s * 2.5x = 1287.5 GFLOPs/s
Umgekehrte spekulative Mathe:
1024SPs * 1 FLOP (fuer DP) * 1.26GHz = 1290 GFLOPs, wobei die Tesla 2050 auch nur bei 1.15GHz taktet.
Wenn man jetzt die These weiterstrickt waere etwas wie [16*(4*16-3 warp schedulers)] vielleicht gar nicht so bloed.

Übrigend, selbst in Dezember-2011 glaubtest auch du noch an Hotclock
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=492112&page=69
Wieso sollte NV den hotclock schon jetzt aufgeben?

Natürlich gibts von dir recht wenig genaue Angaben, da man sonst deine beschränkte mathematische Logik erkennt.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=492112&page=69
Wieso sollte NV den hotclock schon jetzt aufgeben? Zwar handelt es sich um eine alberne Milchmaedchen-rechnung denn GPUs bestehen NICHT nur aus ALUs, aber ich hab im Fall von TahitiXT 2048SPs@925MHz die (insgesamt als GPU und nicht nur ALUs) schaetzungsweise 50% mehr Leistung liefern als eine GTX580 mit 512SPs@1.544GHz.

3.79 TFLOPs = 1.581 TFLOPs +50%
Da würden jetzt die 12 jährigen lachen, die gerade Variablen (a,b) lernten und somit wissen, dass eine Gleichung immer richtig (linke Seite = rechte Seite) sein muss.
Wenn das jetzt zu Mathematisch und kompleziert war, könnte man die Varibalen auch AMD-TFLOPS und Nvidia-TFLOPS nennen. [/i]
3.79 AMD-TFLOPs = 1.581 Nvidia-TFLOPs * 1,50%

Dass du mich dann oft als Troller beschimpfts, wundern mich ebenso nicht. Genauso, wenn du überfordert bist, wenn ich mehr als 3 Quotes in einem Beitrag poste.

Och tob Dich gerne aus. Und ja natuerlich glaubte ich nicht bis zu einem Punkt dass sie hotclock schon bei Kepler entbehren. Bis zu einem Punkt war jegliches relevante Gefluester erst nach Maxwell angeschlagen.


Na vielleicht waere es anstaendiger ab und zu die Meinung/Spekulation anderen zu höhren und verstehen zu wollen, anstatt sie als Troller, vertrehter, Trottel oder sonst wie zu bewerten und als unglaublich allwissender Mensch nur mit jenen Informationen "weiterzuspekulieren", an die du nur hoffst.
Das man gerade dir Märchen erzählen kann, ist nichts neues. Das war ja bei Fermi auch nicht anders, wo du Charlie als Trottel beschimpftest/hetzte und ihr lange noch mit der Fermi-215W-TDP-750Mhz @ Nov 2011 (oder so ähnlich) auf hohem Niveau weiterspekuliertest, obwohl die RV740-Yield & Takt-Probleme Monate lang mehr als bekannt waren. Aufbauend zu den GT200a und GT200b-Problemen.

Na mal sehen wie lange die quote-Orgie noch weitergeht.

Oder als du mir letztens mal ungerecht eine Strafe wegen deiner verfehlten Kommunikation gabst. Du wirst es nicht glauben, aber ich hatte deine Entschuldigung nicht mitbekommen.
Dein Missbrauch als Moderator ist ja schon daran zu erkenne, weil du dich entschuldigst. Man muss sich nicht entschuldigen, wenn man nichts falsches macht oder sagt. Eine Falsche Information in einem Spekulationsforum ist noch lange nichts falsches. Ich betone. Eine (oder sehe wenige)

Aber ich hätte die eEtschuldigung sowieso nicht angenommen.
Denn wieso sollte ich in Zukunft wieder von dir beschimpfen & bestrafen lassen, wenn du was nicht verstehst, wenn dich deine Quellen wieder mal verarschen.

Dass ein Moderator einen User als Lügner & grenzwertiger Troller und Verdrehter beschimpft, und dabei blöderweise falsch liegt, ist schon absoluter Worst-Case bzw. Komplett Versagen eines Moderators, der eigentlich aufkeimnede Missstimmung durch Ansprechen gezielter Personen im Keim ersticken sollte.
Na ja, zumindestes im Realen Leben.
Vorallem hat es bei dir nichts gebracht, deinen Beschimpfungen & Trollerein aus dem Weg zu gehen und nicht darauf zu reagieren bzw. immer wieder wegen dir Wochen bzw. Monate Threads zu meiden. Ganz im gegenteil. Es wurde schlimmmer.

Bist Du fertig? Wenn ja kannst Du erstens Beitraege melden, zweitens Dich auch bei der Administration beschweren und solche langwierige Quote-Orgien auch per PM z.B. ausfuehren. Nichts dass ich etwas dagegen habe dass so etwas oeffentlich ist, aber es hat trotz allem nichts mit dem Thema zu tun.

Ja, aber:
Andeuten und glauben sind IMHO zwei verschiedene Paar Schuhe. Die Andeutung war IMHO recht klar. Du kannst dem Andeutenden nicht ankreiden, wenn andere ihm nicht glauben.

Und der Strategiewechsel war/ist vor allem auch logisch nachvollziehbar, nach den Problemen mit Fermi und angesichts des Verzichts auf High-End-Chips bei AMD.

Es muss leider zurueck zum GK110 so bald wie moeglich kommen, aber hier die erste offizielle Bestaetigung dass die hotclocks verschwunden sind:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9080444&postcount=1483

Hades11
2012-04-28, 10:46:11
Dass ein Moderator einen User als Lügner & grenzwertiger Troller und Verdrehter beschimpft
es gibt einen unterschied zwischen beschimpfungen und wahren Personenbeschreibungen, und so wie du dich hier aufführst wundert es mich dass dein account nicht komplett gesperrt wurde. :uconf:
und dabei blöderweise falsch liegt, ist schon absoluter Worst-Case bzw. Komplett Versagen eines Moderators
Falsch gelegen hat Ail damit aber nicht und ein komplettversagen hat hier höchstens dein Hirn :P
der eigentlich aufkeimnede Missstimmung durch Ansprechen gezielter Personen im Keim ersticken sollte.
ich habe schon unterhaltsamere verschwörungstheorien gehört, aber keine sinnloseren.

V2.0
2012-04-28, 12:26:51
Als hier über 299$ Listenpreis für GK104 spekuliert wurde, kannte NV nicht die Preise von Tahiti, kannte nicht die Probleme bei TSMC. 300$ war ein Ziel für einen problemlosen Ramp von 28nm @ TSMC und eine hinreichende Verfügbarkeit von Wafern für NV. Beides ist nicht eingetreten.

Abgesehen davon muss mal klar sein. Wer spekuliert, kann nicht lügen. Wer aber in solchen Threads Infos weiter geben möchte, und wir alle sollen froh sein dass es solche Menschen gibt, muss manchmal einer Quelle glauben und muss manchmal schwammig formulieren. Abgesehen davon gilt: Wer das Forum und die Moderation nicht mag, kann gerne gehen.

Hades11
2012-04-28, 13:18:09
... Wer das Forum und die Moderation nicht mag, kann gerne gehen.
genau!

Ailuros
2012-04-28, 14:02:37
Hades,

Es ist zwar gut gemeint aber ich muss trotzdem vor persoenlichen Angriffen warnen und Dich und auch jeden anderen beten Euch davor fernzuhalten.

Und da es leider so langsam zu bunt wird:

Bitte zurueck zum Thema.

DavChrFen
2012-04-28, 22:39:08
Über die dreijährige Zusammenarbeit zwischen NVIDIA und TSMC hinweg haben beide Unternehmen ein sogenanntes Production Qualification Vehicle (PQV) entwickelt, dass es beiden Unternehmen erlaubte das Design und die Fertigung über die verschiedenen Phasen des Prototyping hindurch zu optimieren - schon weit bevor der erste Tape-Out stattfand.

Laut eigenen Angaben hat NVIDIA vor kurzem das erste PQV für den 20-nm-Prozess erhalten und hofft somit die Ausbeute und Effizient kommender GPUs weiter verbessern zu können. von Hardwareluxx (http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/22337-nvidia-spricht-ueber-die-28-nm-fertigung-von-kepler.html)

Ist das das übliche Prozessverbessern oder steckt da mehr dahinter?

boxleitnerb
2012-04-29, 00:00:30
Bei den dicken Chips, die immer mehr in Richtung HPC gehen ist ja der Aufwand, den man für die Gamingperformance betreiben muss, ein Problem. Also Fläche und Verbrauch. Wäre es denkbar, letzteres dadurch einzudämmen, dass man per feiner einsetzbarem Powergating z.B. die DP-Einheiten gezielt deaktiviert auf einer Geforce? Eben alles, was der Spieleperformance nicht zuträglich ist, aber dennoch Strom frisst.

Gipsel
2012-04-29, 00:55:09
Klingt eher unrealistisch. Powergating erfordert erheblich mehr Aufwand als Clockgating (das in letzter Zeit immer feiner gemacht wird), immerhin muß zu jedem schaltbaren Block die Stromzufuhr einzeln unterbrochen werden können (und die Transistoren, mit denen man Strom zur Versorgung von z.B. 10 Watt schalten kann sind vergleichsweise riesig). Das in jedem SM einzeln zu machen, da rechtfertigt die Ersparnis den Aufwand wohl lange nicht.
In meinen Augen wäre es sinnvoller, gar keine extra DP-Einheiten zu verbauen, sondern einfach sogenannte multi precision Einheiten zu nutzen (die sowohl SP als auch DP können, nur eben unterschiedlich schnell). Insbesondere bei einem SP/DP-Verhältnis von 4:1 oder 2:1. Da macht es wenig Sinn, je nach geforderter Präzision die Hälfte der Einheiten brach liegen zu lassen. ;)

Skysnake
2012-04-29, 01:19:31
Seh ich absolut gleich wie Gipsel.

Mich hats ja schon gewundert, das Sie überhaupt bei GK104 zu dezidierten Einheiten für DP gegriffen haben, wobei ich das immer noch für etwas seltsam empfinde.

Gipsel
2012-04-29, 01:42:43
Seh ich absolut gleich wie Gipsel.

Mich hats ja schon gewundert, das Sie überhaupt bei GK104 zu dezidierten Einheiten für DP gegriffen haben, wobei ich das immer noch für etwas seltsam empfinde.
Das ist aber nur 1:24, das ist nicht so viel extra.
Bei GK104 ist meiner Meinung nach aber auch noch irgend was im Busch. Die offiziellen Issue-Raten passen nicht zu sechs vec32-ALUs, welche auch nicht zu den auf dem Dieshot erkennbaren acht physisch getrennten Registerfiles in einem SMX passen (192 ALUs [6*32] aber 168 Integer ADDs oder 136 logische Operationen pro Takt? WTH?!?). Da geht irgendwas Komisches vor (habe zwar eine Idee, aber die klingt mir selbst bisher noch wenig überzeugend). Ich warte ja noch auf einen wirklichen in-depth Artikel, der mal die Instruktionsraten in allen möglichen Kombinationen vermißt (SP und DP im Mix, SP mit allen verschiedenen Int-Instruktionsklassen im Mix), um rauszubekommen, was davon wirklich in eigenen, spezialisierten ALUs ausgeführt wird. Dazu das Ganze am besten schön langsam erstmal nur für einen Warp, dann zwei und immer mehr, um zu sehen, auf wieviele ALUs jeder Scheduler Zugriff hat und wie hoch die Latenzen für jede Instruktionsklasse sind.

Skysnake
2012-04-29, 11:58:26
Vielleicht hilfts dir diese Information ja weiter:

Bezieht sich jetzt auf den Salvage-Part des GF100. Man hat ja bis zu 16 SMs mit bis zu 32 parallelen Wavefronts in der Hardware.

Man kann ja einen Deadlock erzeugen, indem man einfach 32+x Wavefronts hat, die bussy-waiting machen, weil man kein preemptive-sheduling hat.

Bei dem Salvage-Part mit nur noch 14 SMs sollte man ja davon ausgehen, dass es nur noch 28 parallele Wavefronts geben darf, damit es zu keinem deadlock kommt. Real kann man aber auch die 32 Wavefronts hier nutzen, ohne das es zu einem Deadlock kommt :ugly:

Hab ich vor ein paar Tagen bei der Arbeit an der Uni herausgefunden.

Hilft dir vielleicht weiter bei deinen überlegungen, weil eben die Sheduler wohl doch nicht so fix an die SMs gebunden sind, wie man das meinen könnte ;)

boxleitnerb
2012-04-29, 12:09:28
Und was spricht gegen die Verwendung solcher multi-precision Einheiten? Warum wird das nicht schon angewandt? Klingt für mich wie die eierlegende Wollmilchsau.

Skysnake
2012-04-29, 12:11:40
Weil du zusätzliche Hardware dafür benötigst.

Das ist halt einfach eine Abwägung. Wieviel Transistoren brauch ich wenn ich dezidierte Rechenwerke nutze, und wieviel wenn ich das in ein Rechenwerk mit mehr Funktionalität packe.

Je nach Gewichtung der Modi ist mal das eine mal das andere wohl besser.

Gipsel
2012-04-29, 12:42:51
Und was spricht gegen die Verwendung solcher multi-precision Einheiten? Warum wird das nicht schon angewandt? Klingt für mich wie die eierlegende Wollmilchsau.
Die werden doch schon benutzt. Schau Dir die AMD-GPUs an, oder so ziemlich alle CPUs dieses Planeten (insbesondere bei den Vektorerweiterungen SSE/AVX und Konsorten)! ;)

Und was Fermi wirklich intern macht, da wäre ich mir auch noch nicht so sicher.

Skysnake
2012-04-29, 13:00:00
Absolut, wie mein Beispiel mit dem Hardware-Sheduler ja zeigt. :ugly:

Als ich das bei der Kollegin gesehen hab, dachte ich mir nur WTF! das was du da gerade machst darf doch gar nicht funktionieren :ugly:

Und Sie so:" Doch das geht. Mach ich doch die ganze Zeit. Erst wenn ich über 32 geh, funktioniert das nicht"
Ich: "Ja, aber du hast doch da nur die beschnittene Version :ugly:"
Sie:" hmm stimmt.... Es funktioniert aber :D"

Also die Dinger sind wirklich IMMER noch für ne Überraschung gut :ugly:

Gipsel
2012-04-29, 13:01:53
Bezieht sich jetzt auf den Salvage-Part des GF100. Man hat ja bis zu 16 SMs mit bis zu 32 parallelen Wavefronts in der Hardware.Da weiß ich jetzt nicht so genau, was Du meinst.
Fermi kann bis zu 48 Warps pro SM laufen lassen (wenn nichts limitiert). Mehrere Warps werden zu sogenannten Blocks zusammengefast (OpenCL: work group), in denen die work items (nv-Sprech: threads) miteinander kommunizieren können. Pro SM kann man wiederum maximal 8 Blöcke laufen lassen (wofür man eine Blockgröße von 192 oder weniger nutzen muß, sonst übersteigt das das 48 Warp-Limit pro SM).

Oder meinst Du irgendwas mit dem globalen Scheduling / Work distribution auf die einzelnen SMs (Marketing-Sprech: GigaThread Engine, bei AMD heißt das Ultra Threaded Dispatch Processor :freak:)? Deren Kapazität wird natürlich durch Deaktivieren eines SMs nicht beschnitten.

Skysnake
2012-04-29, 13:41:29
Ich mein wie gesagt schon busy-Waiting, was dich auf der GPU in nen Deadlock bringt, wenn du mehr Threads hast, als Hardware-Units.

Nur eben nicht beim Salvage-Part von GF100. Da kannst du so viele Threads haben ohne Deadlock, wie der Vollausbau Hardwarethreads zur Verfügung stellt. Nicht so viele wie du ALUs hast.

Quasi sowas wie priemptive-sheduling auf Hardware, die das eigentlich nicht kann :D

Jetzt verstanden was ich meine ;)

Gipsel
2012-04-29, 15:54:45
Du meinst also, Du machst in jedem Warp global reads in einer Schleife, bis ein bestimmter Wert zurückgelesen wird?
Das sollte auch mit mehr als 32 Warps gehen, weil in den SMs ja sowieso mehrere gleichzeitig laufen (und den Wechsel zwischen denen kannst Du nur eingeschränkt verhindern, z.B. über große work groups, die Du lokal synchronisierst). Also nein, ich verstehe immer noch nicht so recht, wo das Limit auf 32 Warps herkommen soll.
Mit 14 SMs kannst Du maximal 112 workgroups parallel laufen lassen, mit 16 SMs 128 work groups. Sagt zumindest nV, ausprobiert habe ich das nicht.

Aber wir kommen vom Thema ab (PM).

AnarchX
2012-05-03, 10:53:18
will be upgraded by adding NVIDIA “Kepler” GPU application accelerators with 6 gigabytes of high speed directly attached memory.
http://www.olcf.ornl.gov/computing-resources/titan/

Möglicherweise doch nur 384-Bit? Kann aber auch ein Schreibfehler sein bzw. Salvage-Teslas.

Duplex
2012-05-03, 11:10:45
Ich dachte die Salvage Teslas haben ein 448 Bit SI ?

Iruwen
2012-05-03, 11:21:31
Ich dachte erst vielleicht sind 6Gbit gemeint, aber die wissen wohl was sie schreiben :D

Skysnake
2012-05-03, 17:16:40
Also dann doch kein 512Bit Interface, wie es scheint. Ich wüsste nicht, wie man da vernünftig 6GB unter bekommen will. Die 448 könnten aber eventuell doch stimmen. Es steht ja wegen ECC weniger RAM zu verfügung.

Was mich allerdings im Moment wirklich schockt, sind die zeitlichen Prognosen. Die hoffen Anfang 2013 das update vollzogen zu haben. WTF? :ugly:
Wenn ich mich recht erinnere haben die zuletzt immer vor dem offiziellen Launch die Sachen bekommen. Das würde dann wohl bedeuten, das es eher 2013 wird mit GK110. Das wäre schon ziemlich herb. Damit müsste man gegen die HD8k Serie antreten, und im Computebereich hätte man wohl lang nichts gegen die neuen FirePro am Start.

Vor allem soll das Ding erst mitte 2013 dann wohl in Betrieb gehen, bzw teilweise sogar erst 2014. WTF :ugly:


directly attached memory.

Das ist interessant. Ist wohl directly attached memory. Das ist sicherlich im Zusammenhang mit http://developer.nvidia.com/gpudirect zu sehen.

Gaestle
2012-05-03, 17:27:14
The second phase of the upgrade will begin in the fall of 2012 when the 960 Fermi accelerators will be removed and 14,592 of Titan’s nodes, 78 percent of the total compute nodes, will be upgraded by adding NVIDIA “Kepler” GPU application accelerators with 6 gigabytes of high speed directly attached memory.




Wieso der "Schock"? "Anfang Herbst 2012" ist doch das, was für HPC-Kepler seit längerem spekuliert wird?

Skysnake
2012-05-03, 17:42:37
Ja, Sie rechnen aber erst damit, 2013 damit fertig zu sein, und wie gesagt, die sind im Normalfall immer deutlich früher dran, als der Ottonormaluser ausm HPC-Bereich.

Man kann wohl eher damit rechnen, dass die Karten für die Allgemeinheit verfügbar sind, wenn die schon fertig sind mit Aufrüsten. Das bedeutet dann aber wohl ziemlich sicher 2013 erst, und nicht wie jetzt noch gehofft eventuell schon Q3, max Q4 2012. Ganz abgesehen davon, wenn man noch immer davon ausgeht, dass die Teslas zuerst kommen, dann kannste auf die GeForce bis mitte 2013 warten wenns dumm läuft

Zergra
2012-05-03, 17:44:48
Ja, Sie rechnen aber erst damit, 2013 damit fertig zu sein, und wie gesagt, die sind im Normalfall immer deutlich früher dran, als der Ottonormaluser ausm HPC-Bereich.

Man kann wohl eher damit rechnen, dass die Karten für die Allgemeinheit verfügbar sind, wenn die schon fertig sind mit Aufrüsten. Das bedeutet dann aber wohl ziemlich sicher 2013 erst, und nicht wie jetzt noch gehofft eventuell schon Q3, max Q4 2012. Ganz abgesehen davon, wenn man noch immer davon ausgeht, dass die Teslas zuerst kommen, dann kannste auf die GeForce bis mitte 2013 warten wenns dumm läuft
Welchen GF betrifft es denn ? Nur Gk110 oder auch die kleineren aka 660GTX/660TI ?

Gaestle
2012-05-03, 17:51:47
GK110.

Skysnake
2012-05-03, 18:07:57
Wer redet denn hier von was anderem als GK110 im GK110 Topic, zumal für Oak Ridge eh nur GK110 in Frage kommt :ugly:

AffenJack
2012-05-03, 18:13:16
Ja, Sie rechnen aber erst damit, 2013 damit fertig zu sein, und wie gesagt, die sind im Normalfall immer deutlich früher dran, als der Ottonormaluser ausm HPC-Bereich.

Man kann wohl eher damit rechnen, dass die Karten für die Allgemeinheit verfügbar sind, wenn die schon fertig sind mit Aufrüsten. Das bedeutet dann aber wohl ziemlich sicher 2013 erst, und nicht wie jetzt noch gehofft eventuell schon Q3, max Q4 2012. Ganz abgesehen davon, wenn man noch immer davon ausgeht, dass die Teslas zuerst kommen, dann kannste auf die GeForce bis mitte 2013 warten wenns dumm läuft

Sie rechnen damit Anfang 2013 das System den usern bereitzustellen, während ab Herbst 2012 Kepler eingebaut wird. Was dazwischen passiert, wie lange das System vll vorher noch getestet, validiert wird bevor es Usern zur Verfügung gestellt wird steht da nicht.
Genausowenig steht da, dass das Ding erst 2014 in Betrieb gehen soll, sondern dass dies mal der Plan war und man jetzt deutlich vor dem Plan liegt.
Etwas weniger selektives lesen würde dir gut tun.

Gaestle
2012-05-03, 18:13:31
Contenance, monsieur, contenance. ;D

[Edit:] war für Skysnake.

@Affenjack
Er hat ja begründet, dass OAK immer eher an Chips kommt, als alle anderen HPC-User. D.h. wenn es (auch) für Oak erst Q3/2012 wird, wird es für normale HPC-Großkunden vielleicht erst Q4/2012-Q1/2013 und für Gamer erst Q1-Q2/2013.

Ich kann mir aber nicht vorstellen, dass der "normale Oak-Vorspung" wirklich 3-6 Monate ist.

Skysnake
2012-05-03, 18:36:42
Doch, der ist schon teilweise verdammt groß von solchen Laboren/Institutionen.

Ich weiß jetzt nicht wer es war, aber erinner dich mal an SB-E Xeons, wann die auf den Markt gekommen sind, und wann die ersten Superrechner damit ausgestattet wurden. Da waren gut und gerne 6 Monate dazwischen.

Die sind schon immer signifikant früher dran, da Sie ja auch Linpack auf dem Teil optimieren müssen, um ein möglichst gutes Ranking in den Top500 zu erreichen, was dann nVidia auch wieder in den Kram passt.

Sie rechnen damit Anfang 2013 das System den usern bereitzustellen, während ab Herbst 2012 Kepler eingebaut wird. Was dazwischen passiert, wie lange das System vll vorher noch getestet, validiert wird bevor es Usern zur Verfügung gestellt wird steht da nicht.


Also ich les da folgendes:
For proposal planning purposes and assuming that acceptance of accelerated nodes occurs in March, 2013,

Man solle also mit März 2013 rechnen, dass die GPU-Nodes funktionieren und abgenommen/verifiziert sind


The OLCF expects to have CPU resources available for the entire CY 2013

CPUs sollen also 2013 komplett nutzbar sein für die Nutzer


and GPU resources available as soon as acceptance is completed, probably in the first half of the year.

Tja und GPUs eben irgendwann in der ersten Hälfte von 2013. Wenn man das vorher mit dazu nimmt, also irgendwann in Q2 2013 wohl.


Genausowenig steht da, dass das Ding erst 2014 in Betrieb gehen soll, sondern dass dies mal der Plan war und man jetzt deutlich vor dem Plan liegt.
Etwas weniger selektives lesen würde dir gut tun.


This is well in advance of the plan-of-record commitment to place the Kepler-accelerated nodes into production use by January 1, 2014.
Gut mit 2014 hab ich mich verlesen. Auf steinigt mich...

Duplex
2012-05-03, 20:19:36
Es wäre dumm wenn GK110 erst 2013 kommen soll, afaik soll GK104 & GK110 von der GPU Architektur fast gleich sein, GK104 verbraucht wenig Strom & ist nur 290mm² groß, GK110 wird ca. 250W TDP & ein größeres DIE ca. 550mm² haben (bis zu 90% mehr DIE Space, 512Bit, 4GB, 3072 GPU Shader, 64 ROPS), mit den kleinen Kepler Chips für den OEM/Mobile Bereich & GK104 Mainstream hat man bereits erfahrung gesammelt, länger als 6 Monate Abstand GK104 > GK110 sollte man nicht brauchen, alles andere passt nicht zu Nvidias Strategie, Skysnake ich würde vorsichtiger sein, niemand wird dir glauben das GK110 erst 2013 kommen wird :rolleyes:

Neurosphere
2012-05-04, 09:10:48
Für nV wäre es allerdings nicht schlimm wenn der Chip erst 2013 kommt. Solange ATI nichts bringt was nV in Zugzwang bringt sind sie nicht gezwungen im Moment irgendwas auf den Markt zu werfen.

Ich warte auch auf GK110, aber man muss sich nunmal den Markt im Moment angucken. Es kann gerne nen Jahr vergehen zwischen verschiedenen Chips. Zwischen GF100 und GF110 lagen auch 8 Monate und so wies im Moment aussieht wird nV den GK110 auch mehr als eine art Refresh von Kepler in den Markt werfen.

drmaniac
2012-05-04, 10:08:59
mit der anscheinend sehr gut gemachen 690.... hat nvidia doch sicherlich überhaupt keinen Druck den GK110 schnell auf den Markt zu schmeissen. 680+690 decken "oben" doch alles ab.

oder?

Dural
2012-05-04, 10:16:15
vorallem was hat GK110 mit Titan zutun, meint ihr wirklich die warten auf den Chip um das Update durch zu führen? Das ist ein Termin der sicher schon lange feststeht und ja natürlich in absprache mit NV ob die nötigen Produkte dann auch lieferbar sind, das heist aber noch lange nicht das GK110 erst dann kommt.

Coda
2012-05-04, 10:25:35
Es wäre dumm wenn GK110 erst 2013 kommen soll, afaik soll GK104 & GK110 von der GPU Architektur fast gleich sein
Eben nicht. GK110 bringt einiges mehr für Compute.

V2.0
2012-05-04, 11:05:02
mit der anscheinend sehr gut gemachen 690.... hat nvidia doch sicherlich überhaupt keinen Druck den GK110 schnell auf den Markt zu schmeissen. 680+690 decken "oben" doch alles ab.

oder?

Im GeForce-Markt besteht da kein Druck, im HPC, Tesla, Quadro Segment sieht es aber anders aus.

aufkrawall
2012-05-04, 12:39:14
Eben nicht. GK110 bringt einiges mehr für Compute.
Vielleicht auch ne korrekte negative LOD-Verschiebung? ;)

Coda
2012-05-04, 13:35:00
Sehr wahrscheinlich nicht. Das Verhalten des Texturfilters wurde seit G80 nicht mehr geändert.

Gaestle
2012-05-04, 21:28:29
Ich lese das positiver als skysnake.

Ich kann natürlich seine Argumente nachvollziehen, mit der Anpassung von Linpack und so, aber ich zweifle, ob NV sich denselben... ich nenne es mal "lag" ... wie Intel leisten will.

Die Aussage, dass die ersten HPC-Chips im Herbst kommen, deckt sich ja mit bisherigen Aussagen (Q3). Somit wie gehabt Q4/Q1 für Gamer. Ich hoffe einfach, skysnake behält unrecht. Ansonsten wäre es echt doof.

GK104 ist für HPC quasi untauglich und in deser Beziehung nicht mit GK110 vergleichbar.

Aber auch für Gamer wäre es gut, wenn GK110 so schnell wie möglich kommt.
Denn auch für Gamer lohnt sich ein GK110. Einerseits wird GK104 billiger und außerdem wird ja erwartet, dass GK110 als Single-Chip-Lösung 50% auf Single-GK104 in Games draufpackt.

Duplex
2012-05-04, 22:24:17
Eben nicht. GK110 bringt einiges mehr für Compute.
Das der Chip Einheiten für HPC im DIE hat ist mir klar, die GPU Architektur sollte doch trotzdem ähnlich sein, das ist für die Entwickler halt nicht mehr Arbeit als GF104 vs. GF110, Tapeout war doch afaik laut Ailuros vor ca. 2 Monaten, GK110 wird bestimmt zwischen Q3 bis Q4 2012 kommen.

Hades11
2012-05-06, 13:18:15
Q3 halte ich für etwas verfrüht, da werden sich vielleicht die Gerüchte verfestigen, bzw mit Benchmarkfolien (wie bei der spekulation für GK104) das rätselraten um die tatsächliche Leistung richtig losgehen. Ich halte ende Q4 für warscheinlicher. aber andererseits wird NV auch nur möglichst kurz vorher an die öffentlichkeit gehen, denn wenn bekannt ist das neue Karten kommen gehen die verkaufszahlen der "alten" ja immer zurück. So gesehen wäre Q3 durchaus noch möglich, auch wenn ich immernoch etwas mehr an Q4 glaube...

Ailuros
2012-05-07, 11:58:33
Das der Chip Einheiten für HPC im DIE hat ist mir klar, die GPU Architektur sollte doch trotzdem ähnlich sein, das ist für die Entwickler halt nicht mehr Arbeit als GF104 vs. GF110, Tapeout war doch afaik laut Ailuros vor ca. 2 Monaten, GK110 wird bestimmt zwischen Q3 bis Q4 2012 kommen.

Mussten die Spiele-Entwickler etwas anpassen zwischen GF104 und GF110? (ehrliche Frage). Wenn ja (was ich aber bezweifle denn solches Zeug regelt normalerweise der Treiber) dann wird es auch zwischen GK104 und 110 nicht anders sein.

GK110 hat andere ALUs als die GK10x chips, dass es aber dedizierte HPC only Einheiten haben wird will ich bezweifeln. Ein anderes ALU layout, etwas mehr Faehigkeiten und natuerlich ganz andere cache Mengen bzw. surrounding logic pro SMX.

Was jetzt wirklich mit den yields fuer 28HP fuer NVIDIA ausschliesslich los ist hab ich keine Ahnung. Charlie hat seine These bei SA darueber schon veroeffentlicht. Falls sie tatsaechlich irgendwo Mist gebaut haben dann wundert mich die miserable Verfuegbarkeit kein bisschen. So oder so NV muss zusehen um erstmal ihre Supercomputer deals mit GK110 zu decken und dann erst koennen wir ueber jeglichen moeglichen desktop launch reden. Moegliche paper launches zur Seite, es sieht mir nach wie vor blass aus fuer jegliche anstaendige desktop GK110 Verfuegbarkeit innerhalb 2012.

Godmode
2012-05-07, 13:00:40
Mussten die Spiele-Entwickler etwas anpassen zwischen GF104 und GF110? (ehrliche Frage). Wenn ja (was ich aber bezweifle denn solches Zeug regelt normalerweise der Treiber) dann wird es auch zwischen GK104 und 110 nicht anders sein.

GK110 hat andere ALUs als die GK10x chips, dass es aber dedizierte HPC only Einheiten haben wird will ich bezweifeln. Ein anderes ALU layout, etwas mehr Faehigkeiten und natuerlich ganz andere cache Mengen bzw. surrounding logic pro SMX.

Was jetzt wirklich mit den yields fuer 28HP fuer NVIDIA ausschliesslich los ist hab ich keine Ahnung. Charlie hat seine These bei SA darueber schon veroeffentlicht. Falls sie tatsaechlich irgendwo Mist gebaut haben dann wundert mich die miserable Verfuegbarkeit kein bisschen. So oder so NV muss zusehen um erstmal ihre Supercomputer deals mit GK110 zu decken und dann erst koennen wir ueber jeglichen moeglichen desktop launch reden. Moegliche paper launches zur Seite, es sieht mir nach wie vor blass aus fuer jegliche anstaendige desktop GK110 Verfuegbarkeit innerhalb 2012.

Genau sowas wollte ich hören. Jetzt hab ich kein blödes Gefühl mehr die GTX 690 zu kaufen.

AffenJack
2012-05-07, 13:23:34
Charlie hat seine These bei SA darueber schon veroeffentlicht. Falls sie tatsaechlich irgendwo Mist gebaut haben dann wundert mich die miserable Verfuegbarkeit kein bisschen

Meinst du damit Charlies letzten Artikel zur GTX680?
Der ist zumindest zum Teil hochgradig blödsinn, alleine schon, dass er schreibt es wurden nur 10k GTX680 verkauft bisher, während dass die Startmenge bei der 7970 gewesen wäre. Komisch, dass Steam als so ziemlich größte Umfrageseite jetzt schon halb soviele verkaufte GTX680 wie 7970 sieht.

Dural
2012-05-07, 13:32:56
die verzögerungen des GK110 werden meiner meinung nach eh überbewertet...

ich denke der hauptgrund für die verzögerung des GK110 im desktop markt dürfte die tatsache sein das NV derzeit auch gar nichts besseres als GK104 benötigt, 300mm2 Die für um die 500.- und 2x 300mm2 Die für um die 1000.- Euro sagen doch schon alles aus! wenn die herstellung derzeit noch eingeschränkt ist, ist es klüger mal die 300mm2 Die und kleiner raus zuhauen, der profit ist so einfach grösser.

und das man für Tesla eine deutlich längere vorbereitungs zeit benötigt dürfte ja klar sein, in der regel waren das bis jetzt immer so 3-6 monate nach den desktop GPUs :rolleyes:

Godmode
2012-05-07, 22:00:58
die verzögerungen des GK110 werden meiner meinung nach eh überbewertet...

ich denke der hauptgrund für die verzögerung des GK110 im desktop markt dürfte die tatsache sein das NV derzeit auch gar nichts besseres als GK104 benötigt, 300mm2 Die für um die 500.- und 2x 300mm2 Die für um die 1000.- Euro sagen doch schon alles aus! wenn die herstellung derzeit noch eingeschränkt ist, ist es klüger mal die 300mm2 Die und kleiner raus zuhauen, der profit ist so einfach grösser.

und das man für Tesla eine deutlich längere vorbereitungs zeit benötigt dürfte ja klar sein, in der regel waren das bis jetzt immer so 3-6 monate nach den desktop GPUs :rolleyes:

Natürlich, aber hauptsächlich liegt es wohl an der problematischen Fertigung. Warum sonst sind die GTX 680 so teuer und schlecht verfügbar. Normalerweise stellt sich da sofort eine Abwärtsspirale im Preis ein, die Händler unterbieten sich quasi täglich. Und du glaubst doch selber nicht, dass GK110 einfacher zu fertigen ist als GK104? :confused:

Wie gesagt, wollte warten, macht aber jetzt keinen Sinn mehr.

G3cko
2012-05-08, 09:41:26
@Godmode
Deine Argumentation macht keinen Sinn. Erst rumheulen wegen den Preisen, dann doch zu GTX690 greifen? Jetzt wirds ja erst richtig interessant. Wenn die 40nm Karten auslaufen wird die Karte im Preis extrem Fallen. Ende des Jahres ist die nur noch die Hälfte wert. :freak:

Besonders wenn man ein 7870 CF für 400€ zusammenstellen kann. ;)

Godmode
2012-05-08, 09:45:14
@Godmode
Deine Argumentation macht keinen Sinn. Erst rumheulen wegen den Preisen, dann doch zu GTX690 greifen? Jetzt wirds ja erst richtig interessant. Wenn die 40nm Karten auslaufen wird die Karte im Preis extrem Fallen. Ende des Jahres ist die nur noch die Hälfte wert. :freak:

Besonders wenn man ein 7870 CF für 400€ zusammenstellen kann. ;)

Rumheulen hat Sinn gemacht, weil ich dachte das GK110 früher kommt. Jetzt weiß ich dass es nicht so ist und muss mir deshalb die GTX 690 kaufen, so einfach ist das. Aber ich finde es immer noch scheisse, dass sie für so einen winzigen Chip soviel Geld verlangen. Aber was soll man machen wenn man jetzt einen neue Graka braucht, man muss eine kaufen.

Ailuros
2012-05-08, 09:49:34
Meinst du damit Charlies letzten Artikel zur GTX680?
Der ist zumindest zum Teil hochgradig blödsinn, alleine schon, dass er schreibt es wurden nur 10k GTX680 verkauft bisher, während dass die Startmenge bei der 7970 gewesen wäre. Komisch, dass Steam als so ziemlich größte Umfrageseite jetzt schon halb soviele verkaufte GTX680 wie 7970 sieht.

http://semiaccurate.com/2012/05/01/why-cant-nvidia-supply-keplergk104gtx680/

Es waren uebrigens afaik nicht 10k Tahitis beim ersten Schub aber es ist auch total unwichtig.

Vorletzter Paragraph; wenn der base layer tatsaechlich ausgetauscht werden muss wuerde es so manches erklaeren. Ich betone aber dass ich es nur als These und nicht als Theorie momentan ansehen kann, schliesse aber auch keinesfalls aus dass es stimmen koennte.

Rumheulen hat Sinn gemacht, weil ich dachte das GK110 früher kommt. Jetzt weiß ich dass es nicht so ist und muss mir deshalb die GTX 690 kaufen, so einfach ist das. Aber ich finde es immer noch scheisse, dass sie für so einen winzigen Chip soviel Geld verlangen. Aber was soll man machen wenn man jetzt einen neue Graka braucht, man muss eine kaufen.

"Muessen" ist relativ. Ist zwar OT aber wenn Du keinen >1080p Bildschirm hast ist alles >7970/680 IMHO schon ein relativer Ueberschuss. Heute eine 7970 bzw. 680 zu kaufen hat zwar den Nachteil dass man nicht die Leistung einer GTX690 erreicht, aber man hat wiederrum auch den Vorteil dass wenn die 28nm Preise fallen man weniger verliert bei hypothetischem Wiederverkauf als bei den verdammt uebertriebenen $999 einer 690.

boxleitnerb
2012-05-08, 09:56:39
Von vrzone:

The decision to rebrand GK107 into GTX 680/690 was made. Furthermore, the company decided to further increase the performance of the high-end die, giving birth to GK110. GK110 will debut in just three days, but this is the part that targets the HPC i.e. GPGPU community. We were told that the number of pre-orders for Kepler-based Tesla cards (Tesla 3000 Series) should exceed the overall number of Teslas shipped so far (over 150,000 units sold).

Read more: http://vr-zone.com/articles/how-the-geforce-gtx-690-is-a-prime-example-of-nvidia-reshaped-/15786.html#ixzz1uGM2BFKz


Sollte wohl GK104 heißen statt GK107. Ansonsten wenig Neues, nur die Nachfrage nach den Kepler-Teslas überrascht etwas. Da wird der Desktop 2012 wohl wirklich leer ausgehen :(

V2.0
2012-05-08, 09:58:34
Charlies There wird mit dem Launch der 670 wohl dem Realitätstest unterzogen.

Ailuros
2012-05-08, 10:12:49
Von vrzone:



Sollte wohl GK104 heißen statt GK107. Ansonsten wenig Neues, nur die Nachfrage nach den Kepler-Teslas überrascht etwas. Da wird der Desktop 2012 wohl wirklich leer ausgehen :(

Sobald ich den Author sehe kommt sofort das uebliche :rolleyes:

Dass NV insgesamt projeziert einen Haufen an Kepler/Teslas zu verkaufen ist kein besonderes Geheimnis aber die ersten Verpflichtungen sind nie und nimmer so hoch wie 150k (und ja natuerlich meint es Theo nicht so, aber der Leser kann es auch leicht falsch verstehen). Der erste Schub um HPC Vertraege zu decken duerfte um die 20k liegen, welches eine ziemlich grosse Anzahl ist wenn man bedenkt wie gross der die ist. Angenommen man akzeptiert die eher grosszuegige Menge vom allerersten Tahiti Schub von 10k, sind 20k im Vergleich zu diesem immer noch riesig egal ob GK110 um einiges spaeter in die Massenproduktion kommt als Tahiti.

Sonst ist der angebliche GK100 Scheiss typischer Schwachsinn der aus Theo's zu lebendinger Phantasie originiert. Es wurde auch kein GK104 "umbenannt". Es war zumindest fuer den stornierten Februar launch als GTX680/2GB auf vendor roadmaps angegeben und dieses mit absoluter Sicherheit.

Wenn GK110 tatsaechlich in die 700-er Namen-Region kommt, dann war es eine Entscheidung die schon vor Jahren getroffen wurde, zumindest zum Zeitpunkt (Q3 09') wo es absolut klar war dass man Fermi/GF100 total falsch angepackt hat.

G3cko
2012-05-08, 10:15:38
@OT
Die 7970 ist die bessere Wahl. 2GB bei der GTX690 sind einfach zu wenig für knapp 1000€ und die 420€ für die 7970 mögen noch halbwegs ok sein. 300€ für die 7950 mit 3GB sind ein guter Preis und der Wertverlust wäre wirklich deutlich geringer. Vielleicht wäre die die richtige "Übergangskarte" bis GK110. ;)

Ailuros
2012-05-08, 10:31:31
@OT
Die 7970 ist die bessere Wahl. 2GB bei der GTX690 sind einfach zu wenig für knapp 1000€ und die 420€ für die 7970 mögen noch halbwegs ok sein. 300€ für die 7950 mit 3GB sind ein guter Preis und der Wertverlust wäre wirklich deutlich geringer. Vielleicht wäre die die richtige "Übergangskarte" bis GK110. ;)

Von einer Preis-/Leistungs-/Verfuegbarkeit Perspektive ist die 7970 durchaus die bessere Wahl, aber der Punkt mit der Speichermenge ist nutzlos so lange eine GTX690 mit ihren 2GB pro alternating frame nirgends (sogar mit SSAA) im Vergleich zu 2*7970CF (2*3GB) irgendwo stockt. Fast 1000 Euro heute fuer eine GPU grenzen an den Wahnsinn.

Godmode
2012-05-08, 10:44:29
Von einer Preis-/Leistungs-/Verfuegbarkeit Perspektive ist die 7970 durchaus die bessere Wahl, aber der Punkt mit der Speichermenge ist nutzlos so lange eine GTX690 mit ihren 2GB pro alternating frame nirgends (sogar mit SSAA) im Vergleich zu 2*7970CF (2*3GB) irgendwo stockt. Fast 1000 Euro heute fuer eine GPU grenzen an den Wahnsinn.

2 GTX 680 kosten genau so viel, sind lauter, brauchen mehr Strom und Platz und sind nicht so schön ;)

G3cko
2012-05-08, 10:45:31
Bei der 4870X2 hat man auch mal geglaubt der VRAM reicht. AMD bietet 2GB seit über einem Jahr im 200€ Bereich als Standard an. Und die VRAM-Menge kann man auch als eine Art Standard sehen. Erst wenn man neue Grenzen überschreitet/setzt werden auch die Softwarehersteller mitziehen. Und dann mag die Rohleistung der Karte vielleicht noch reichen, aber die 2GB sicherlich nicht. Oder glaubt Jemand ernsthaft, dass die nächste High-End Karte von Nvidia noch auf 2GB setzen wird? Oder diese performancetechnisch die GTX690 schlägt?

Ailuros
2012-05-08, 11:02:56
Bei der 4870X2 hat man auch mal geglaubt der VRAM reicht. AMD bietet 2GB seit über einem Jahr im 200€ Bereich als Standard an. Und die VRAM-Menge kann man auch als eine Art Standard sehen. Erst wenn man neue Grenzen überschreitet/setzt werden auch die Softwarehersteller mitziehen. Und dann mag die Rohleistung der Karte vielleicht noch reichen, aber die 2GB sicherlich nicht.

Ich sehe aber immer noch keinen anstaendigen Beweiss dass die 690 in heutigen Applikationen im Nachteil liegt. Und damit wir es endlich auf eine logischere Basis setzen die 7970 hat NICHT 3GB framebuffer weil sie es braucht, sondern weil man eben normalerweise 2GB schlecht an einen 384bit bus verbinden kann.

http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-690/4/#abschnitt_leistung_mit_aaaf


Oder glaubt Jemand ernsthaft, dass die nächste High-End Karte von Nvidia noch auf 2GB setzen wird? Oder diese performancetechnisch die GTX690 schlägt?

Wieviel Speicher GK110 SKUs haben werden haengt wohl eher wie oben von der Busbreite ab. Bei 384bit 3GB und bei 512bit 4GB.

Was jetzt die endgueltige Leistung von GK110 betrifft haengt es wohl eher von der eigentlichen finalen desktop Frequenz ab. Selbst wenn die high end GPU mit diesem langsamer wird um N% als eine 690/mGPU wird die erste objektiv die bessere Investition sein, eben weil N Leistung in mehr Faellen garantiert ist fuer die single GPU gegen die AFR Abhaengigkeit einer jeglichen mGPU.

boxleitnerb
2012-05-08, 11:06:21
Ich dachte 512bit wären schon "bestätigt"?

Ailuros
2012-05-08, 11:14:52
Ich dachte 512bit wären schon "bestätigt"?

Ich lege nie meine Hand ins Feuer wenn widerspruechliche Infos auftauchen. Die Oak Ridge Angabe kann zwar alles oder gar nichts bedeuten, aber zu 100% sicher bin ich mir nie.

Palpatin
2012-05-08, 11:49:41
Von einer Preis-/Leistungs-/Verfuegbarkeit Perspektive ist die 7970 durchaus die bessere Wahl, aber der Punkt mit der Speichermenge ist nutzlos so lange eine GTX690 mit ihren 2GB pro alternating frame nirgends (sogar mit SSAA) im Vergleich zu 2*7970CF (2*3GB) irgendwo stockt. Fast 1000 Euro heute fuer eine GPU grenzen an den Wahnsinn.
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-690/30/ wie ist der Einbruch in 5760 x 1080 4AA bei den Geforce sonst zu erklären?
Ja es ist kein Setting das die Breite Masse fährt und ja es ist nur 1 von xx Games und ja es ist auch mit ner ATI hier nicht wirklich super flüssig Spielbar, aber < 10Frames ist halt absolut unspielbar mit der Geforce und es wurd von nirgends gesprochen.

aufkrawall
2012-05-08, 11:51:08
Liegt vielleicht auch an der Bandbreite?

Skysnake
2012-05-08, 11:55:15
Von vrzone:



Sollte wohl GK104 heißen statt GK107. Ansonsten wenig Neues, nur die Nachfrage nach den Kepler-Teslas überrascht etwas. Da wird der Desktop 2012 wohl wirklich leer ausgehen :(
Ach das kannste doch in der Pfeif rauchen. GK110 ist nicht fertig, schon gar nicht als Tesla. Er spielt wohl auf die nvidia Messe an, wo GK110 vorgestellt werden soll. Das wird aber kein launch sein.

Soweit mir bekannt ist, ist in der Branche nahezu nichts zu GK110 bekannt. Aktuell nudeln die Leute eher die GTX680 mal zu Testzwecken durch und sind MASSLOS enttäuscht.

Auf der Messe werden ein paar Details zu GK110 bekannt werden, aber der Großteil wird sich wohl eher auf Software beziehen. Da sind ein par coole Neuigkeiten am Start, aber das wars dann auch.

boxleitnerb
2012-05-08, 11:56:50
Das weiß ich doch, ich bin nicht doof. Vorbestellungen eben. Launch...lach.

Skysnake
2012-05-08, 12:02:06
Selbst die "Vorbestellungen" darfst du nicht als solche wirklich zählen.

Das sind ziemlich sicher nur Hochrechnungen, bzw. Optionen für Systemhersteller. Das wars dann aber auch. Zu GK110 ist halt wirklich Ebbe was Infos anbelangt. Da bringt auch kaum einer wirklich relevante Vorbestellungen auf den Weg, außer den Partner von nVidia wie Oak Ridge. Aber selbst da kann sich die Sache immer noch ändern.

Zumal GK110/Tesla echt noch ne ganze Weile hin ist. Mich würde es sehr wundern, wenn die mehr als ein paar Samples haben. Mir wäre nicht bekannt, das schon Samples nach draußen zum Testen gegeben wurden.

Hugo78
2012-05-08, 12:20:40
Aktuell nudeln die Leute eher die GTX680 mal zu Testzwecken durch und sind MASSLOS enttäuscht.

Das GK104 nicht für HPC gemacht wurde ist selbst jedem DAU klar.
Und jetzt willst du uns erzählen irgendwelche HPC Profis könnten keine Reviews lesen?! :lol:

Ailuros
2012-05-08, 12:30:45
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-690/30/ wie ist der Einbruch in 5760 x 1080 4AA bei den Geforce sonst zu erklären?
Ja es ist kein Setting das die Breite Masse fährt und ja es ist nur 1 von xx Games und ja es ist auch mit ner ATI hier nicht wirklich super flüssig Spielbar, aber < 10Frames ist halt absolut unspielbar mit der Geforce und es wurd von nirgends gesprochen.

Mit den ohnehin schon pfiffigen Preisen einer 680 und noch schlimmer 690 haette NV diese locker mit 4GB bzw. 2*4GB ausstatten koennen, eben um genau solche Grenzfaelle zu decken. Nicht dass Metro 2033 in 5760*1080/4xAA spielbar werden wuerde (wobei "spielbar" auch ziemlich subjektiv ist aber auf dem 2*7970CF System mit den 33.5 fps Durchschnitt fuer meinen Geschmack nicht gerade spielbar wenn man minimum fps und microstutters bedenkt), aber es aendert nichts daran dass es sich um Wucherpreise handelt.

G3cko
2012-05-08, 12:33:01
Ich sehe aber immer noch keinen anstaendigen Beweiss dass die 690 in heutigen Applikationen im Nachteil liegt. Und damit wir es endlich auf eine logischere Basis setzen die 7970 hat NICHT 3GB framebuffer weil sie es braucht, sondern weil man eben normalerweise 2GB schlecht an einen 384bit bus verbinden kann.


Wer kauft sich denn eine 1000€ Karte für Spiele von gestern? :freak::confused:

Mir ist klar das die Speichermenge vom SI abhängt. Aber man hätte ja auch die Hälfte nehmen können. Anfangs hatte Nvidia einen Tick mehr Speicher wegen ihres oftmals krummen SI nun aber seit einiger Zeit AMD.

Hugo78
2012-05-08, 12:41:44
@G3cko

Die GTX 690 führt hier selbst in 5760x1080 8xAA/16xAF.
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-690/4/#abschnitt_leistung_mit_aaaf

Dein krampfhafter Versuch die Speichermenge zum entscheiden Kriterium zumachen ist schlicht peinlich und btw auch ... off Topic.

Zumal es von der GTX 680 4GB Versionen gibt.
Wer also 4GB braucht kann sich die auch im SLI holen.
Und spätestens mit einer neuen ASUS Mars ect. bekommt man auch GTX 690 Ableger mit 2*4GB.

Ailuros
2012-05-08, 12:43:59
Wer kauft sich denn eine 1000€ Karte für Spiele von gestern? :freak::confused:

Morgen wird sie hoffentlich auch nicht so viel kosten. Tut mir leid dass es zynisch klingt aber anders als mit Zynismus kann ich die Preisgebung beider IHVs nicht behandeln.

Mir ist klar das die Speichermenge vom SI abhängt. Aber man hätte ja auch die Hälfte nehmen können. Anfangs hatte Nvidia einen Tick mehr Speicher wegen ihres oftmals krummen SI nun aber seit einiger Zeit AMD.

Siehe vorigen Beitrag; bei den 680 bzw. 690 Preisen haette NV auch locker 4 bzw. 8 GB Speicher einbauen koennen. Auch die GTX580 musste und muss mit nur 1.5GB Speicher auskommen und es gab und gibt seit dessen launch mehr als nur wenige Grenzfaelle wo die 6970 mit ihren 2.0GB framebuffer in sehr hohen Aufloesungen besser dasteht. Weder auf 680 noch auf der 690 ist es momentan so schlimm und nein eine 3GB GTX580 rettete im Gegenfall im Vergleich zu einer standard 1.5GB GTX580 auch nicht gerade den Tag.

Anders: ich hab irgendwie das Gefuehl dass hier die Speichermenge insgesamt ueberschaetzt wird, im Gegenteil z.B. der eigentlichen Bandbreite was aber fuer sich als Punkt auch ziemlich steril ist da eine Unmenge anderer Faktoren mitspielen. Um es auf eine andere Basis zu setzen eine GTX680 hat zu wenig Bandbreite um ihre Texelfuellrate voll auszuspielen (u.a.) und eine 7970 zu wenig ROPs um ihre eigentliche Bandbreite voll auszuspielen. Fuer die beiden Beispiele ist die framebuffer-Groesse nebenwichtig.

Palpatin
2012-05-08, 13:20:05
Liegt vielleicht auch an der Bandbreite?
Dafür ist der Einbruch viel zu heftig.
In 5760x1080 geht es von 26,7 auf 9,4
In 2560x1600 geht es von 35,4 auf 31,0
Bei den Radeons gibts eben genau diesen Einbruch nicht.

G3cko
2012-05-08, 13:23:31
bei den 680 bzw. 690 Preisen haette NV auch locker 4 bzw. 8 GB Speicher einbauen koennen.

In diesem Punkt sind wir uns ja einig. Mir geht es auch nicht um den ollen VRAM sondern um die Tatsache, dass ich von einer 500€/1000€ Karte erwarte das ich etwas dafür bekomme. Dies ist aber nicht überall der Fall und entsprechend inkonsequent.

Was man auch an der 6950 gut sieht ist, dass die 1GB Version nur etwas günstiger ist. Wenn man aber mehr VRAM haben möchte als die Standardkarte vorgibt, dann wird es richtig teuer. Egal ob High-End Karten, oder bei kleinen Karten ala 6870.

Wäre der Preispunkt nicht wäre die GTX680 sicherlich eine super ausgeglichene Midrange Gamerkarte. Und es ist auch kein Geheimnis, dass uns die Karte noch lange, unter welchem Namen auch immer begleiten wird.

Aber nun Schluss mit der VRAM-Diskussion. Vielleicht eröffne ich in 2 Jahren ein Thread für GTX680/690 User mit folgendem Inhalt -> :eek::P;D

:biggrin::wink:

Skysnake
2012-05-08, 13:27:15
Wer kauft sich denn eine 1000€ Karte für Spiele von gestern? :freak::confused:

Mir ist klar das die Speichermenge vom SI abhängt. Aber man hätte ja auch die Hälfte nehmen können. Anfangs hatte Nvidia einen Tick mehr Speicher wegen ihres oftmals krummen SI nun aber seit einiger Zeit AMD.
GK104 ist dafür extrem effizient :ugly:

Daher ist das Ding trotzdem einen Blick wert. Unterm Strich soll GF110 aber trotzdem wohl die bessere Wahl sein, auch wenn GK104 sehr effizienz zu Werke geht.

Hatte jetzt aber keine Zeit mir die Tests genauer an zu schauen.

Screemer
2012-05-08, 15:30:59
... und sind nicht so schön ;)fast wie meine freundin, die bei nem örtlichen elektrohändler vor der pc-audio-auswahl steht und sagt: "die will ich haben!" ich frag: "warum?" sie: "die sind so schön grün." eine gpu aufgrund der optik, die man kaum bis nicht sieht da der kühler richtung boden zeigt, zu kaufen ist schon sehr grenzwertig. klar, dass du es nicht machen würdest.

Ailuros
2012-05-08, 15:42:50
GK104 ist dafür extrem effizient :ugly:

Daher ist das Ding trotzdem einen Blick wert. Unterm Strich soll GF110 aber trotzdem wohl die bessere Wahl sein, auch wenn GK104 sehr effizienz zu Werke geht.

Hatte jetzt aber keine Zeit mir die Tests genauer an zu schauen.

Falls Du mit GF110 jetzt GK110 meinen solltest, ja ok obwohl es auch teilweise zur Debatte offen steht. Im Gegenfall sehe ich nicht ein wo und wieso GF110 die bessere Wahl sein sollte als GK104.

fast wie meine freundin, die bei nem örtlichen elektrohändler vor der pc-audio-auswahl steht und sagt: "die will ich haben!" ich frag: "warum?" sie: "die sind so schön grün." eine gpu aufgrund der optik, die man kaum bis nicht sieht da der kühler richtung boden zeigt, zu kaufen ist schon sehr grenzwertig. klar, dass du es nicht machen würdest.

Also bitte es much doch mit der Handtasche passen :D

Godmode
2012-05-08, 15:47:42
fast wie meine freundin, die bei nem örtlichen elektrohändler vor der pc-audio-auswahl steht und sagt: "die will ich haben!" ich frag: "warum?" sie: "die sind so schön grün." eine gpu aufgrund der optik, die man kaum bis nicht sieht da der kühler richtung boden zeigt, zu kaufen ist schon sehr grenzwertig. klar, dass du es nicht machen würdest.

Nochmal für dich:


2 GTX 680 kosten genau so viel, sind lauter, brauchen mehr Strom und Platz und sind nicht so schön ;)

Der Smiley war wohl nicht zu übersehen?

aufkrawall
2012-05-08, 15:49:06
Dafür ist der Einbruch viel zu heftig.
In 5760x1080 geht es von 26,7 auf 9,4
In 2560x1600 geht es von 35,4 auf 31,0
Bei den Radeons gibts eben genau diesen Einbruch nicht.
Ist mir dann auch klar geworden. :redface:

Skysnake
2012-05-08, 21:12:30
Falls Du mit GF110 jetzt GK110 meinen solltest, ja ok obwohl es auch teilweise zur Debatte offen steht. Im Gegenfall sehe ich nicht ein wo und wieso GF110 die bessere Wahl sein sollte als GK104.
Doch es ist GF110 gemeint.

GK104 ist halt mords schlecht was die Rechenleistung betrifft. Das Ding ist nicht schneller, eher sogar etwas langsamer als GF110. Dabei aber deutlich teurer, aber sparsamer. Ist aber zwiespältig, weil eben so viel teurer.

N0Thing
2012-05-08, 21:28:39
Doch es ist GF110 gemeint.

GK104 ist halt mords schlecht was die Rechenleistung betrifft. Das Ding ist nicht schneller, eher sogar etwas langsamer als GF110. Dabei aber deutlich teurer, aber sparsamer. Ist aber zwiespältig, weil eben so viel teurer.

Im Bereich Spiele, also der Bereich, für den der GK104 gedacht ist, liegt er in Form einer GTX 680 immer vor einer GTX 580 als Vertreter des GF110.

Bei GPGPU sieht es anders aus, für den Bereich ist der GK104 primär aber auch nicht gedacht.

Skysnake
2012-05-08, 21:35:35
Ich red nur über GPGPU

boxleitnerb
2012-05-08, 21:39:44
GK104 ist nicht für GPGPU gedacht, hat Lars doch heute gesagt beim Themenabend. Da muss man jetzt damit leben, dass das aufgesplittet wird in zwei Chips.

VooDoo7mx
2012-05-08, 21:57:52
GK104 ist nicht für GPGPU gedacht, hat Lars doch heute gesagt beim Themenabend. Da muss man jetzt damit leben, dass das aufgesplittet wird in zwei Chips.
Wie soll man denn damit leben können?
Das ergibt doch alles keinen Sinn wenn nVidia Chips für verschiedene Bereiche macht. Ich kann unmöglich von meinen alten Denkmuster abweichen.
Mein Leben wird damit wertlos, ich glaube ich begehe gleich Selbstmord.

Godmode
2012-05-08, 22:04:28
GK104 ist nicht für GPGPU gedacht, hat Lars doch heute gesagt beim Themenabend. Da muss man jetzt damit leben, dass das aufgesplittet wird in zwei Chips.

Wäre halt nett wenn es dann auch einen Highend Chip für die Geforce Schiene geben würde. Zb. einen verdoppelten GK104 in einem Chip. GK110 wird das klar nicht sondern wieder eine Mischung. Daher wird er auch nicht doppelt so schnell wie GK104...

IMO ist doch alles gesagt und auch soweit klar.

Godmode
2012-05-09, 07:17:03
Da kann man einen Tesla 3000 Karte gewinnen, die wohl auf GK110 basiert?
http://forums.anandtech.com/showthread.php?t=2244567

boxleitnerb
2012-05-09, 07:24:36
Interessant, und wann wird die dann ausgeliefert? Tapeout war doch erst vor zwei Monaten, sind das dann von einem Praktikanten zusammengelötete Chips? :D

Godmode
2012-05-09, 07:32:24
Interessant, und wann wird die dann ausgeliefert? Tapeout war doch erst vor zwei Monaten, sind das dann von einem Praktikanten zusammengelötete Chips? :D

Mit Holzschrauben ;)

Neurosphere
2012-05-09, 08:36:44
Wir werden bereits nächste Woche auf der GTC unsere Kepler Compute Strategie und Architektur vorstellen. Der CUDA-Kepler Launch ist also sozusagen nächste Woche. Also noch etwas abwarten und die GTC verfolgen

Stimmt das also doch das es bald was neues gibt. Zwar wird das ganze für HPC vorgestellt, aber es sollte nicht schwierig sein Rückschlüsse auf den Desktop-GK110 zu ziehen.

Ailuros
2012-05-09, 10:07:50
Ich red nur über GPGPU

Leider handelt es sich aber um eine mickriges Prozentual wo ein User eine desktop GPU fuer GPGPU kaufen wuerde. In solch einem Fall wo GPGPU unter den Vorraussetzungen fuer eine desktop GPU liegt, waere jedermann schoen bloed zu einer 580 und/oder 680 zu greifen und nicht gleich zu einer 7970.

Interessant, und wann wird die dann ausgeliefert? Tapeout war doch erst vor zwei Monaten, sind das dann von einem Praktikanten zusammengelötete Chips? :D

Ich sage schon seit einer Ewigkeit dass CUDA next und einige exklusive GK110 relevanten Faehigkeiten bei der GTC womoeglich vorgestellt werden. Irgend ein oedes whitepaper dass die relevanten Faehigkeiten beschreibt um die GPGPU Welt offiziell zu informieren was sie zu erwarten haben.

Interessant, und wann wird die dann ausgeliefert? Tapeout war doch erst vor zwei Monaten, sind das dann von einem Praktikanten zusammengelötete Chips? :D

IMHO fruehestens irgendwo im Juni.

Skysnake
2012-05-09, 10:13:18
Leider handelt es sich aber um eine mickriges Prozentual wo ein User eine desktop GPU fuer GPGPU kaufen wuerde. In solch einem Fall wo GPGPU unter den Vorraussetzungen fuer eine desktop GPU liegt, waere jedermann schoen bloed zu einer 580 und/oder 680 zu greifen und nicht gleich zu einer 7970.

Die ALU-Leistung ist halt trotzdem gut gestiegen, und der Stromverbrauch gleichzeitig runter. Man findet aber halt nicht wirklich gut Anwendungen, wo man die ALU-Leistung dann auch abrufen kann. Ist halt nicht mehr so wie bisher, wo man einen großen Teil der ALU-Leistung relativ leicht erziehlen konnte, sondern eher so wie bei AMD bei ihren VLIW Architekturen, wo es echt schwierig und oft unmöglich ist.

Das erwarten die Leute halt nicht wirklich, und da muss auch ein Umdenken einsetzen. Das war halt die letzten X Jahre so, aber nicht mehr jetzt.

Wäre die GK104 auch nicht so schweine teuer, wärs gar nicht das Problem, weil er ja noch immer Effizienter die Arbeit verrichtet, und man so wieder Strom sparen kann, aber atm ist der Preisunterschied, bzw. Mehrwert in Sachen Stromsparen einfach nicht eine Neuanschaffung zu dem Preis zu rechtfertigen.


Ich sage schon seit einer Ewigkeit dass CUDA next und einige exklusive GK110 relevanten Faehigkeiten bei der GTC womoeglich vorgestellt werden. Irgend ein oedes whitepaper dass die relevanten Faehigkeiten beschreibt um die GPGPU Welt offiziell zu informieren was sie zu erwarten haben.

Oh ja, da wird so einiges vorgestellt :biggrin:

Ich befürchte allerdings, dass die Leute hier die Sachen wohl eher nicht so cool und Weltbewegend finden werden. :(

Iruwen
2012-05-09, 10:45:49
Vielleicht eröffne ich in 2 Jahren ein Thread für GTX680/690 User mit folgendem Inhalt -> :eek::P;D

:biggrin::wink:

Mach doch, hier wird in zwei Jahren wohl nur keiner mehr eine GTX 680/690 haben :D

Dural
2012-05-09, 10:54:22
haben schon, aber nicht mehr im gebrauch ;)

Hübie
2012-05-09, 11:59:22
Wie aktuell is der Eingangspost? Wie es aussieht wird GK110 einfach nur ein ekliges Monster ;D Unter 700 Euro werden wir dann wohl nicht aus der Nummer rauskommen.

Godmode
2012-05-09, 13:15:26
Wie aktuell is der Eingangspost? Wie es aussieht wird GK110 einfach nur ein ekliges Monster ;D Unter 700 Euro werden wir dann wohl nicht aus der Nummer rauskommen.

Alles was Ail gesagt hat steht da drin, und wird auch immer noch aktualisiert.

AnarchX hat zuletzt den Transistorcount angepasst.

Ailuros
2012-05-09, 14:00:43
Alles was Ail gesagt hat steht da drin, und wird auch immer noch aktualisiert.

AnarchX hat zuletzt den Transistorcount angepasst.

Uebrigens geht bei mir der link nicht der angeblich die 318mm2 die area fuer GK104 angibt. NVIDIA gibt offiziell 294mm2 fuer GK104 an (frag mich bloss nicht wo der Unterschied wirklich liegt); und genau vom gleichen engineer der mir vor dem 104 launch die 294mm2 fuer GK104 versicherte kommen auch die 550mm2 fuer GK110.

Anders wenn GK104 aus X Grund tatsaechlich leicht groesser ist als NV selber angibt, wird vielleicht auch das selbe fuer GK110 gelten. Ueber die Transistoren-Anzahl war er sich damals selber noch nicht zu 100% sicher weil der chip noch zu jung war. Er sagte knapp 7 Mrd. und NV gab seither runde 7 an. Sind zwar nur nebenwichtige Haarspaltereien aber auf den Punkt genau kann man es nicht bringen, ueberhaupt da ich nichts neues seither darueber herausquetschen konnte.

***edit: speaking of the devil.....es kam gerade ein schneller Piep von woanders an. Ist zwar noch nicht sicher aber es koennte sein dass 110 vielleicht doch noch vor Q3 ankommt. Eine Quelle reicht nie um so etwas als zuverlaessig abzustempeln, ergo bitte noch nichts darueber sichern.

Godmode
2012-05-09, 14:16:26
Uebrigens geht bei mir der link nicht der angeblich die 318mm2 die area fuer GK104 angibt. NVIDIA gibt offiziell 294mm2 fuer GK104 an (frag mich bloss nicht wo der Unterschied wirklich liegt); und genau vom gleichen engineer der mir vor dem 104 launch die 294mm2 fuer GK104 versicherte kommen auch die 550mm2 fuer GK110.

Anders wenn GK104 aus X Grund tatsaechlich leicht groesser ist als NV selber angibt, wird vielleicht auch das selbe fuer GK110 gelten. Ueber die Transistoren-Anzahl war er sich damals selber noch nicht zu 100% sicher weil der chip noch zu jung war. Er sagte knapp 7 Mrd. und NV gab seither runde 7 an. Sind zwar nur nebenwichtige Haarspaltereien aber auf den Punkt genau kann man es nicht bringen, ueberhaupt da ich nichts neues seither darueber herausquetschen konnte.

***edit: speaking of the devil.....es kam gerade ein schneller Piep von woanders an. Ist zwar noch nicht sicher aber es koennte sein dass 110 vielleicht doch noch vor Q3 ankommt. Eine Quelle reicht nie um so etwas als zuverlaessig abzustempeln, ergo bitte noch nichts darueber sichern.

Woot? Wäre ja zu schön um wahr zu sein. Müsste dann die GTX690 direkt canceln.

Ailuros
2012-05-09, 14:20:34
Woot? Wäre ja zu schön um wahr zu sein. Müsste dann die GTX690 direkt canceln.

Uhmm und wenn es nicht stimmen sollte gehst Du mir an den Kragen? :biggrin: Wie gesagt ich kann es nicht sichern und die restlichen Quellen sind momentan totstill.

G3cko
2012-05-09, 14:21:58
Woot? Wäre ja zu schön um wahr zu sein. Müsste dann die GTX690 direkt canceln.

dann müsstest du deine Signatur aber auch wieder ändern in: GPU: GTX 690 abbestellt :freak::D

Godmode
2012-05-09, 14:22:02
Uhmm und wenn es nicht stimmen sollte gehst Du mir an den Kragen? :biggrin: Wie gesagt ich kann es nicht sichern und die restlichen Quellen sind momentan totstill.

Nein natürlich nicht. Ich warte jetzt mal ab was morgen kommt und dann sehe ich weiter; bin schon ganz verrückt die letzten Wochen...

Hübie
2012-05-09, 14:26:08
16. August ist mein Burzeltag. Also können die sich noch Zeit lassen ;D
Auf PCGH & HWL gibt es schon mehr Kepler als Tahiti-Besitzer. Da wird doch mal einer einen metrischen Gliedermaßstab in die Hand nehmen können und nachmessen.

Ich meine auch gelesen zu haben dass GK104 gemessene 294mm² hat (17 * 17,3). War glaub ich sogar im Speku-Thread...

Dural
2012-05-09, 14:47:26
TSMC: Bekommt Nvidia bei 28-nm-Fertigung Priorität?

http://www.computerbase.de/news/2012-05/tsmc-bekommt-nvidia-bei-28-nm-fertigung-prioritaet/

Ailuros
2012-05-09, 14:48:36
Nein natürlich nicht. Ich warte jetzt mal ab was morgen kommt und dann sehe ich weiter; bin schon ganz verrückt die letzten Wochen...

Bis morgen kann ich nichts auf die Beine stellen; es dauert oefters sogar Wochen bis ich eine Antwort auf eine Frage bekomme. Wenn jemand ueberarbeitet ist hat er selten Lust bloede Fragen von jeglichem 0815 User zu beantworten ;)

Godmode
2012-05-09, 14:52:41
Bis morgen kann ich nichts auf die Beine stellen; es dauert oefters sogar Wochen bis ich eine Antwort auf eine Frage bekomme. Wenn jemand ueberarbeitet ist hat er selten Lust bloede Fragen von jeglichem 0815 User zu beantworten ;)

Hab mich verschaut; meinte natürlich den 15. Mai:
http://www.gputechconf.com/page/home.html#

boxleitnerb
2012-05-09, 16:26:34
Auf PCGH & HWL gibt es schon mehr Kepler als Tahiti-Besitzer.

Sorry für OT - wie kommst du darauf?

Nightspider
2012-05-09, 17:07:25
Bis morgen kann ich nichts auf die Beine stellen; es dauert oefters sogar Wochen bis ich eine Antwort auf eine Frage bekomme. Wenn jemand ueberarbeitet ist hat er selten Lust bloede Fragen von jeglichem 0815 User zu beantworten ;)

Schieben die Jungs denn so böse Überstunden? :)

Raff
2012-05-09, 18:54:32
Sorry für OT - wie kommst du darauf?

Regelmäßige Umfragen: http://extreme.pcgameshardware.de/quickpolls/215410-welche-grafikkarte-nutzt-du-derzeit-zum-spielen-mai-2012-a.html

Alle verrückt. :D

MfG,
Raff

Soul
2012-05-09, 19:39:59
Wenn ich alle SI Zusammenrechne komme ich auf was anderes

boxleitnerb
2012-05-09, 19:45:05
Es ging nur um Tahitis ;)

Hübie
2012-05-09, 21:44:27
Bis morgen kann ich nichts auf die Beine stellen; es dauert oefters sogar Wochen bis ich eine Antwort auf eine Frage bekomme. Wenn jemand ueberarbeitet ist hat er selten Lust bloede Fragen von jeglichem 0815 User zu beantworten ;)

Und unter uns blinden bist du der Einäugige :freak:

Ich bin heute mal auf die Suche gegangen. Auf die Suche nach Bildqualität. Und was stelle ich fest: Kaum ein Hersteller bietet mehr nativen Support für Anti-Aliasing an. Damit meine ich nicht Nachbearbeitungskacke!
Nun stelle ich mir selber die Frage wieso ich eigentlich schon wieder hier im Thread herumlunger um wissbegierig GK110-Infos zu bekommen damit ich weiß wieviel Geld ich wann aufbringen muss. :|

Irgendwie krank! :cool: :hammer:

@boxleitnerb: Durch Beobachtung und natürlich die Umfrage auf PCGH, wie Raff schon richtig gepostet hat ;) Valve hat auch wieder ne Umfrage veröffentlicht.

Skysnake
2012-05-09, 22:33:20
und da ist die 7970 allein >50% vor der GTX680. War was mit 0,36% für die HD7970 und 0,22% für die GTX680. Wenn man alle 7k zusammen nimmt, wirds sogar noch viel mehr.

w0mbat
2012-05-09, 22:38:15
Regelmäßige Umfragen: http://extreme.pcgameshardware.de/quickpolls/215410-welche-grafikkarte-nutzt-du-derzeit-zum-spielen-mai-2012-a.html

Alle verrückt. :D

MfG,
Raff

Ich habe die Umfrage heute zum ersten Mal gesehen, wegen deinem Posting. Ist bestimmt nicht respresentativ, sagt also nicht wirklich aus welche mehr genutzt wird.

boxleitnerb
2012-05-10, 08:26:34
Unsinn oder ist was Wahres dran? Ist ziemlich unerwartet jedenfalls:


There is no doubt that NVIDIA plans to debut the Tesla 3000 series part in the next couple of days. However, according to the sources close to the company, it will not be based upon GK110 chip, which is not ready, but rather launching a Tesla version of the GTX 690.

This is somewhat unexpected as in the past, NVIDIA kept the dual-GPU cards limited to consumer GeForces - mostly due to thermals and too high power consumption for the part. Things have changed, and the demand for power of different type - GPU compute one - outweigh any other negativity.

(...)

Thus, you can expect a seven-billion transistor Tesla card with 3072 CUDA cores, 512-bit memory interface, 8GB GDDR5 with over 300GB/s of video memory bandwidth (shared between two GPUs), as great looking and expensive high-end heatsink and increased cooling capabilities.
http://www.brightsideofnews.com/news/2012/5/9/nvidia-to-launch-dual-gpu-tesla-card3b-8gb-ecc-gddr52c-weak-dp-rate.aspx

Da sind auch die 7 Mrd. Transistoren. Wäre es gar möglich, dass ein Teil der spekulierten GK110 Specs mit diesen hier verwechselt worden sind (3072CC, 512bit)?

Dural
2012-05-10, 09:34:22
sollte ja klar sein das ein gewisser herr die GTX690 mit GK110 verwechselt hat.

wie ich immer sagte, eine verdopplung der einheiten ist immer mit min. 100% mehr transistoren möglich, somit wäre man beim GK110 bei den von NV genannten 7 Miliarden, jedoch noch ohne erweitertes cache system, oder geschweige dem aufstocken von DP leistung usw. und wir alle wissen das gerade solchen sachen sehr viel platz benötigt (ist auch logisch sonst würde man es nicht bei den kleinen chips raus lassen)


2000-2500SP
384Bit (quasi ja schon bestätigt, oder es handelt sich um einen fehler...)

50% über GK104

:wink:


und da ist die 7970 allein >50% vor der GTX680. War was mit 0,36% für die HD7970 und 0,22% für die GTX680. Wenn man alle 7k zusammen nimmt, wirds sogar noch viel mehr.

also bei mir ist die GTX680 mit 40 stimmen schon über der 7970 und 7950 zusammen ;)

Ailuros
2012-05-10, 09:46:28
Unsinn oder ist was Wahres dran? Ist ziemlich unerwartet jedenfalls:


http://www.brightsideofnews.com/news/2012/5/9/nvidia-to-launch-dual-gpu-tesla-card3b-8gb-ecc-gddr52c-weak-dp-rate.aspx

Da sind auch die 7 Mrd. Transistoren. Wäre es gar möglich, dass ein Teil der spekulierten GK110 Specs mit diesen hier verwechselt worden sind (3072CC, 512bit)?

Nur steht in meiner Meldung nichts von 3072SPs drin sondern die Aufteilung der Einheiten. GTX690 hat 2*4 GPCs und nicht 6 ;)

Sonst wie viele GFLOPs DP soll denn theoretisch ein 2*GK104 abgeben? Kann sein dass mein Rechner kaputt ist aber das Resultat ist laecherlicher als auf jeglicher T20.

***edit: der Author ist Theo Valich. Braucht man wirklich Erlaeuterungen dazu?

sollte ja klar sein das ein gewisser herr die GTX690 mit GK110 verwechselt hat.

wie ich immer sagte, eine verdopplung der einheiten ist immer mit min. 100% mehr transistoren möglich, somit wäre man beim GK110 bei den von NV genannten 7 Miliarden, jedoch noch ohne erweitertes cache system, oder geschweige dem aufstocken von DP leistung usw. und wir alle wissen das gerade solchen sachen sehr viel platz benötigt (ist auch logisch sonst würde man es nicht bei den kleinen chips raus lassen)


2000-2500SP
384Bit (quasi ja schon bestätigt, oder es handelt sich um einen fehler...)

50% über GK104

:wink:

Ich behalt mal den Post als Referenz.

boxleitnerb
2012-05-10, 09:54:26
Bzgl. Theo Valich: Ja :)
Ich lese da sehr selten, was ist mit dem Kerl?

Skysnake
2012-05-10, 11:02:37
also bei mir ist die GTX680 mit 40 stimmen schon über der 7970 und 7950 zusammen ;)

Ich bezog mich (offensichtlich) auf die Steam Statistik, die aufgrund der wohl deutlich höheren Beteiligung representativer sein sollte.

Ronny145
2012-05-10, 12:42:55
Bzgl. Theo Valich: Ja :)
Ich lese da sehr selten, was ist mit dem Kerl?


Der Kerl veröffentlicht oft Artikel die sich später als Blödsinn rausstellen. Bei solchen Leuten wie Theo, LG Nilsson oder Charlie muss man sehr sehr vorsichtig umgehen.

Hübie
2012-05-10, 12:52:13
Ich glaube eher dass die Leute einfach jedes Gerücht welches sie aufschnappen sofort in eine News wandeln. Wenn man seine Rübe anstrengt kommt oft selbst drauf...
Charlie war es glaub ich der aber gesagt hat: This round goes to NVIDIA in every metric (nicht wörtlich).

Nightspider
2012-05-10, 13:41:08
Mit 384 Bit SI (GK104+50%) und 3072 Shadereinheiten dürfte der GK110 imo wohl die schnellste Variante darstellen.
Zumindest würde ich bei 512 Bit SI nicht mehr an vollen 3072 Shadereinheiten glauben.

Zumindest glaube ich das 512 Bit SI overpowered wäre bei so schnellem GDDR5 Speicher.

N0Thing
2012-05-10, 13:59:42
Zumindest glaube ich das 512 Bit SI overpowered wäre bei so schnellem GDDR5 Speicher.

Einer der Vorteile eines breiteren SI liegt ja darin, daß man nicht auf High-End Speichermodule angewiesen ist und dennoch mehr Bandbreite als mit einem kleineren SI anbieten kann. Für den Spielesektor sicher nicht notwendig, da würde sicherlich auch ein SI mit 384Bit reichen. Aber im Bereich GPGPU, für den der GK110 gedacht ist, scheint gerne mal die Bandbreite das Limit darzustellen und nicht die Rechenleistung.

Gaestle
2012-05-10, 14:00:01
Bzgl. Theo Valich: Ja :)
Ich lese da sehr selten, was ist mit dem Kerl?


AFAIR ist er der Vorgänger von Charlie. Er hat dann vor ein paar Jahren bei SA aufgehört und BSON eröffnet. Beide nehmen sich wohl nicht viel.

Ailuros
2012-05-10, 14:43:05
AFAIR ist er der Vorgänger von Charlie. Er hat dann vor ein paar Jahren bei SA aufgehört und BSON eröffnet. Beide nehmen sich wohl nicht viel.

Ist zwar verdammt OT aber Charlie liegt diesbezueglich einige Stufen weiter oben. Keiner ist Fehlerfrei, aber Charlie weiss zumindest in so einigen Bereichen wo es langgeht. Seine Tendenz aus einem Fetzem langwierige Maerchen zu generieren ist bekannt, aber perfekt ist eben auch keiner. In der Mehrzahl der Faelle stimmt eben der Fetzen bei Charlie; Charlie kannst Du keineswegs bescheissen mit falscher Info, waehrend Theo (obwohl er im Grund ein sehr netter Kerl ist) sich leider jeglichen Schmarren andrehen laesst. Wenn es nach ihm ginge haette die GTX680 einen 700+MHz base clock und zwei Mal so hohen hotclock und die PS4 wuerde einen 8-core PowerVR als GPU enthalten; und das leider nur 2 Beispiele von vielen.

Ronny145
2012-05-10, 14:46:46
Ist zwar verdammt OT aber Charlie liegt diesbezueglich einige Stufen weiter oben. Keiner ist Fehlerfrei, aber Charlie weiss zumindest in so einigen Bereichen wo es langgeht. Seine Tendenz aus einem Fetzem langwierige Maerchen zu generieren ist bekannt, aber perfekt ist eben auch keiner.


Dafür ist er öfter auf Nvidia Bash aus. Das macht ihn in meinen Augen diesbezüglich unglaubwürdig.

Spasstiger
2012-05-10, 15:35:03
Mit 384 Bit SI (GK104+50%) und 3072 Shadereinheiten dürfte der GK110 imo wohl die schnellste Variante darstellen.
Zumindest würde ich bei 512 Bit SI nicht mehr an vollen 3072 Shadereinheiten glauben.
Von 3072 SPs war doch bisher nur für das Dual-GK104-Design die Rede, oder? Ich hab beim GK110 2048 CUDA-Cores (SP) im Verdacht.

AnarchX
2012-05-10, 15:40:38
Was aber nicht zu >2 TFLOPs DP bei erträglichem Verbrauch (<1GHz Takt) passen würde.

2048SPs wäre ein ähnlicher Sprung wie von GF114 zu GF110, der aber nur ~57% mehr Transistoren benötigt hat.
Mit 100% mehr Transistoren und wohl nur 50% mehr GPCs gegenüber GK104, hat GK110 durchaus Potential für 3072SPs.

Godmode
2012-05-10, 15:45:48
Von 3072 SPs war doch bisher nur für das Dual-GK104-Design die Rede, oder? Ich hab beim GK110 2048 CUDA-Cores (SP) im Verdacht.

Nein laut Ail hat GK110 3k SPs.

Spasstiger
2012-05-10, 15:46:14
Wo steht denn was von doppelt sovielen Transistoren für GK110? Die 7 Mrd. Transistoren sind ja auf Dual-GK104 bezogen (2*3,54 Mrd. = 7,08 Mrd.). Ich glaube auch nicht, dass NV einen Chip mit über 600 mm² in 28 nm fertigen lässt, um darauf 7 Mrd. Transistoren unterzubringen, das wäre mit den von TSMC verwendeten Steppern evtl. auch gar nicht möglich.

AnarchX
2012-05-10, 15:49:20
Wo steht denn was von doppelt sovielen Transistoren für GK110? Die 7 Mrd. Transistoren sind ja auf Dual-GK104 bezogen (2*3,54 Mrd. = 7,08 Mrd.).


In this talk, individuals from the GPU architecture and CUDA software groups will dive into the features of the compute architecture for “Kepler” – NVIDIA’s new 7-billion transistor GPU
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9260218#post9260218

Da steht nichts über GPUs und die CUDA software groups werden sich wohl kaum für einen Compute-Krüpel wie GK104 interessieren.
Was Theo von BSN von sich gibt, sollte man ignorieren.

7 Mrd. Transistoren auf 550mm² (laut Ail) wären 5% mehr Transistordichte als bei GK104. Nicht unrealistisch, siehe GF110.

Spasstiger
2012-05-10, 15:52:38
Ok, das ist mir bisher entgangen. Was ich mir noch vorstellen könnte, ist, dass Nvidia pro Chip zwei Dice nimmt, diese aber nicht per PCIe verbindet, sondern deutlich breiter und latenzärmer über einen Si-Interposer. So wie es Xilinx beim Virtex-7 (6,8 Mrd. Transistoren) macht.
So könnte man die Dual-GPU- und Single-Chip-Gerüchte unter einen Hut bringen.

Gaestle
2012-05-10, 17:17:10
Aber es gibt doch auch Beides. DualGPU = 690GTX und SingleCore=GK110.

Und beide Varianten kommen auf jeweils 3072SP.

Zergra
2012-05-10, 17:52:20
Aber dadurch das die 690GTX kaum Mikroruckler hat braucht NV doch GK110 garnicht für die Desktop sparte rausbringen oder ? Da würden sich ja alle Käufer der 690GTX verarscht fühlen und NV hätte sie sich sparen können. -> Bleibt die HPC Sparte was anderes glaube ich nicht...

Gaestle
2012-05-10, 18:18:45
Die Mikrorucklerproblematik ist zwar anscheinend besser geworden, aber nicht völlig verschwunden, das zeigen alle Reviews übereinstimmend. Spätestens mit den neuen Konsolen kommen verstärkt Games raus, bei denen eine 690GTX in Regionen kommt, wo MR wieder deutlich spürbar sind. Es gibt diese Fälle ja jetzt schon. Ich würde nie im Leben die 690GTX kaufen, wenn ich weiß, dass da noch die 770 bzw. 780 existiert und ich außerdem sehe, dass bis dahin eine 680GTX auch okay ist, und beide (680+780) zusammen vermutlich genauso viel kosten (verteilt auf zwei Zeitpunkte), wie eine 690GTX.

Obwohl die 690GTX rein in Balkenlänge am Ende möglicherweise schneller ist, als eine 780GTX.
(denn: 690GTX = 680GTX + 70-80%; 780GTX = 680GTX + 50%).

boxleitnerb
2012-05-10, 18:20:09
Aber dadurch das die 690GTX kaum Mikroruckler hat braucht NV doch GK110 garnicht für die Desktop sparte rausbringen oder ? Da würden sich ja alle Käufer der 690GTX verarscht fühlen und NV hätte sie sich sparen können. -> Bleibt die HPC Sparte was anderes glaube ich nicht...

Beim Vorwärtslaufen vielleicht, aber wenn sich der Bildinhalt ordentlich ändert (Strafing, Mausbewegung) gibts immer noch MR. Vielleicht etwas besser als mit Fermi, aber sie sind da. GK110 ist so oder so nötig, auch für mehr Bums in hohen Auflösungen, vor allem mit mehr Bandbreite.

Nightspider
2012-05-10, 18:33:50
Aber dadurch das die 690GTX kaum Mikroruckler hat braucht NV doch GK110 garnicht für die Desktop sparte rausbringen oder ? Da würden sich ja alle Käufer der 690GTX verarscht fühlen und NV hätte sie sich sparen können. -> Bleibt die HPC Sparte was anderes glaube ich nicht...

lol

Ne GTX 690 bietet nicht viel mehr Leistung als GTX 580 SLI.

Wer die doppelte Leistung seines alten SLI Gespanns will braucht GK110 SLI.

Sonst bleibt nur GTX 690 SLI --> Quad SLI --> sucks,crap,bullshit,mikroruckler-orgie, u know? :)

Ailuros
2012-05-11, 09:47:37
Ok, das ist mir bisher entgangen. Was ich mir noch vorstellen könnte, ist, dass Nvidia pro Chip zwei Dice nimmt, diese aber nicht per PCIe verbindet, sondern deutlich breiter und latenzärmer über einen Si-Interposer. So wie es Xilinx beim Virtex-7 (6,8 Mrd. Transistoren) macht.
So könnte man die Dual-GPU- und Single-Chip-Gerüchte unter einen Hut bringen.

Selbst wenn es die Aussage nicht geben wuerde:

GK104=

3.54Mrd @ 294mm2 = 12.04Mio/mm2

GK110 = 550mm2 bei genau gleicher Packdichte (rein theoretisch) waeren es 6.62Mrd. Transistoren.

Und nein man bekommt die single und dual chip Geruechte eben nicht unter einen Hut weil GK10x ALUs != GK110 ALUs und das ist natuerlich nicht nur auf die Anzahl der SIMDs bezogen.

Aber es gibt doch auch Beides. DualGPU = 690GTX und SingleCore=GK110.

Und beide Varianten kommen auf jeweils 3072SP.

Ja aber:

GTX690= [2*(8*192)]
GK110= 24*128 (hoechstwahrscheinlich)

AnarchX
2012-05-11, 10:42:04
Jedenfalls spricht Theos Artikel wieder für 512-Bit, wenn auch er wohl die ihm gegebenen 3072SPs+512-Bit falsch als Dual-GK104 interpretiert hat.

Vielleicht nutzen die 6GiB Teslas bei OakRidge 128-Bit ihres IMCs als Interrconnect zwischen den GPUs, das wären immerhin 64 bis 96GB/s.

Hades11
2012-05-11, 11:35:19
also ich glaube weiterhin an die 3072, lediglich beim SI tendiere ich dann doch eher zum kleineren 384 bit, ist ja auch schon ein gutes stück mehr als GK104 256 bit.
fragt sich jetzt nur noch wie die tacktbarkeit und die praktische (gaming)leistung aussieht.
unklar wäre ja auch noch wie 28nm bei einem solchen Riesenchip läuft. Ich wäre nicht sehr verwundert wenn dieses Jahr keine nennenswerte verfügbarkeit mehr kommt.