PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GK110 - High-End-Kepler - Q1 2013


Seiten : 1 2 3 [4] 5 6 7 8 9 10 11 12 13 14 15 16

Ailuros
2012-06-19, 10:41:12
Aber nicht bei GK110. Das kannste eigentlich schon abhacken. Das wäre eine ECHTE Überraschung

HPC wird dank reduzierten Frequenzen und/oder weniger SMXs sowieso weniger Bandbreite haben als GK110 desktop, u.a. auch weil hier die Speichermengen doppelt so gross sind und der TDP nicht all zu weit von 225W entfernt sein darf. Da desktop sowieso entweder Ende 2012 wenn nicht gleich Anfang 2013 antanzen wird, ist es alles andere als absurd an >1.5GHz GDDR5 zu denken; ueberhaupt da default wohl nicht mehr als 3GB framebuffer sein wird.

Es hat bisher noch nie ein Hersteller den schnellsten lieferbaren Speicher verbaut, es wäre ganz einfach unbezahlbar.

Und schon gar nicht NV (bis zu Kepler); AMD hat stets schneller getakteten Speicher benutzt welches aber bei beiden IHVs eher mit der Busbreite verknuepft war als alles andere.

Dural
2012-06-19, 11:20:51
neee gar nicht, schnell aus dem gedächnis:

8800Ultra

GTX280

GTX285

Praktisch alle High-End Karten hatten den Schnellsten damals Lieferbaren Speicher des selben Typs Verbaut.

Fermi fällt da raus, da nicht der Speicher ein Problem war sondern die GPU selber.

In 2013 ist 7gbps wohl ziemlich sicher, wer will wetten?

Ailuros
2012-06-19, 11:53:52
neee gar nicht, schnell aus dem gedächnis:

8800Ultra

GTX280

GTX285

Praktisch alle High-End Karten hatten den Schnellsten damals Lieferbaren Speicher des selben Typs Verbaut.

Fermi fällt da raus, da nicht der Speicher ein Problem war sondern die GPU selber.

Wohl zu schnell dann aus dem "Gedaechtnis" denn:

GTX285/ 15.01.2009 Speicher 1242DDR @512bit
HD4890/ 06.04.2009 Speicher 1950DDR@256bit

Nur ein einziges Beispiel aus vielen; lies nochmal nach was ich genau oben sagte und ueberhaupt im Zusammenhang zum fettgedrucktem oben.

In 2013 ist 7gbps wohl ziemlich sicher, wer will wetten?

Die verlierst Du genauso schnell falls es 1625MHz sein sollten z.B.

Dural
2012-06-19, 12:43:46
Das man auf einer GPU die nur GDDR3 unterstützt keinen GDDR5 Speicher verbaut dürfte ja klar sein, in dieser Diskusion geht es auch nicht um Speicher Technologie. Jedoch wurde auf diese der schnellste damals in Massen Verfügbarer GDDR3 Speicher verbaut und genau um das geht es ja in dieser Diskusion im Moment!

nicht um sonst hab ich geschriben des selben types...

schon nur aus dem grund den ich oben erwähnt habe werden wir im 2013 schnelleren Speicher auf der Karten sehen.

boxleitnerb
2012-06-19, 21:38:52
Wie kommt man eigentlich auf 2+ TF DP aus dem Startpost? 2880*2*0,85GHz*(1:3)=1,632TF. Und das ist noch die größte Variante mit allen SMX aktiv. Nvidia hatte ja angegeben im Whitepaper 192 SP-Einheiten und 64 DP-Einheiten, also 1:3.

john carmack
2012-06-20, 09:31:21
Es ist keine Schwäche, sondern der Rohleistungsvorteil von Tahiti, der dort ausgespielt werden kann, da hier nicht mehr die Hauptlast auf dem Front-End liegt.

Aber nach aktuellen Infos dürfte GK110 (2880SPs, 240 TMUs) wohl ein deutlichen Rohleistungsvorteil gegenüber Tahiti haben.

Hatte ATI/AMD nicht schon immer mehr "Rohleistung" als Nvidia?
Das war doch schon zu 9800Pro und x800Pro Zeiten so gewesen... Oder?

Skysnake
2012-06-20, 09:37:37
Da hattest du aber auch zwei grundverschiedene Architekturen VLIW vs. SIMD....

Das kann man nicht so direkt vergleichen. AMD hat mit VLIW auch viel mehr Rechenleistung gebraucht, weil im Durchschnitt die Effizienz bzgl theoretische vs reale Rechenleistung viel schlechter ist als bei SIMD.

Wenn VLIW aber mal ausgelastet werden kann, spielte man immer jeder nVidia an die Wand. Das sind aber halt nur einige wenige Probleme, die so gut gepasst haben, aber Sie gab es schon immer und wird es auch immer geben.

Daher kauft man auch die Hardware die auf SEIN Problem am besten Passt, und nicht nach irgendwelchen blablub PR-Gefasel

Ailuros
2012-06-20, 10:05:22
Das man auf einer GPU die nur GDDR3 unterstützt keinen GDDR5 Speicher verbaut dürfte ja klar sein, in dieser Diskusion geht es auch nicht um Speicher Technologie. Jedoch wurde auf diese der schnellste damals in Massen Verfügbarer GDDR3 Speicher verbaut und genau um das geht es ja in dieser Diskusion im Moment!

nicht um sonst hab ich geschriben des selben types...

Man brauchte auch nicht mehr als GDDR3 mit einem 512bit bus, aber da es mir zu bunt wird mich staendig im Kreis zu drehen reicht es so weit.

schon nur aus dem grund den ich oben erwähnt habe werden wir im 2013 schnelleren Speicher auf der Karten sehen.

Kepler erlaubt dank aufgemoebeltem MC hoehere Speicherfrequenzen als je zuvor. Von dem abgesehen GK110 koennte durchaus schneller als 1.5GHz GDDR5 haben, aber garantiert ist es gerade auch nicht.

AnarchX
2012-06-20, 10:09:18
Sowohl Tahiti als GK104 haben wohl Speicherkontroller die mit 7Gbps+ arbeiten könnten. Aber fraglich ob es jemals lieferbaren 7Gbps GDDR5 geben wird, immerhin wurde dieser schon im Herbst 2008 angekündigt...

edit:
Hier hat Samsung vor kurzem mal wieder den 7Gbps GDDR5 erwähnt: http://www.voicesatsamsungsemiconductor.com/2012/06/digital-imagery-in-an-increasingly-%E2%80%98picture-perfect%E2%80%99-world/ :D

Neurosphere
2012-06-20, 10:20:00
Wie ist das eigentlich mit den DP-Einheiten. Sind die als eigenständige Einheiten vorhanden oder werden da normale Shader zusammengeschaltet für die Berechnung wie es bei Fermi?

Denn schon bei 15 SMX ausgehend von GK104 landet man bei über 550mm²...

AnarchX
2012-06-20, 10:25:58
Nvidia besteht auf dedizierte Einheiten. Deren Flächenbedarf dürfte wohl nicht so hoch sein, die Anbindung ist wohl eher das Problem, weshalb man sie auch nicht für SP-Berechnungen nutzen kann.

Hier mal GK104 und 110 im maßstabsgerechten Vergleich: http://pc.watch.impress.co.jp/img/pcw/docs/537/002/9.jpg

Neurosphere
2012-06-20, 10:37:38
Dann muss die Transistordichte aber höher sein. Ich kann mir nicht vorstellen das sie es sonst schaffen würden unter 600mm² zu bleiben. Natürlich hat er bei den ROPs und beim Interface nicht so zugelegt wie bei Shadern und TMUs, trotzdem sind da irgendwo Grenzen bei den Möglichkeiten.

AnarchX
2012-06-20, 10:38:51
Natürlich wird die Transistordichte höher sein, siehe GF114 vs GF110.

Ailuros
2012-06-20, 10:49:56
Nvidia besteht auf dedizierte Einheiten. Deren Flächenbedarf dürfte wohl nicht so hoch sein, die Anbindung ist wohl eher das Problem, weshalb man sie auch nicht für SP-Berechnungen nutzen kann.

Hier mal GK104 und 110 im maßstabsgerechten Vergleich: http://pc.watch.impress.co.jp/img/pcw/docs/537/002/9.jpg

"Besteht" ist eher relativ zum bisherigen Marketing-Geblubber was das Thema betrifft. Ich kann mir immer noch nicht vorstellen dass GK110 2880 FP32 SPs und 960 FP64 SPs hat, wobei die letzten hypothetisch NUR ueber DP faehig sind.

Sonst bei theoretischen 550mm2 und 7.1b Transistoren sind es 12.9M/mm2. Koennte aber auch etwas mehr als 550 sein, da der chip als ich fragte noch zu "jung" war.

Neurosphere
2012-06-20, 10:50:59
@ AnarchX, das sind aber unter 2% unterschied, soviel ändert das auch nicht.

Godmode
2012-06-20, 10:54:33
Wie kommt man eigentlich auf 2+ TF DP aus dem Startpost? 2880*2*0,85GHz*(1:3)=1,632TF. Und das ist noch die größte Variante mit allen SMX aktiv. Nvidia hatte ja angegeben im Whitepaper 192 SP-Einheiten und 64 DP-Einheiten, also 1:3.

Ist schon länger nicht mehr angepasst worden. Werde mich darum kümmern.

AnarchX
2012-06-20, 11:01:24
@ AnarchX, das sind aber unter 2% unterschied, soviel ändert das auch nicht.

7,1Mrd auf 550mm² VS 3,54Mrd auf 294mm² sind auch nur ~7% und der Chipgrößen-Unterschied ist noch größer als bei den Fermi-GPUs

Neurosphere
2012-06-20, 11:31:20
Die 550mm² sind doch garnicht offiziel oder?

Wenn du grob überschlägst und nimmst die 332mm²/9*15 landest du bei knapp 550mm². Wie oben schon gesagt kommt das nicht ganz hin wegen ROPs und Interface, aber dafür hast du auch mehr Infrastruktur und Caches. 960 weitere Einheiten passen da nicht rein, dazu müssten es schon 25% unterschied bei der Transitordichte sein.

Ailuros
2012-06-20, 11:39:49
Die 550mm² sind doch garnicht offiziel oder?

Nein durchaus nicht. Momentan kann man aber trotzdem mit zumindest 550mm2 rechnen. Die erste genaue Meldung war groesser als Fermi und kleiner als GT200.

Wenn du grob überschlägst und nimmst die 332mm²/9*15 landest du bei knapp 550mm². Wie oben schon gesagt kommt das nicht ganz hin wegen ROPs und Interface, aber dafür hast du auch mehr Infrastruktur und Caches. 960 weitere Einheiten passen da nicht rein, dazu müssten es schon 25% unterschied bei der Transitordichte sein.

332mm2 fuer was?

7.1b / 560 = 12.7M/mm2
7.1b / 550 = 12.9M/mm2
GK104 3.54b / 294 = 12.0M/mm2

1. Wenn man hypothetisch akzeptiert dass GK110 960 dedizierte DP SPs hat, muss man auch automatisch akzeptieren dass auch GK104 64 dieser "Tiere" traegt (unwahrscheinlich IMHO).
2. Wenn man die beiden die shots oben vergleicht sieht man schnell um wieviel groesser jeglicher GK110 SMX ist im Vergleich zu einem GK104 SMX, sind aber dafuer auch nicht 2x Mal so viel wie beim letzten.
3. Ich tippe fuer GK110 immer noch auf 5 GPCs (3 SMX/GPC) fuer GK110. Wenn's stimmt "nur" ein GPC bzw. raster/trisetup mehr als bei GK104.
4. In den ROPs vom GK110 sollen auch die L2 caches stecken.

Neurosphere
2012-06-20, 11:57:26
Nein durchaus nicht. Momentan kann man aber trotzdem mit zumindest 550mm2 rechnen. Die erste genaue Meldung war groesser als Fermi und kleiner als GT200.



332mm2 fuer was?

7.1b / 560 = 12.7M/mm2
7.1b / 550 = 12.9M/mm2
GK104 3.54b / 294 = 12.0M/mm2

1. Wenn man hypothetisch akzeptiert dass GK110 960 dedizierte DP SPs hat, muss man auch automatisch akzeptieren dass auch GK104 64 dieser "Tiere" traegt (unwahrscheinlich IMHO).
2. Wenn man die beiden die shots oben vergleicht sieht man schnell um wieviel groesser jeglicher GK110 SMX ist im Vergleich zu einem GK104 SMX, sind aber dafuer auch nicht 2x Mal so viel wie beim letzten.
3. Ich tippe fuer GK110 immer noch auf 5 GPCs (3 SMX/GPC) fuer GK110. Wenn's stimmt "nur" ein GPC bzw. raster/trisetup mehr als bei GK104.
4. In den ROPs vom GK110 sollen auch die L2 caches stecken.

Oh, bei GK104 hab ich mich irgendwie verhaspelt. Sind natürlich 294mm², ka wie ich auf 332mm² gekommen bin.

Das bei GK104 bereits DP Einheiten verbaut sind kann ich mir nicht vorstellen. Das wäre ziemlich viel Ballast dafür das man GK104 nirgendwo als DP-Karte einsetzt. Die Tesla Karten die erscheinen werden rein als SP-Karten angepriesen.

Ich find den Shot aus dem Link ziemlich nichtssagend. Ohne zu wissen wie die Diesize bei GK110 ist, ist ein solcher Vergleich nichts wert weil ich keinen Maßstab habe.

AnarchX
2012-06-20, 11:58:49
Ich find den Shot aus dem Link ziemlich nichtssagend. Ohne zu wissen wie die Diesize bei GK110 ist, ist ein solcher Vergleich nichts wert weil ich keinen Maßstab habe.
Die Speicher-/PCIe-Interfaces sind ein guter Maßstab, anhand den man maßstabsgerecht skalieren kann.

Neurosphere
2012-06-20, 12:01:42
Die Speicher-/PCIe-Interfaces sind ein guter Maßstab, anhand den man maßstabsgerecht skalieren kann.

Wo siehst du das denn auf dem Shot oben?

Ailuros
2012-06-20, 12:13:38
Ich find den Shot aus dem Link ziemlich nichtssagend. Ohne zu wissen wie die Diesize bei GK110 ist, ist ein solcher Vergleich nichts wert weil ich keinen Maßstab habe.

Wie gesagt die erste insider Meldung war fuer >Fermi und <GT200 und spaeter 550mm2. Die zweite Ziffer kam vom gleichen Kerl der GK104 auf 294mm2 festlegte als fruehe die-shot Spekulationen noch auf 330-350mm2 je nach Fall deuteten.

Wie dem auch sei ob Du jetzt hypothetisch fuer GK110 550mm2 nimmst oder sogar 600mm2 ist der Unterschied in Packdichte im Vergleich zu GK104 relativ klein:

GK104 = 3.54b / 294mm2 = 12.0M/mm2
GK110 = 7.10b / 550mm2 = 12.9M/mm2
GK110 = 7.10b / 600mm2 = 11.8M/mm2

Anders da der die wohl schwer groesser als 600mm2 sein kann und ebenso schwer kleiner als 550mm2 liegt der Unterschied in Packdichte im Vergleich zum GK104 zwischen <2% und ~7%.

Hübie
2012-06-20, 12:45:19
Also. Ich hab mal einen GK104-shot soweit herunterskaliert bis er auf dem Monitor 17 mm länge ergab (17,1*17,2 mm waren das glaub ich). Im Hintergrund lag der Maßstabsgetreue GK110 shot. Ich gehe mal davon aus dass die Anbindungen gleich bleiben (8 * 64Bit MC). Wenn ich den nun hochrechne komme ich auf satte 576 mm². Also die goldene Mitte. Das ergebe dann 12,38M/mm².

Wir liegen also gar nicht so verkehrt schätz ich. Wenn wir die üblichen Messungenauigkeiten meiner Optik berücksichtigen liegen wir wohl bei 560 mm² was dann 12,73 M/mm² entspräche.

Neurosphere
2012-06-20, 12:52:16
Anders da der die wohl schwer groesser als 600mm2 sein kann und ebenso schwer kleiner als 550mm2 liegt der Unterschied in Packdichte im Vergleich zum GK104 zwischen <2% und ~7%.

Eben darum scheint es ja relativ unmöglich zu sein das irgendwo noch 960 DP Einheiten auf dem Chip sitzen.

boxleitnerb
2012-06-20, 13:47:49
Es gibt ja noch keinen GK114 Spekulationsthread. Wie könnten Nvidias Planungen eurer Meinung nach denn aussehen?

Kann man mit kleinen Taktupdates und GK104-107 konkurrenzfähig bleiben bis Maxwell? Ich kann mir nicht vorstellen, dass es nur bei diesen Chips bleiben wird. Ob Nvidia ein komplett neues Lineup launcht Anfang 2013 mit GK114-117 und GK110 dann unangefochten an der Spitze stehen wird?

AMD hat ja mit Sea Islands anscheinend alle (?) Chips zum Tapeout gebracht, vom kleinsten bis zum größten. Es wäre interessant zu wissen, ob Nvidia zukünftig mit nur einer Generation in den Ring steigt und diese leicht aufmöbelt oder gar umbenennt (GK104 wird vielleicht zur GTX760?) während AMD jedes Jahr eine volle und neue Palette bringt. Wäre dies der Fall, würde man in der ersten Hälfte einer Generation gut dastehen, in der zweiten aber klar an Boden verlieren, je nachdem, was die Konkurrenz mit dem Midlifekicker auf die Beine stellen kann.

Ailuros
2012-06-20, 14:24:37
Eben darum scheint es ja relativ unmöglich zu sein das irgendwo noch 960 DP Einheiten auf dem Chip sitzen.

Wie ich schon mal sagte ich kann mir als Laie bestenfalls vorstellen dass auf GK110 bzw. GK104 einfach jeweils 2 SP SIMDs zusammengeschleusst werden fuer DP und die angeblichen "dedizierten DP Einheiten" irgendwelche zusaetzliche Logik darstellen die helfen DP zu erreichen.

Im Gegenfall ist nicht nur die zusaetzliche die area auf GK110 ein Problem fuer reine hypothetische 960 DP Einheiten, sondern eben dass die Dinger ausserhalb von DP ops einfach nur dumm herumhocken und Pullover stricken.

IMHO sind die GK110 SMXs um einiges physikalisch groesser als bei GK104 hauptsaechlich fuer die zusaetzlichen Faehigkeiten fuer den ersten.

Duplex
2012-06-20, 14:27:56
@boxleitnerb
Wenn der Tahiti XT Nachfolger (8970) nur 30% schneller wird, dann braucht Nvidia dafür keinen GK110 mit 2880 Shader, ein möglicher GK114 mit ca. 2000 Shader & Takt Updates ohne HPC Zeug @350mm² sollte ausreichen.

Ailuros
2012-06-20, 14:33:09
Es gibt ja noch keinen GK114 Spekulationsthread. Wie könnten Nvidias Planungen eurer Meinung nach denn aussehen?

Kann man mit kleinen Taktupdates und GK104-107 konkurrenzfähig bleiben bis Maxwell? Ich kann mir nicht vorstellen, dass es nur bei diesen Chips bleiben wird. Ob Nvidia ein komplett neues Lineup launcht Anfang 2013 mit GK114-117 und GK110 dann unangefochten an der Spitze stehen wird?

AMD hat ja mit Sea Islands anscheinend alle (?) Chips zum Tapeout gebracht, vom kleinsten bis zum größten. Es wäre interessant zu wissen, ob Nvidia zukünftig mit nur einer Generation in den Ring steigt und diese leicht aufmöbelt oder gar umbenennt (GK104 wird vielleicht zur GTX760?) während AMD jedes Jahr eine volle und neue Palette bringt. Wäre dies der Fall, würde man in der ersten Hälfte einer Generation gut dastehen, in der zweiten aber klar an Boden verlieren, je nachdem, was die Konkurrenz mit dem Midlifekicker auf die Beine stellen kann.

Die Frage fuer einen GK104 refresh aka GK114 waere wohl weniger ob man noch ein paar Einheiten dazustecken kann oder die Frequenz um N% erhoehen sondern eher woher man die zusaetzliche Bandbreite dafuer bekommen wuerde. Einen breiteren bus halte ich persoenlich fuer unwahrscheinlich da es zu umstaendlich und zu teuer waere fuer einen refresh, bleibt eigentlich dann nur noch die Moeglichkeit von leicht schnellerem GDDR5 fuer 2013.

Dumme Frage: ausser es stimmt etwas nicht mit einer gewissen Architektur, wie oft kam es genau vor dass ein jeglicher refresh chip egal von wem mehr als 10-15% als der Vorgaenger lieferte?

boxleitnerb
2012-06-20, 14:36:08
Schneller als was? Tahiti XT V1 oder V2? Man sollte AMD nicht unterschätzen. Ob so ein Chip überhaupt kommt? Es gibt bisher soweit ich weiß noch keinen einzigen Hinweis, und wenn der Tapeout noch auf sich warten lässt, wird man wieder nach AMD launchen.

Weiterhin muss man sich fragen, ob man damit bei Graphics nicht GK110 gefährlich werden würde. Deutlich mehr Takt, dafür weniger Einheiten. Kommt irgendwie auf dasselbe heraus. Mit 256bit würden sie den GK114 kastrieren, mit 384bit könnte er eben ziemlich nah an GK110 liegen.

Nehmen wir mal deine 30% an auch für GK104 -> 114.
GK110 könnte ca. 50% vor GK104 landen (recht optimistisch imo). Wo bleibt da Platz für GK110 salvage? Ich fürchte, GK114 wird nicht reichen für Sea Islands und auch nur mit 256bit kommen. GK110 wird gut reichen, aber teurer und ineffizienter sein. Das meinte ich: Bei der zweiten Hälfte einer neuen Generation könnte Nvidia deutlich schlechter dastehen.

@Ailuros:
Ja da warst schneller als ich. Ich glaub wie gesagt auch nicht an mehr als 256bit für GK114.
Zur Performancefrage: Nicht nur, dass die Generation auseinandergerissen wurde (GK104-107 jetzt, GK110 viel später), der Performancegewinn von allen 28nm Karten war der geringste seit Jahren. Um auf die üblichen 70% zu kommen, muss da deutlich mehr als die 10-15% kommen. Die GTX680 ist ca. 35% im Schnitt flotter als die 580. 135%*115%=155%. Das ist ein bisschen wenig.

Duplex
2012-06-20, 14:41:36
Zu optimistisch darf man bei AMD nicht sein (Cypress > Cayman / +20% Einheiten, beide 40nm)

GK110 hat ganze 2880 GPU Shader, gefährlich wird AMD nur wenn Sie mind. 2560 Shader haben und ein neues starkes Frontend besitzen oder aber kleine Frontend verbesserungen mit 3072 Shader.

boxleitnerb
2012-06-20, 14:44:34
Hauptsächlich finde ich es besorgniserregend, dass noch nichts über die Planungen für die kleineren Chips bekannt ist. Dort wird das Geld gemacht. GK107 kann gegen Cape Verde nicht mithalten, GK106 wird bei der Effizienz vermutlich hinter Pitcairn liegen. Wenn dort nichts neu aufgelegt ist, sieht es gegen Sea Islands wohl dunkel aus.

Skysnake
2012-06-20, 14:53:14
Die Frage fuer einen GK104 refresh aka GK114 waere wohl weniger ob man noch ein paar Einheiten dazustecken kann oder die Frequenz um N% erhoehen sondern eher woher man die zusaetzliche Bandbreite dafuer bekommen wuerde. Einen breiteren bus halte ich persoenlich fuer unwahrscheinlich da es zu umstaendlich und zu teuer waere fuer einen refresh, bleibt eigentlich dann nur noch die Moeglichkeit von leicht schnellerem GDDR5 fuer 2013.

Dumme Frage: ausser es stimmt etwas nicht mit einer gewissen Architektur, wie oft kam es genau vor dass ein jeglicher refresh chip egal von wem mehr als 10-15% als der Vorgaenger lieferte?
Du vergisst noch eine weitere Möglichkeit ;)

Mehr L2 Cache :cool:

Das wurde ja schon bei GK110 gemacht, und man könnte durchaus erwarten, dass die GK11x durch eben diesen größeren Cache sich von den GK10x Versionen absetzen sollen. Man würde nicht unmengen an DIE-Space verschwenden für ein breiteres INterface, und man würde auch ansonsten den Abstand wahren zwischen den Produkten. Also ich halte das am wahrscheinlichsten.

Zu optimistisch darf man bei AMD nicht sein (Cypress > Cayman / +20% Einheiten, beide 40nm)

GK110 hat ganze 2880 GPU Shader, gefährlich wird AMD nur wenn Sie mind. 2560 Shader haben und ein neues starkes Frontend besitzen oder aber kleine Frontend verbesserungen mit 3072 Shader.
Muss Tahiti/Tahiti-Nachfolger super duber skalieren bei Games?
Ich würde sagen eher nicht. Dafür ist Pitcaim da. GK110 wird in Games auch nicht so viel besser skalieren im Vergleich zu GK114 wie in Compute Anwendungen.

AMD geht da halt einen Mittelweg. Vielleicht zahlt sich das am Ende aus. Wir werden es in ein paar Jahren sehen.

Wenn das Frontend einfach mitskaliert wird im aktuellen Zustand wäre es meiner Meinung nach absolut ausreichend.

Hauptsächlich finde ich es besorgniserregend, dass noch nichts über die Planungen für die kleineren Chips bekannt ist. Dort wird das Geld gemacht. GK107 kann gegen Cape Verde nicht mithalten, GK106 wird bei der Effizienz vermutlich hinter Pitcairn liegen. Wenn dort nichts neu aufgelegt ist, sieht es gegen Sea Islands wohl dunkel aus.
Was ich noch VIEL besorgniserregender daran finde ist, das man von nem GTX660 noch nichts sieht und AMD schon das TapeOut der nächsten Generation hinter sich hat :ugly: DAS macht mir Sorgen.

Was hat man denn aktuell für eine Auswahl an Desktop Karten? GTX690, GTX680 und GTX670, die alle der gleiche Chip sind, und das wars dann auch schon, oder kam da noch was inzwischen?

boxleitnerb
2012-06-20, 14:55:59
Es hieß "Sea Islands" hat das Tapeout hinter sich, das ist aber eine Chipfamilie, kein einzelner Chip. Ist es üblich, dass 3-4 Chips gleichzeitig fertig sind? Die Nachfolger der Mittelklasse könnten auch klar später kommen wie es jetzt schon der Fall war.

Duplex
2012-06-20, 14:57:38
Mit Sea Islands Tapeout kann auch der Tahiti Nachfolger gemeint sein ;)

Duplex
2012-06-20, 14:58:53
Hauptsächlich finde ich es besorgniserregend, dass noch nichts über die Planungen für die kleineren Chips bekannt ist. Dort wird das Geld gemacht. GK107 kann gegen Cape Verde nicht mithalten, GK106 wird bei der Effizienz vermutlich hinter Pitcairn liegen. Wenn dort nichts neu aufgelegt ist, sieht es gegen Sea Islands wohl dunkel aus.

Ich würde mir bei Nvidia keine sorgen machen, die machen im GPU Markt sowieso mehr Geld als AMD.
AMDs 3%...tchen Gewinn vom Umsatz ist wirklich nicht schön :D

Ailuros
2012-06-21, 09:56:21
Du vergisst noch eine weitere Möglichkeit ;)

Mehr L2 Cache :cool:

Das wurde ja schon bei GK110 gemacht, und man könnte durchaus erwarten, dass die GK11x durch eben diesen größeren Cache sich von den GK10x Versionen absetzen sollen. Man würde nicht unmengen an DIE-Space verschwenden für ein breiteres INterface, und man würde auch ansonsten den Abstand wahren zwischen den Produkten. Also ich halte das am wahrscheinlichsten.

GK110 hat ein ganz anderes Design-Ziel als Performance GK1x4. Obwohl ich die Moeglichkeit noch nicht ausschliessen will, sehe ich trotz hypothetischem aufgepumpter L2 cache auf einem GK114 keinen besonders grossen Unterschied in 3D im Vergleich zu GK104.

Kann durchaus sein dass NV irgendwelchen Ass im Aermel hat fuer GK114 den ich mir momentan als Laie nicht vorstellen kann. Es faellt mir einfach schwer mir vorzustellen dass ein refresh chip innerhal =/<1 Jahr so viel mehr an Leistung drauflegen kann, so lange wirklich nichts krummes an GK104 lag.

Bei GF104 vs. GF114 war es eine andere Geschichte, da das zweite mit allen clusters eingeschaltet ankam und hoeheren Frequenzen.

Schneller als was? Tahiti XT V1 oder V2? Man sollte AMD nicht unterschätzen. Ob so ein Chip überhaupt kommt? Es gibt bisher soweit ich weiß noch keinen einzigen Hinweis, und wenn der Tapeout noch auf sich warten lässt, wird man wieder nach AMD launchen.

Nur weil bisher keiner etwas von einem tape out berichtet hat, heisst es erstmal gar nichts. Wer genau hat im Herbst 2011 den GK104 tape out berichtet, erwaehnt oder angedeutet?

Weiterhin muss man sich fragen, ob man damit bei Graphics nicht GK110 gefährlich werden würde. Deutlich mehr Takt, dafür weniger Einheiten. Kommt irgendwie auf dasselbe heraus. Mit 256bit würden sie den GK114 kastrieren, mit 384bit könnte er eben ziemlich nah an GK110 liegen.

Die Wahrscheinlichkeit dass GK110 seine R&D Kosten ohne desktop decken kann sind nach wie vor gleich Null IMHO. Waere die Situation anders und NV wuesste es schon seit ein paar Jahren haetten sie eventuell GK110 nur fuer HPC entwickeln koennen und GK1x4 auch fuer mehr als Performance langfristig ansteuern. Unter den gegebenen Verhaeltnissen muss es einen logischen Abstand von sagen wir mal 40% zwischen GK110 und GK114 geben.

Nehmen wir mal deine 30% an auch für GK104 -> 114.
GK110 könnte ca. 50% vor GK104 landen (recht optimistisch imo). Wo bleibt da Platz für GK110 salvage? Ich fürchte, GK114 wird nicht reichen für Sea Islands und auch nur mit 256bit kommen. GK110 wird gut reichen, aber teurer und ineffizienter sein. Das meinte ich: Bei der zweiten Hälfte einer neuen Generation könnte Nvidia deutlich schlechter dastehen.

Keiner der beiden IHVs haben einen Zauberstab; natuerlich kann man theoretisch vieles anrichten, aber umsonst wird es weder in die area noch in Stromverbrauch am Ende sein. Noch schlimmer wie schnell wollen beide IHVs die gesamte moegliche 28nm Puste rauslassen, wenn man bedenkt dass 20nm wohl nicht so bald ankommen wird?

@Ailuros:
Ja da warst schneller als ich. Ich glaub wie gesagt auch nicht an mehr als 256bit für GK114.
Zur Performancefrage: Nicht nur, dass die Generation auseinandergerissen wurde (GK104-107 jetzt, GK110 viel später), der Performancegewinn von allen 28nm Karten war der geringste seit Jahren. Um auf die üblichen 70% zu kommen, muss da deutlich mehr als die 10-15% kommen. Die GTX680 ist ca. 35% im Schnitt flotter als die 580. 135%*115%=155%. Das ist ein bisschen wenig.

Welcher 28nm Performance-Gewinn war gering? GK104 ist ein Performance-chip und man kann ihn lediglich gegen GF114/GF104 vergleichen, so lange GK110 als single high end chip fuer desktop geplant ist. Unter dieser Logik ist es ziemlich wurscht um wieviel schneller eine GTX680 gegen eine GTX580 ist. Und bevor Du es sagst ja Preise, aber es ist eine bedauerliche Realitaet die momentan beide IHVs betrifft.

Nochmal nur weil 680/7970 momentan immer noch high end GPU Preise haben, heisst es bei weitem nicht dass sie auch wirklich high end SKUs am Ende sind.

AnarchX
2012-06-21, 10:01:20
Du vergisst noch eine weitere Möglichkeit ;)

Mehr L2 Cache :cool:

GK107 scheint wohl relativ gut von seinen 256KiB zu profitieren und erzielt selbst mit langsamen DDR3 ordentliche Ergebnisse. Da wäre wohl auf einem GK114 1MiB L2 nicht verkehrt, wenn kein schnellerer GDDR5 verfügbar ist.

boxleitnerb
2012-06-21, 10:18:55
Nur weil bisher keiner etwas von einem tape out berichtet hat, heisst es erstmal gar nichts. Wer genau hat im Herbst 2011 den GK104 tape out berichtet, erwaehnt oder angedeutet?


Stimmt, hab ich nicht bedacht.


Die Wahrscheinlichkeit dass GK110 seine R&D Kosten ohne desktop decken kann sind nach wie vor gleich Null IMHO. Waere die Situation anders und NV wuesste es schon seit ein paar Jahren haetten sie eventuell GK110 nur fuer HPC entwickeln koennen und GK1x4 auch fuer mehr als Performance langfristig ansteuern. Unter den gegebenen Verhaeltnissen muss es einen logischen Abstand von sagen wir mal 40% zwischen GK110 und GK114 geben.


Hm, du hast ja angedeutet, dass GK110 40-50% vor GK104 landen könnte. Ich sehe da jetzt nicht wirklich Platz für den Übergang von GK104 auf GK114. Wieviel Raum bleibt da für eine Verbesserung? 5-15%? Oder man senkt den Verbrauch von GK114 wieder in Richtung GTX560 Ti oder sogar noch tiefer und steckt den Chip dorthin, wo er eigentlich hingehört.


Keiner der beiden IHVs haben einen Zauberstab; natuerlich kann man theoretisch vieles anrichten, aber umsonst wird es weder in die area noch in Stromverbrauch am Ende sein. Noch schlimmer wie schnell wollen beide IHVs die gesamte moegliche 28nm Puste rauslassen, wenn man bedenkt dass 20nm wohl nicht so bald ankommen wird?


Nvidia hat ja noch gut Luft, ca. 60W TDP und 150-250mm2 für den dicken Brummer, ausgehend von GK104. AMD hat sein Pulver mit Tahiti V2 schon verschossen, aber das sind vermutlich immerhin 20% mehr Perf/W. Kommt halt auf den Bezugspunkt an. Ist leicht OT, aber wie schätzt du denn den größten Sea Islands Chip ein bei der Performance, sagen wir mal gegenüber Tahiti V1?


Welcher 28nm Performance-Gewinn war gering? GK104 ist ein Performance-chip und man kann ihn lediglich gegen GF114/GF104 vergleichen, so lange GK110 als single high end chip fuer desktop geplant ist. Unter dieser Logik ist es ziemlich wurscht um wieviel schneller eine GTX680 gegen eine GTX580 ist. Und bevor Du es sagst ja Preise, aber es ist eine bedauerliche Realitaet die momentan beide IHVs betrifft.

Nochmal nur weil 680/7970 momentan immer noch high end GPU Preise haben, heisst es bei weitem nicht dass sie auch wirklich high end SKUs am Ende sind.

Bei Nvidia hast du sicherlich Recht. Durch den Namen vergisst man schnell, wo der Chip eigentlich hingehört. Bei AMD siehts anders aus. Hier haben wir mit durch die Bank von Cape Verde bis Tahiti V1 nur ca. 35% ggü. den direkten Vorgängern. Das ist wirklich wenig im Vergleich zu früher, z.B. HD5000 vs HD4000.

Ailuros
2012-06-21, 10:57:11
Hm, du hast ja angedeutet, dass GK110 40-50% vor GK104 landen könnte.

IMHO analog zum Bandbreiten-Unterschied zwischen den beiden.

Ich sehe da jetzt nicht wirklich Platz für den Übergang von GK104 auf GK114. Wieviel Raum bleibt da für eine Verbesserung? 5-15%? Oder man senkt den Verbrauch von GK114 wieder in Richtung GTX560 Ti oder sogar noch tiefer und steckt den Chip dorthin, wo er eigentlich hingehört.

Gegen einen generellen 28nm Preisrutsch wird wohl keiner etwas dagegen haben. In dem Fall ist es dann wohl eher wurscht ob der Leistungs-Unterschied gering sein wird, denn fuer den Endverbraucher ist das eigentliche "hoppla" dann eher dass man endlich GK104/Tahiti Nachfolger fuer um einiges logischere Preise erhalten kann.

Wenn ja platziert sich dann GK110 desktop im ~$500 Bereich.

Nvidia hat ja noch gut Luft, ca. 60W TDP und 150-250mm2 für den dicken Brummer, ausgehend von GK104. AMD hat sein Pulver mit Tahiti V2 schon verschossen, aber das sind vermutlich immerhin 20% mehr Perf/W. Kommt halt auf den Bezugspunkt an. Ist leicht OT, aber wie schätzt du denn den größten Sea Islands Chip ein bei der Performance, sagen wir mal gegenüber Tahiti V1?

Dafuer brauchst Du nicht meine Schaetzung; es reicht Dir geschichtlich anzusehen wie die Leistungsunterschiede fuer AMD/ATI in der Vergangenheit aussahen.

Bei Nvidia hast du sicherlich Recht. Durch den Namen vergisst man schnell, wo der Chip eigentlich hingehört. Bei AMD siehts anders aus. Hier haben wir mit durch die Bank von Cape Verde bis Tahiti V1 nur ca. 35% ggü. den direkten Vorgängern. Das ist wirklich wenig im Vergleich zu früher, z.B. HD5000 vs HD4000.

Und AMD kann wie leicht mit einer zukuenftigen performance GPU die 250W TDP Schwelle ueberschreiten?

Hades11
2012-06-29, 09:42:23
Denkt ihr dass NV mit GK110 die Bildqualität wieder verbessert?
sie hatten ja lange zeit eine bessere Bildqualität als AMD, momentan herscht aber eher gleichstand bzw AMD liegt bei SGSSAA durch die LOD-anpassung sogar etwas vorne.

M4xw0lf
2012-06-29, 09:48:37
Für die LOD-Anpassung brauchts keinen GK110.

Hades11
2012-06-29, 10:08:24
ich meinte ja nicht nur den LOD, außerdem könnte ich mir gut vorstellen dass NV die LOD-anpassung erst nur für GK110 und dessen kleinere Brüder macht (als zusätzliches verkaufsargument) und erst ein paar monate danach auch für den rest.

Neurosphere
2012-06-29, 10:34:50
Da GK110 und GK104 vom Grundaufbau ziemlich identisch sind wird es wohl über den Treiber laufen.

Ich denke mal NV wird GK110 über die Leistung vermarkten im Desktop und nicht unbedingt über neue exklusive Features.

N0Thing
2012-06-29, 11:41:47
Viele Bereiche zur Verbesserung sind ja nicht vorhanden. Vielleicht bieten sie irgendwann mal winkelunabhängige AF oder 64x AF. Aber da die meisten Menschen dies nicht bemerken würden, dürfte es in Zukunft weiter in Richtung FXAA und Konsorten gehen.

Coda
2012-06-29, 12:30:38
Vielleicht bieten sie irgendwann mal winkelunabhängige AF
Das AF ist für jeglichen Anwendungszweck praktisch winkelunabhängig. Da gibt es nichts zu verbessern.

oder 64x AF.
Sieht man nicht.

Das einzige was am NVIDIA-Filter noch kaputt ist, ist der Output mit LOD-Bias. Bei AMD gibt es immer noch ein fast unbemerkbares Problem mit der Flimmeranfälligkeit.

Lustigerweise hat Ivy Bridge wohl einen absolut perfekten Filter.

Ailuros
2012-06-29, 12:46:04
Lustigerweise hat Ivy Bridge wohl einen absolut perfekten Filter.

Man kann diesbeziegluech Intel nur den Hut abnehmen. "Absolut perfekt" wird der Filter wohl mathematisch nicht sein, nur eben so gut dass keinerlei Seiteneffekte sichtbar sein sollten oder?

Viele Bereiche zur Verbesserung sind ja nicht vorhanden. Vielleicht bieten sie irgendwann mal winkelunabhängige AF oder 64x AF. Aber da die meisten Menschen dies nicht bemerken würden, dürfte es in Zukunft weiter in Richtung FXAA und Konsorten gehen.

Wie Coda schon sagte bezweifle ich auch dass mehr als 16x samples fuer adaptives AF notwendig ist; war wir wirklich brauchen koennten sind bessere filter kernel. Einfacher besser hoehere insgesamte Filterqualitaet fuer bis zu 16x samples, als mehr samples mit dem gleichen heutigen relativ kleinen "Wehwechen". Qualitaet ueber Quantitaet.

Skysnake
2012-06-29, 13:51:54
Oder einfach mal bessere Texturen....

Mit Geometrie werden wir ja teilweise schon erschlagen. Ich seh die Texturen eigentlich als einzigen wirklich eklatant verbesserungswürdigen Punkt.

Da können die Hardware-Hersteller aber halt nichts tun.

y33H@
2012-06-29, 13:54:18
Mit Geometrie erschlagen? Nope. Kein aktuelles Spiel hat einen wirklich beeindruckenden Poly-Count, es sei denn, er wird unnötig per Tessellation aufgepumpt.

robbitop
2012-06-29, 13:59:00
Sie könnten mal einen Non-Box-Downsampling Filter für AA bringen...

Mit Geometrie erschlagen? Nope. Kein aktuelles Spiel hat einen wirklich beeindruckenden Poly-Count, es sei denn, er wird unnötig per Tessellation aufgepumpt.
Full ack! Wie oft sehe ich noch eckige Kurven, eckige Räder, eckige Finger und andere kobig modellierte Objekte.

Skysnake
2012-06-29, 14:02:45
Ich meinte schon mit Tesselation ;)

Da ist auch schon viel Leistung da. Die Softwarehersteller müssten es halt nur mal sinnvoll einsetzen. So Späße wie das Tesselierte Wasser unter der Erde bei Crysis2 seh ich als erschreckendes Gegenbeispiel.

Screemer
2012-06-29, 14:03:10
ich will endlich richtigen schnee. in dem man einsinkt und spuren hinterlässt, die auch noch halbwegs realistisch aussehen. natürlich soll er auch entsprechende physikalische eigenschaften haben (schmelzen bei feuer- oder körperkontakt (körperwärme), einschneinen von kalten gegenständen/körpern). mit "man" meine ich alle models und alle animationsstufen. das gerutsche über die bodenoberfläche von erschlagenen gegnern auf schneebedeckten abhängen wie z.b. in skyrim bin ich leid. dafür sollen die mal die computingpower des gk110 verblasen :D

Coda
2012-06-29, 14:05:19
Sie könnten mal einen Non-Box-Downsampling Filter für AA bringen...
Für uralte D3D9-Spiele?

aufkrawall
2012-06-29, 14:06:34
Für uralte D3D9-Spiele?
Wieso?
Bei AMD funktioniert ED theoretisch auch bei DX11.
Es funktioniert nur leider derzeit wohl überhaupt nicht.

Coda
2012-06-29, 14:19:27
Bei AMD funktioniert ED theoretisch auch bei DX11.
Whatever. Ich sage immer noch dass das bei DX11-Spielen Sache der App sein sollte, was sie am Ende mit den Samples macht.

Skysnake
2012-06-29, 14:20:00
ich will endlich richtigen schnee. in dem man einsinkt und spuren hinterlässt, die auch noch halbwegs realistisch aussehen. natürlich soll er auch entsprechende physikalische eigenschaften haben (schmelzen bei feuer- oder körperkontakt (körperwärme), einschneinen von kalten gegenständen/körpern). mit "man" meine ich alle models und alle animationsstufen. das gerutsche über die bodenoberfläche von erschlagenen gegnern auf schneebedeckten abhängen wie z.b. in skyrim bin ich leid. dafür sollen die mal die computingpower des gk110 verblasen :D
Dafür wird die Rechenpower wohl nur bei weitem nicht reichen :ugly:

Das tolle, aber auch das blöde ist halt, das PC-Games die derbsten blender sind. Die machen auf show&shine. Damit bekommt man mit relativ wenig Ressourcen richtig coole Sachen hin, aber manche Sachen wie das von dir gewünschte sind halt nicht möglich, weil du da dann halt nicht mehr so einfach tricksen kannst, wenn überhaupt, und ein Partikelsystem, was das entsprechend genau simuliert ist mal abartig aufwendig. :freak:

Coda
2012-06-29, 14:23:11
Für Schnee braucht man garantiert kein Partikelsystem. Schau dir doch mal From Dust an, und das läuft auf popeliger D3D9-Hardware.

aufkrawall
2012-06-29, 14:23:31
Whatever. Ich sage immer noch dass das bei DX11-Spielen Sache der App sein sollte, was sie am Ende mit den Samples macht.
Ergibt nicht wirklich Sinn.
Wichtig ist nur, dass der User die beste BQ erhalten kann. Alles andere ist zweitrangig.

Hübie
2012-06-29, 14:30:08
Sehe ich auch so. Mittels SSAA hebt man die Stufe eh noch mal an, was zwar nicht in mehr samples resultiert aber eben ein feineres Muster am Ende ergibt.
Am meisten nervt "Alpha-Flimmern". Dafür eine hardware basierte Lösung anzubieten die immer greift wäre imo das non plus ultra in Sachen IQ/BQ.

Für mich ist immer noch offen ob GK110 mit dynamic parallelism und hyperQ etc kommt (was letzlich eher Treibersache ist oder?). Auch wie die Virtualisierung funzt interssiert mich brennend. Wenn ich das richtig verstanden habe braucht man dafür mindestens 16-32MBit/s stream. Hat ggü. eines Videos sonst "nur" den Vorteil on the fly Arbeiten durchführen zu können.

LG Hübie

Schaffe89
2012-06-29, 14:42:52
urch den Namen vergisst man schnell, wo der Chip eigentlich hingehört. Bei AMD siehts anders aus. Hier haben wir mit durch die Bank von Cape Verde bis Tahiti V1 nur ca. 35% ggü. den direkten Vorgängern. Das ist wirklich wenig im Vergleich zu früher, z.B. HD5000 vs HD4000.

Man muss auch erwähnen, dass AMD bei den letzten Treibern die 8xAA Skalierung deutlich verbessert hat.
Bei Release lag man da noch lediglich 26% vor der HD 6970, jetzt sinds über 40%.

y33H@
2012-06-29, 14:57:52
Liegt das eventuell an der Spieleauswahl?

Schaffe89
2012-06-29, 15:07:22
Nein, ich glaub es hat dazu auch mal jemand nen Link hier gepostet, wos dazu ne News gab.
Man vergleiche Bei Computerbase den Releasetest unter 8xAA und dann den Test der Gigahertz Edition unter 8xAA.
Sind so um die 10% die man da rausgeholt hat.

robbitop
2012-06-29, 15:13:26
Whatever. Ich sage immer noch dass das bei DX11-Spielen Sache der App sein sollte, was sie am Ende mit den Samples macht.
Ja aber es legt ja offenbar auch kaum ein Entwickler wert darauf. Also bin ich für's Erzwingen.
Wie lange hat uns Flimmern durch Alphatests genervt - hätten Entwickler auch anders machen können. Oder flimmrige Shader. Am Ende musste es immer der User durch erzwungenes AA richten. Heute halt mit Kompatibilitäts-Bits.

Wäre ja super, wenn es einen Standard gäbe, der vorschreibt, dass jedes Spiel ab DX1x MS/SS/CSAA + sämtliche Downfilter anbieten müssen.

aufkrawall
2012-06-29, 15:28:09
Ja aber es legt ja offenbar auch kaum ein Entwickler wert darauf. Also bin ich für's Erzwingen.
Wie lange hat uns Flimmern durch Alphatests genervt - hätten Entwickler auch anders machen können. Oder flimmrige Shader. Am Ende musste es immer der User durch erzwungenes AA richten. Heute halt mit Kompatibilitäts-Bits.

Leider eher gestern, denn bei vielen der neuen DX9 Spiele funktionieren auch die Kompatibilitätsbits nicht mehr.


Wäre ja super, wenn es einen Standard gäbe, der vorschreibt, dass jedes Spiel ab DX1x MS/SS/CSAA + sämtliche Downfilter anbieten müssen.
Wenn man schon gleichzeitig verbietet zu erzwingen, finde ich das auch.
Zumal ja eh kein Spiel die beste Bildglättung, SGSSAA, von sich aus anbietet.

Skysnake
2012-06-29, 15:30:33
Damit verschlimmbessert man aber das Problem... Die Softwarehersteller stehen nicht unter Druck, etwas an der Sache an und für sich zu ändern, und gleichzeitig bekommen die eine auf die Mütze, die am wenigsten dafür können...

Vor allem, wenn man mit so ner "Notlösung"/Workaround lebt, dann werden die Softwarehersteller NOCH fauler, weil Sie ja sagen, es gibt ja ne Lösung und die reicht euch. Man müsste halt mal wirklich den Softwareherstellern auf die Füße treten und ihr Versagen groß anprangern, damit möglichst ein Kaufverzicht ausgeübt wird. DANN und nur DANN ändert sich bei denen auch was, weils Ihnen an den Geldbeutel geht.

Ansonsten tut sich doch da nichts. Das wären nur unnötige Gelder, die man ausgibt.

aufkrawall
2012-06-29, 15:43:35
Damit verschlimmbessert man aber das Problem... Die Softwarehersteller stehen nicht unter Druck, etwas an der Sache an und für sich zu ändern, und gleichzeitig bekommen die eine auf die Mütze, die am wenigsten dafür können...

Die kommen wohl kaum unter Druck, SGSSAA oder andere Filter einzubauen.
Warum sollten sie, auf einmal?
Sie sollen nur vernünftiges MSAA mitliefern.

Selbst Intel bietet ja die Aufwertung zu Alphatest-SGSSAA an.



Vor allem, wenn man mit so ner "Notlösung"/Workaround lebt, dann werden die Softwarehersteller NOCH fauler, weil Sie ja sagen, es gibt ja ne Lösung und die reicht euch. Man müsste halt mal wirklich den Softwareherstellern auf die Füße treten und ihr Versagen groß anprangern, damit möglichst ein Kaufverzicht ausgeübt wird. DANN und nur DANN ändert sich bei denen auch was, weils Ihnen an den Geldbeutel geht.

Ansonsten tut sich doch da nichts. Das wären nur unnötige Gelder, die man ausgibt.
Es tut sich schon was.
Max Payne 3 etwa hat jetzt halbwegs vernünftiges MSAA mit DX11.
Und das von Rockstar, die bei GTA IV überhaupt nichts mit AA am Hut hatten.
Es wird langsam aber sicher mehr solcher Spiele geben, dann braucht man auch keine Treiberprofile mehr.
Nur die Option zur Aufwertung.

Schaffe89
2012-06-29, 15:45:29
Ich denke mal spätestens wenn die neuen Konsolen da sind und sich die GPU Hersteller wie Nvidia und AMD vom Einheitsbrei dann wieder absetzen müssen, also von Full HD mit 4xMSAA, dann gibts auch selbst in den Spielemenüs die Auswahl für SGSSAA oder OGSSAA.

Max Payne 3 etwa hat jetzt halbwegs vernünftiges MSAA mit DX11.

Vernünftiges? Es greift bei einigen Kanten nicht und wenn man dann SGSSAA zuschalten will, flimmern einige Bildbereiche munter weiter.
Zu GTA4 ein positiver Wandel, auch was die Spielbarkeit und Geschmeidigkeit angeht, von den anfänglichen Problemen mit GTA4 ganz zu schweigen, da ist das ein herber Unterschied, aber die AA Implementierung ist in der Form für mich nicht mal halbwegs vernünftig, da nehm ich lieber noch FXAA.

aufkrawall
2012-06-29, 15:51:12
Vernünftiges? Es greift bei einigen Kanten nicht und wenn man dann SGSSAA zuschalten will, flimmern einige Bildbereiche munter weiter.
Zu GTA4 ein positiver Wandel, auch was die Spielbarkeit und Geschmeidigkeit angeht, von den anfänglichen Problemen mit GTA4 ganz zu schweigen, da ist das ein herber Unterschied, aber die AA Implementierung ist in der Form für mich nicht mal halbwegs vernünftig, da nehm ich lieber noch FXAA.
Kann ich nicht bestätigen, ich spiels mit 4xSGSSAA.

Skysnake
2012-07-03, 01:41:30
Vielleicht gibts doch mehr Kapazitäten für Desktop GK110 :ugly:

http://extreme.pcgameshardware.de/user-news/225202-nvidas-propritaere-treiber-fordern-erstes-opfer.html#post4356410


nVidia hat scheinbar nen Deal über mehr als 10 Millionen GPUs für die Chinesen verloren. Es soll sich dabei um ein Auftragsvolumen von 250-350 Millionen US-Dollar handeln, wobei mehrere unabhängige Quellen scheinbar eher von Richtung 500 Millionen US-Dollar sprechen :ugly:


Ziemlich harter Tobak gell ;D

Hübie
2012-07-03, 02:27:55
Afaik gings bei diesem deal aber nicht um GK110. In meinen Augen fahren die auch mit AMD da nicht wirklich besser. Aber ich habe a) keine Ahnung was die mit den Chips machen wollen und b) ewig kein Linux mehr genutzt.
AMD hat doch auch nur properitäre Treiber oder nicht???

LG Hübie

Skysnake
2012-07-03, 03:02:52
Nein, haben Sie nicht, zumindest meines wissens nach haben die auch einen recht ordentlich openSource treiber

boxleitnerb
2012-07-03, 07:29:54
Ich glaube das wurde schon in einem anderen Thread diskutiert, bist ein bissl spät dran :)
Mit GK110 hat das außerdem rein gar nix zu tun.

Dural
2012-07-03, 09:47:40
zudem liegt das ja alleine an NV ob sie ihre sachen der chinesischen Regierung (!!!) offen legen oder nicht!

ich würde es ehrlich gesagt auch nicht machen! den gross verdienen kann man bei diesen grossen Mengen eh kaum... Jensen hat schon früher immer gesagt zb. gegenüber Konsolen das es schön ist wenn man drin ist, finanziell hat so ein Deal aber kaum Auswirkungen auf das Geschäft und er sich deswegen nicht "einkaufen" will, wer NV will soll mehr bezahlen oder es sein lassen. (so direkt hat er es nicht gesagt, hat sich aber so angehört)

Ailuros
2012-07-03, 10:38:01
Vielleicht gibts doch mehr Kapazitäten für Desktop GK110 :ugly:

http://extreme.pcgameshardware.de/user-news/225202-nvidas-propritaere-treiber-fordern-erstes-opfer.html#post4356410


nVidia hat scheinbar nen Deal über mehr als 10 Millionen GPUs für die Chinesen verloren. Es soll sich dabei um ein Auftragsvolumen von 250-350 Millionen US-Dollar handeln, wobei mehrere unabhängige Quellen scheinbar eher von Richtung 500 Millionen US-Dollar sprechen :ugly:


Ziemlich harter Tobak gell ;D

Ist tatsaechlich OT, aber ich sehe den Zusammenhang zu GK110 nicht sehen so lange der Deal mit der chinesischen Regierung nie gesichert war. Nach allen Indizien haben sie den Deal tatsaechlich verloren, aber ein Vertrag der nie unterschrieben wurde wird wohl dessen hypothetisches Volumen nicht in jegliche Projektionen mitberechnet. Selbst wenn wo steht irgend etwas von 28HP fuer diesen hypothetischen verlorenen Deal? 300-500Mio $ fuer 10Mio GPUs ergibt $30-50 pro GPU. Solchen low end Quark wird man wohl nicht unbedingt unter einem so teurem Prozess wie 28HP herstellen wollen.

y33H@
2012-07-03, 11:47:54
Ziemlich harter Tobak gell.Eher "Pinuts" :P

Hübie
2012-07-03, 12:34:09
Ih du kannst ja sticheln y33h@ ;D


Für mich ist immer noch offen ob GK110 mit dynamic parallelism und hyperQ etc kommt (was letzlich eher Treibersache ist oder?). Auch wie die Virtualisierung funzt interssiert mich brennend. Wenn ich das richtig verstanden habe braucht man dafür mindestens 16-32MBit/s stream. Hat ggü. eines Videos sonst "nur" den Vorteil on the fly Arbeiten durchführen zu können.

LG Hübie

Ich wollte das noch mal aufgreifen, weil ja keiner reagiert :P

Knuddelbearli
2012-07-03, 18:43:04
geht um deutlich mehr

das ist nur ein Testprojekt wenn alles klappt will China für jedes Schulkind so einen pc

Hugo78
2012-07-03, 19:26:07
geht um deutlich mehr

das ist nur ein Testprojekt wenn alles klappt will China für jedes Schulkind so einen pc

Das hat China beim Transrapid auch gesagt.
http://www.spiegel.de/wirtschaft/transrapid-made-in-china-die-deutschen-haben-fehler-gemacht-a-401081.html
http://german.china.org.cn/china/2012-01/21/content_24464536.htm

Knuddelbearli
2012-07-03, 19:44:25
CPUs sind zum Glück nicht so einfach zu kopieren ^^

aber ja im pri9nzip haste schon recht ^^

Skysnake
2012-07-03, 20:02:03
Ist tatsaechlich OT, aber ich sehe den Zusammenhang zu GK110 nicht sehen so lange der Deal mit der chinesischen Regierung nie gesichert war. Nach allen Indizien haben sie den Deal tatsaechlich verloren, aber ein Vertrag der nie unterschrieben wurde wird wohl dessen hypothetisches Volumen nicht in jegliche Projektionen mitberechnet. Selbst wenn wo steht irgend etwas von 28HP fuer diesen hypothetischen verlorenen Deal? 300-500Mio $ fuer 10Mio GPUs ergibt $30-50 pro GPU. Solchen low end Quark wird man wohl nicht unbedingt unter einem so teurem Prozess wie 28HP herstellen wollen.

Wieso, bei so nem großen Deal sollte man sich durchaus relativ früh genug Kapazitäten sichern, und das argument mit "teurer Prozess" kann ich nicht nachvollziehen. Nicht ohne Grund gehen nVidia und AMD schnellst möglich auf den neuesten Prozess. es lohnt sich unterm Strich wohl doch, weil der Shrink größer ist, als die Mehrkosten = mehr GPU/$ Produktionskosten. Es würde zumindest sonst kaum Sinn machen, warum man auch die Low-End GPUs immer im neuesten Prozess fertigt, OEM Ware mal außen vor.

Zudem ist die Spanne ziemlich groß von 250-<~500 Mio US-Dollar.

Gaestle
2012-07-04, 10:04:48
Das hat China beim Transrapid auch gesagt.
http://www.spiegel.de/wirtschaft/transrapid-made-in-china-die-deutschen-haben-fehler-gemacht-a-401081.html
http://german.china.org.cn/china/2012-01/21/content_24464536.htm


Sorry für OT:
Ich finde das chinesische Verhalten nachvollziehbar, sie wollen für sich eine bessere Zukunft erreichen und sehen, das sie dafür Know-How brauchen. Deshalb haben sie bestimmte Bedingungen, wenn ausländische Firmen in dem Land verkaufen und produzieren wollen. Das Problem ist IMHO, dass die deutschen Firmen sich drauf einlassen, trotz der unzähligen Beispiele und das auch noch total blauäugig, wider besseren Wissens. Für 5 Jahre Verkauf setzten die Ihre Zukunft auf's Spiel. Wobei: weniger die Zukunft von sich selbst, sondern vielmehr die Zukunft ihrer Angestellten am Montageband.

Darüber hinaus entwickelt sich China auch mit anderweitig extrem weiter. Es gibt richtig viele Studierende aus China in den Ingenieurstudiengängen in den Hochschulen. Geistes- und Kulturwissenschaften sind da weniger gefragt. Diese Leute haben nach ihrem Abschluss das gleiche Know-How, wie ihre deutschen (oder französischen oder englischen) Mitabsolventen. Viele dieser dann hochqualifizierten Ingenieure würden auch gerne nach dem Abschluss (derzeit noch) weiter in D leben, aber D stellt AFAIK dafür ziemliche Hürden auf und bemüht sich sehr, sie zurück nach China zu drängen. IMHO völlig überholte Politik. Die Hochschulen sind auch relativ wenig daran interessiert, diese Studierenden ins deutsche Alltagsleben zu integrieren.

China reagiert auch darauf, in dem sie die Leute, die im Ausland studieren besser betreut. Dadurch wird es ihnen leichter gemacht, nach 4-5 Jahren in D zurück nach China zu gehen.

Iruwen
2012-07-04, 10:52:38
D stellt AFAIK dafür ziemliche Hürden auf und bemüht sich sehr, sie zurück nach China zu drängen.

Die größte Hürde war bisher wohl das Gehalt, das wurde/wird ja jetzt geändert:
http://www.welt.de/wirtschaft/article106126485/Zuwanderung-von-Fachkraeften-wird-billiger.html

Dural
2012-07-04, 11:13:03
Nicht ohne Grund gehen nVidia und AMD schnellst möglich auf den neuesten Prozess. es lohnt sich unterm Strich wohl doch, weil der Shrink größer ist, als die Mehrkosten = mehr GPU/$ Produktionskosten. Es würde zumindest sonst kaum Sinn machen, warum man auch die Low-End GPUs immer im neuesten Prozess fertigt, OEM Ware mal außen vor.


du wiedersprichst dich doch gerade im selbem post ;)

Ailuros
2012-07-04, 11:56:01
Wieso, bei so nem großen Deal sollte man sich durchaus relativ früh genug Kapazitäten sichern, und das argument mit "teurer Prozess" kann ich nicht nachvollziehen. Nicht ohne Grund gehen nVidia und AMD schnellst möglich auf den neuesten Prozess. es lohnt sich unterm Strich wohl doch, weil der Shrink größer ist, als die Mehrkosten = mehr GPU/$ Produktionskosten. Es würde zumindest sonst kaum Sinn machen, warum man auch die Low-End GPUs immer im neuesten Prozess fertigt, OEM Ware mal außen vor.

Zudem ist die Spanne ziemlich groß von 250-<~500 Mio US-Dollar.

Gut dann zeig mir mal die bisher $30-50 Kepler low end desktop GPUs die schon angekuendigt wurden.

Und es tut mir auch aufrichtig leid aber Du widersprichst Dich ziemlich gewaltig im obrigen Post. Im Notfall frag mal nach was heutzutage ein 40G gegen einen 28HP wafer kostet und erklaer mir auch gleich direkt danach wie viele notebook Kepler GPUs momentan existieren und unter welchem Prozess das restliche Zeug genau hergestellt wird.

Natuerlich ist ein Umschwung Schritt fuer Schritt von 40G auf 28HP geplant, aber dafuer muessen sich erstmal die 28nm Kapazitaeten, Preise und yields um einiges verbessern. Ach Du bloeder Zufall alle Tegra3 SoCs werden dummerweise auch immer noch unter 40G hergestellt, und dazu sogar fuer Geraete die schon einen finalen Strassenpreis von $199 haben.

V2.0
2012-07-04, 12:55:16
Intel fertigt seine Chipsätze ja auch nicht aus Langeweile in vergleichsweise uralten Prozessen.

Gaestle
2012-07-04, 12:58:47
Die größte Hürde war bisher wohl das Gehalt, das wurde/wird ja jetzt geändert:
http://www.welt.de/wirtschaft/article106126485/Zuwanderung-von-Fachkraeften-wird-billiger.html

Wenn man direkt nach dem Hochschulabschluss mit Diplom oder Master an einer Uni oder FH als Wissenschaftlicher Mitarbeiter anfängt, erhält man weniger als 44.800€ im Jahr. Bachelorabsolventen liegen im Mittel nochmal ca. 10-20% unter dem Berufsstarteinkommen von Diplom- oder Masterabsolventen.

Ansonsten geht es noch um mehr, als ums Geld. Aber wie gesagt, das ist hier OT und deshalb mein letzter Post dazu.

Skysnake
2012-07-04, 13:12:25
Ne das ist kein Widerspruch, weil wir eben in keiner perfekten Welt mit unendlich Kapazitäten leben....

Der neuste Prozess ist schon der lohnenste Prozess sobald eben genug Kapazitäten da sind, und man sich nicht drum schlagen muss. Das treibt natürlich den Preis hoch. Genau wies beimalten Prozess halt umgekehrt läuft. Da sinkt der Preis auf kosten der Marge der FAB, damit man die Anlagen noch ausgelastet bekommt. Und somit noch vollends melkt.

Die Minkosten(Neuer Prozess) sind aber < Minkosten(Alter Prozess). Darum gings mehr. Wie gesagt, wir leben aber in keiner perfekten Welt, daher dauert die Umstellung immer eine gewisse Zeitspanne.

Naja, und die alten Prozesse werden halt eingestellt, sobald man keine Marge mehr hat von seiten der Fab, und von Seiten der Kunden halt, sobal genug Kapazitäten da sind, um alle Nachfragen zu erfüllen und dabei eben unter dem Preis des alten Prozesses zu bleiben.

Bei AMD und nVidia kommen ja ständig neue Designs, und das alte Zeug wird einfach ersetzt. Anders als bei Chips für die industrie, wo halt eben GENAU der chip gefragt ist und kein anderer.

Ailuros
2012-07-04, 13:39:31
Ne das ist kein Widerspruch, weil wir eben in keiner perfekten Welt mit unendlich Kapazitäten leben....

Der neuste Prozess ist schon der lohnenste Prozess sobald eben genug Kapazitäten da sind, und man sich nicht drum schlagen muss. Das treibt natürlich den Preis hoch. Genau wies beimalten Prozess halt umgekehrt läuft. Da sinkt der Preis auf kosten der Marge der FAB, damit man die Anlagen noch ausgelastet bekommt. Und somit noch vollends melkt.

Und die tools fuer 28nm sind billiger als fuer 40nm? Noch schlimmer wenn Du schon N 40G Billig-designs herumliegen hast fuer so einen massiven Ultra-billig-Deal wuerdest Du sicher nur dafuer die Entwicklungskosten tragen um die libraries von 40G auf 28HP zu wechseln oder? Anders Kapazitaet ist nur ein der vielen Faktoren die dagegen sprechen momentan.


Naja, und die alten Prozesse werden halt eingestellt, sobald man keine Marge mehr hat von seiten der Fab, und von Seiten der Kunden halt, sobal genug Kapazitäten da sind, um alle Nachfragen zu erfüllen und dabei eben unter dem Preis des alten Prozesses zu bleiben.

Wie gross wird denn der Kosten-Unterschied zwischen 40G und 28HP selbst in einem Jahr von heute pro wafer sein?

Bei AMD und nVidia kommen ja ständig neue Designs, und das alte Zeug wird einfach ersetzt. Anders als bei Chips für die industrie, wo halt eben GENAU der chip gefragt ist und kein anderer.

Es wird ersetzt wenn es sich auch insgesamt lohnt. Nochmal es gibt noch keine low end Kepler GPUs angekuendigt fuer desktop und das wahrscheinlichste dass NV der chinesischen Regierung fuer den Preis angedreht haette fuer so niedrige Preise waeren irgendwelche 40G Fermis gewesen wie sie momentan NV immer noch tonnenweise fuer low end laptops benutzt und ja dabei waere es scheissegal wenn das Resultat GeForce6xx heissen wuerde.

Und damit wir uns nicht unendlich im Kreis mit dem Quark drehen: es bleibt dabei dass der hypothetische geplatzte China-deal ueberhaupt nichts mit GK110 zu tun gehabt haette wenn er sich materialisiert haette.

boxleitnerb
2012-07-04, 13:52:39
Um mal zum Thema zurückzukommen:

Es gibt ja nun leider ein paar Spiele, in denen GK104 sich kaum von GF110 absetzen kann. Metro 2033 z.B. Ist es möglich, dass GK110 hier einen überproportionalen Schub aufgrund irgendwelcher architektonischer Besonderheiten bringt?

aufkrawall
2012-07-04, 14:02:36
Um mal zum Thema zurückzukommen:

Es gibt ja nun leider ein paar Spiele, in denen GK104 sich kaum von GF110 absetzen kann. Metro 2033 z.B. Ist es möglich, dass GK110 hier einen überproportionalen Schub aufgrund irgendwelcher architektonischer Besonderheiten bringt?
Ich hab es so verstanden:
Dass GK104 da verkackt, soll ja an den für Compute genutzten fehlenden GPGPU-Transistoren liegen.
Da GK110 dort gut ausgestattet sein wird (deutlich mehr SP/DP Rechenleistung), wird es dort wohl auch ein überproportionales Performanceplus gegenüber GK104 geben.

boxleitnerb
2012-07-04, 14:11:58
Wenn dem wirklich so ist, müsste Nvidia in Zukunft eine Art Mittelding zwischen GK104 und GK110 rausbringen, um konkurrenzfähig zu bleiben. Sonst würde man im Jahresrhythmus mal gut und mal schlecht dastehen - gut mit GK110 und Nachfolgern und schlecht mit GK104 und Nachfolgern (wenn dieses Schema so beibehalten würde). Dabei gehe ich mal davon aus, dass Compute in Zukunft verstärkt genutzt wird (Partikel, Physik usw.).

aufkrawall
2012-07-04, 14:15:59
Wenn dem wirklich so ist, müsste Nvidia in Zukunft eine Art Mittelding zwischen GK104 und GK110 rausbringen, um konkurrenzfähig zu bleiben. Sonst würde man im Jahresrhythmus mal gut und mal schlecht dastehen - gut mit GK110 und Nachfolgern und schlecht mit GK104 und Nachfolgern (wenn dieses Schema so beibehalten würde). Dabei gehe ich mal davon aus, dass Compute in Zukunft verstärkt genutzt wird (Partikel, Physik usw.).
Da könnte man GK104 wirklich als "Unfall" werten.
Wofür haben sie immer mit CUDA & PhysX geworben, und das aktuelle Flagschiff versagt da?
Zumal die UE4 nach Aussagen von Epic (Nvidia-Partner) auch über 50% der Leistung für Compute verwenden soll.
Mit GK104 würde das ja ziemlich schief gehen. :D

Blediator16
2012-07-04, 14:19:11
Wenn dem wirklich so ist, müsste Nvidia in Zukunft eine Art Mittelding zwischen GK104 und GK110 rausbringen, um konkurrenzfähig zu bleiben. Sonst würde man im Jahresrhythmus mal gut und mal schlecht dastehen - gut mit GK110 und Nachfolgern und schlecht mit GK104 und Nachfolgern (wenn dieses Schema so beibehalten würde). Dabei gehe ich mal davon aus, dass Compute in Zukunft verstärkt genutzt wird (Partikel, Physik usw.).

Also nichts anderes als den Weg, den AMD gegangen ist mit Tahiti.

mapel110
2012-07-04, 14:21:06
Wenn dem wirklich so ist, müsste Nvidia in Zukunft eine Art Mittelding zwischen GK104 und GK110 rausbringen, um konkurrenzfähig zu bleiben.
Nö, nvidia hat bisher gezeigt, dass sie Preisdruck von AMD aushalten können. Egal wie groß ihre Chips im High End sind und wie billig sie sie anbieten müssen, es springt immer noch genug raus.

boxleitnerb
2012-07-04, 14:22:21
Also nichts anderes als den Weg, den AMD gegangen ist mit Tahiti.

Und den, den man bisher auch gegangen ist mit GF100 und GF110. Nur vielleicht nicht in dem Extrem.

Nö, nvidia hat bisher gezeigt, dass sie Preisdruck von AMD aushalten können. Egal wie groß ihre Chips im High End sind und wie billig sie sie anbieten müssen, es springt immer noch genug raus.

Ich spreche ja von GK104, der dieses Problem hat. Mal angenommen, bei zukünftigen Spielen wäre Tahiti durch die Bank weg 25-30% schneller, wäre das bitter und würde Nvidia's Ruf als Premiummarke Schaden zufügen. Bisher war man immer schneller, jetzt ist man mehr oder weniger gleich schnell - wenn sich das noch umkehrt (jedenfalls mit GK104 und Konsorten), wäre das nicht gut.

mapel110
2012-07-04, 14:29:49
Ich spreche ja von GK104, der dieses Problem hat. Mal angenommen, bei zukünftigen Spielen wäre Tahiti durch die Bank weg 25-30% schneller, wäre das bitter und würde Nvidia's Ruf als Premiummarke Schaden zufügen. Bisher war man immer schneller, jetzt ist man mehr oder weniger gleich schnell - wenn sich das noch umkehrt (jedenfalls mit GK104 und Konsorten), wäre das nicht gut.
Warum soll sich das umkehren? AMD hatte in den letzten Jahren immer mehr Rohpower, Shader und Textureinheiten, aber dabei rumgesprungen ist bis auf in Einzelfällen nicht viel.

boxleitnerb
2012-07-04, 14:31:26
Bisher wurde Compute aber auch nicht viel eingesetzt. Das kann sich jetzt ändern, wenn DX11 wirklich Mainstream wird und die neuen Konsolen auch darauf setzen.

aufkrawall
2012-07-04, 14:32:02
Warum soll sich das umkehren?

Das wird sich u.a. bei "Gaming evolved"-Titeln umkehren bzw. hat es schon.
Bevor allerdings UE4-Titel mit Compute kommen, ist wahrscheinlich schon GK110 am Start und der Ruf gerettet.
Dafür wird Nvidia schon sorgen. ;)

mapel110
2012-07-04, 14:38:45
Das wird sich u.a. bei "Gaming evolved"-Titeln umkehren bzw. hat es schon.
Bevor allerdings UE4-Titel mit Compute kommen, ist wahrscheinlich schon GK110 am Start und der Ruf gerettet.
Dafür wird Nvidia schon sorgen. ;)
und selbst wenn nicht, nvidia wird sicher mit den Game-Devs so eng zusammenarbeiten, dass da kein großer Abstand zu AMD entstehen kann.

und bis die neuen Konsolen antanzen, sind wir wohl schon beim nächsten Fertigungsschritt.

boxleitnerb
2012-07-04, 14:40:41
Es wird interessant zu sehen, ob Nvidia diese Strategie eines kastrierten Mittelklassechips beibehält bei Maxwell. Ich hoffe, sie überlegen sich das gut. GK104 vs. Tahiti war ja eher Zufall, der diesmal gut ausgegangen ist. Man sollte aber schon von der Vergangenheit lernen und für das nächste Duell mehr in der Hand haben, um sich nicht auf einzelne Titel und die Dev Relations verlassen zu müssen.

Skysnake
2012-07-04, 14:41:40
Warum soll sich das umkehren? AMD hatte in den letzten Jahren immer mehr Rohpower, Shader und Textureinheiten, aber dabei rumgesprungen ist bis auf in Einzelfällen nicht viel.
Da hatte man auch noch zwei komplett unterschiedliche Architekturen, die man nicht direkt vergleichen konnte. Das ist heute komplett anders.

dildo4u
2012-07-04, 14:44:59
Bisher wurde Compute aber auch nicht viel eingesetzt. Das kann sich jetzt ändern, wenn DX11 wirklich Mainstream wird und die neuen Konsolen auch darauf setzen.
Der Code muss nur für NV angepasst werden.

Richtige Blockgröße und die Karte performt.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9275159&postcount=89

BF3 nutzt z.b Compute für HBAO und dort Performt NV besser als AMD.


http://youtu.be/7lg0b6ZkW5U?hd=1&t=1m24s

aufkrawall
2012-07-04, 14:48:00
Der Code muss nur für NV angepasst werden.

Richtige Blockgröße und die Karte performt.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9275159&postcount=89

BF3 nutzt z.b Compute für HBAO und dort Performt NV besser als AMD.


"Patrick told us that Battlefield 3 will use Compute Shaders to improve the quality and effectiveness of the engine,"

http://www.geforce.com/whats-new/articles/dice-talks-about-how-battlefield-3-uses-directx-11/
Wobei das Spiel auf Radeons allgemein seltsam langsam läuft, besonders mit MSAA.

dildo4u
2012-07-04, 14:52:48
Wobei das Spiel auf Radeons allgemein seltsam langsam läuft, besonders mit MSAA.
Die Lücke ist nich so groß zu NV und eigentlich ändert sich nicht viel mit MSAA,(die 1GHz 7970 geht an der 670 vorbei mit MSAA)wie gesagt alles eine Frage wie der Code angepasst wurde.
http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7970-ghz-edition/25/

Als seltsam langsam würde ich eher Dirt Showdown auf 680 bezeichnen vorallem da NV vorher bei der Engine vorne war.(Dirt 3)

Ailuros
2012-07-04, 14:53:49
Bisher wurde Compute aber auch nicht viel eingesetzt. Das kann sich jetzt ändern, wenn DX11 wirklich Mainstream wird und die neuen Konsolen auch darauf setzen.

Je nach Perspektive ist das obrige entweder kurzsichtig oder weitsichtig. Bis die zukuenftige Konsolen erstmal auf Regalen erscheinen und noch mehr - relevante Spiele die etwas auf compute setzen koennten (auf zukuenftigen Konsolen) wird es wohl sogar DX11 in smart-phones geben.

Unter dieser Logik darfst Du Dir vorstellen auf welche Maerkte ISVs sich in der Zukunft zunehmend konzentrieren werden. Noch dazu erinnere ich daran dass zukuenftige Konsolen SoCs haben werden und nicht irgendwelche compute Ultra-Monster die selbst einen Bruchteil einer GK104 im Bereich compute in den Schatten stellen koennten.

***edit: und bevor es jemand sagt: egal was Papierfrantzen eines jeglichen zukuenftigen SoC versprechen koennten was theoretische FLOPs betrifft: Bandbreite ahoi.

dargo
2012-07-04, 14:58:42
BF3 nutzt z.b Compute für HBAO und dort Performt NV besser als AMD.
http://youtu.be/7lg0b6ZkW5U?hd=1&t=1m24s
Der Witz daran ist nur, dass dieses HBAO im MP (wovon BF3 eigentlich lebt) kaum einer nutzt. :D Mit HBAO/SSAO ist man im MP immer im Nachteil. Die Implementierung ist eh völlig Banane. Die dunklen Stellen werden noch dunkler so, dass man den Gegner an diesen Stellen gar nicht mehr erkennt. :freak:

Wobei das Spiel auf Radeons allgemein seltsam langsam läuft, besonders mit MSAA.
Hier läuft nichts seltsam. Übrigens ist der Cat 12.6 mindestens 25% bei BF3 im MP schneller als Cat 12.4.

aufkrawall
2012-07-04, 15:03:35
Die Lücke ist nich so groß zu NV und eigentlich ändert sich nicht viel mit MSAA,(die 1GHz 7970 geht an der 670 vorbei mit MSAA)wie gesagt alles eine Frage wie der Code angepasst wurde.
http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7970-ghz-edition/25/

BF3 Benchmarks sind imho mit Vorsicht zu genießen, die Realität im MP sieht oftmals anders aus.
Bei 2560*2048 hat 4xMSAA auf einer 7970 @ 1,2 Ghz mir die fps-Rate von 40 auf 20 halbiert.
Mit der 670 läuft es jetzt mit MSAA so schnell wie auf der Radeon ohne bzw. eher noch schneller. ;)

Iruwen
2012-07-04, 15:05:02
Der Witz daran ist nur, dass dieses HBAO im MP (wovon BF3 eigentlich lebt) kaum einer nutzt.

Und das tut in der Stelle genau was zur Sache...?

dargo
2012-07-04, 15:06:47
Und das tut in der Stelle genau was zur Sache...?
Dass Benchmarks mit HBAO für die meisten BF3 MP-Spieler nutzlos sind? :rolleyes:

aufkrawall
2012-07-04, 15:10:20
Dass Benchmarks mit HBAO für die meisten BF3 MP-Spieler nutzlos sind? :rolleyes:
Auch ohne HBAO ist die Radeon bei dem Spiel deutlich lahmer als Kepler.
Bei Kepler kann ich mit meiner Auflösung bei 4xSGSSAA konstant mit 60fps spielen.
Auf Tahiti läufts zwar auch nicht schlecht, aber nicht konstant 60fps.

y33H@
2012-07-04, 15:10:20
Den MP kannst du so oder so nicht gescheit benchen =(

Iruwen
2012-07-04, 15:10:20
Dass Benchmarks mit HBAO für die meisten BF3 MP-Spieler nutzlos sind? :rolleyes:

Und Dirt 3 Benchmarks sind generell nutzlos weils eh kaum einer spielt oder wie sieht da die Logik aus? Es ging darum dass NV mit Compute einbrechen sollte was offensichtlich nicht der Fall ist.
Und wo sollen mit dem Cat 12.6 mindestens +25% drin sein, also im Schnitt über 25%?
http://benchmark3d.com/amd-catalyst-12-6-whql-12-7-beta-june-26-benchmark/3
http://www.ocaholic.ch/xoops/html/modules/smartsection/item.php?itemid=762&page=6
I call bullshit.

dargo
2012-07-04, 15:15:06
Den MP kannst du so oder so nicht gescheit benchen =(
Ich habe die minfps. bei der Map Gulf of Oman zum Vergleich genommen. Die Stelle beim Hotel ist immer die schlimmste.

Cat. 12.4 = 42fps
Cat 12.6 = 52fps

Im zweiten Fall war ein Grafikdetail (die Bezeichnung fällt mir spontan nicht ein) sogar auf Ultra und nicht Mittel wie im ersten Fall. Ansonsten alles Ultra, kein MB und kein HBAO/SSAO.

Edit:
Mit 4xMSAA natürlich.

aufkrawall
2012-07-04, 15:17:36
Den MP kannst du so oder so nicht gescheit benchen =(
Ich hab auch nicht gebencht, sondern nur die konstanten fps an einer Stelle, an der nichts los war, verglichen.
Da es reproduzierbar war, hat mir das qualitativ gereicht.

dargo
2012-07-04, 15:18:16
Und wo sollen mit dem Cat 12.6 mindestens +25% drin sein, also im Schnitt über 25%?
http://benchmark3d.com/amd-catalyst-12-6-whql-12-7-beta-june-26-benchmark/3
http://www.ocaholic.ch/xoops/html/modules/smartsection/item.php?itemid=762&page=6
I call bullshit.
Framecounter im MP laufen lassen, die Worst Case Szenarios suchen und vergleichen. Dafür bedarf es natürlich mehr Gehirnschmalz als irgendwelche Benchmarks im Netz zu finden.

Auch ohne HBAO ist die Radeon bei dem Spiel deutlich lahmer als Kepler.

Das kann und will ich nicht beurteilen. Dafür fehlt mir Kepler zum Vergleich. Ich habe nur die Performance im MP zwischen zwei Treibern gemeint.

dildo4u
2012-07-04, 15:22:17
Anderes Beispiel Shogun 2 nutzt für den DOF Effect Direct Compute und es ist sogar ein AMD Game die 680 spielt locker mit.

http://www.hardware.fr/articles/869-17/benchmark-total-war-shogun-2.html

Hier als Compute Beispiel Seite 32.

http://developer.amd.com/gpu_assets/Efficient%20Compute%20Shader%20Programming.pps

aufkrawall
2012-07-04, 15:27:08
Anderes Beispiel Shogun 2 nutzt für den DOF Effect Direct Compute und es ist sogar ein AMD Game die 680 spielt locker mit.

http://www.hardware.fr/articles/869-17/benchmark-total-war-shogun-2.html

Hier als Compute Beispiel Seite 32.

http://developer.amd.com/gpu_assets/Efficient%20Compute%20Shader%20Programming.pps
Interessant, auch da kackt die Radeon mit MSAA wieder ab.

boxleitnerb
2012-07-04, 15:30:30
Ja, das bestätigen auch andere Tests.

Iruwen
2012-07-04, 15:38:40
Framecounter im MP laufen lassen, die Worst Case Szenarios suchen und vergleichen. Dafür bedarf es natürlich mehr Gehirnschmalz als irgendwelche Benchmarks im Netz zu finden.

Vielleicht solltest du einfach schreiben was du meinst und nicht was du gerne hättest.

dargo
2012-07-04, 16:20:19
Vielleicht solltest du weniger trollen.

Hugo78
2012-07-04, 17:06:37
Ich hab es so verstanden:
Dass GK104 da verkackt, soll ja an den für Compute genutzten fehlenden GPGPU-Transistoren liegen.

Hängt wohl an der Registergröße oder so...
- http://www.forum-3dcenter.org/vbulletin/showthread.php?t=524956
Da der GTX 680 eine Compute-Schwäche unterstellt wird, nie ordentlich reines DX11 CS getestet wurde und es mir langweilig war:

Ein DX11-Raytracer in 4,75 KB:
16x16 Blockgröße (https://axelgneiting.de/share/csrt16x16.exe)
8x8 Blockgröße (https://axelgneiting.de/share/csrt8x8.exe)

Man verwende FRAPS für die FPS-Anzeige. Meine GTX 680 schafft 237 484 FPS.

(Fall es es überhaupt nichts tut, kann die GPU DX11 nicht oder die neuste DX11-Runtime ist nicht installiert)
Okay, es hat wohl tatsächlich einen Register-Überlauf gegeben. Ich hab die Blockgröße reduziert und jetzt läuft es deutlich schneller (484 FPS). Hab's nochmal hochgeladen, sorry.

Kann gut sein, dass das Register-File bei GK104 ziemlich klein ist.

Die Slides hier geben mir auch recht: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=4&ved=0CDcQFjAD&url=http%3A%2F%2Fcis565-spring-2012.github.com%2Flectures%2F04-18-Modern-GPUs.pptx&ei=ReaVT_GGBcOhOq2a4fEN&usg=AFQjCNHsp_YTNBGsw_zbhRsQAy23SsRZ9g&sig2=0O-zrmrHT86viN9afyJsrg&cad=rja

Zu wenig Register für die ALU-Anzahl per SMX. Mal sehen was GK110 da so macht.


Mit der richtigen Größe rennt der GK104 entsprechend seiner Flopangabe.
Meine 670 ohne extra OC mit 8x8 Blockgröße.

aufkrawall
2012-07-04, 17:59:07
Und warum ist er dann bei PhysX und afair auch CUDA so lahm?

dildo4u
2012-07-04, 18:08:09
Und warum ist er dann bei PhysX und afair auch CUDA so lahm?
Was meinst du?Hab nix gesehen wo die 680 unter der 580 liegt,das Problem allgemein ist dort,das kaum was den Chip komplett auslastet.Deshalb gibt's keine großen Steigerungen mehr genau dort soll Hyper Q ansetzen.


Das hier soll wohl deutlich besser auf der 680 laufen,vieleicht wird ne neuere Physx Version genutzt als bei Batman/Dark Void.

http://downloads.guru3d.com/Mars-GPU-PhysX-Benchmark-download-2741.html

Bench ganz unten.
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-680/24/

PhysX 3.0 gibts ja auch noch bisher wird nicht genutzt könnte aber Steigerungen mit Kepler bringen.(Genutzt von Arma3 und Unreal Engine4)

Hugo78
2012-07-04, 20:41:39
Und warum ist er dann bei PhysX und afair auch CUDA so lahm?

Bei PhysX hatten wir hier ja schonmal, dass der Takt entscheidet.
Ich erinnere mich dunkel an Vergleiche, wo eine GTS 450 als reiner PhysX Beschleuniger irgendwo gleich auf mit einer GTX 580 war.

Für CUDA + single precision allgemein, wird man sicher auch größere Register brauchen, wie Coda schon schrieb.
Zu wenig Register für die ALU-Anzahl per SMX

Aber mir geht es primär hier nur um die Sache, dass GK104 seine Rechenleistung auch bei direct compute bringen kann, wenn man die kleineren / zuwenig Register im Auge behält.

Genauso wie Physik mit unterschiedlicher Genaugkeit / Auflösung ect. pp. berechnet wird, wird man sicher auch hier auf GK104 optimieren können ohne das es ein sichtbarer Nachteil wird.

Also die verallgemeinernde Aussage, in Sachen Compute würde GK104 in Zukunft das nachsehen haben, weil GK104 keine DP ALUs wie GK110 hat, stimmt so erstmal nicht.

Und um mehr gings mir hier erstmal nicht.

Leonidas
2012-07-05, 07:19:14
Die Frage fuer einen GK104 refresh aka GK114 waere wohl weniger ob man noch ein paar Einheiten dazustecken kann oder die Frequenz um N% erhoehen sondern eher woher man die zusaetzliche Bandbreite dafuer bekommen wuerde. Einen breiteren bus halte ich persoenlich fuer unwahrscheinlich da es zu umstaendlich und zu teuer waere fuer einen refresh, bleibt eigentlich dann nur noch die Moeglichkeit von leicht schnellerem GDDR5 fuer 2013.


Die Frage ist eigentlich, ob NV nochmal eine Generation von Refresh-Chips auflegt, die eigentlich völlig gleich zum Original ist (wie bei Fermi). Und im Gegensatz zu Fermi wurden in der originalen Generation nicht überall Einheiten deaktiviert - wenn ein Kepler-Refresh nun auch mit gleicher Einheitenanzahl herauskommt, dann geht ein Performanceplus nur über mehr Takt, was aber im Effekt begrenzt ist.

Was da kommt, ist noch heftig unsicher. Aber es gibt durchaus die Chance auf 2013er Refreshchips mit mehr HW-Einheiten - auch weil die Performance-Möglichkeiten von 28nm in der ersten 28nm-Generation noch nicht genutzt wurden und irgendwann schließlich auch mal das Ziel +100% gegenüber 40nm erreicht werden sollte.

GK114 vielleicht mit 3 GPC, 9 SMX, 256-384 Bit
GK116 vielleicht mit 2 GPC, 6 SMX, 192-256 Bit
GK117 vielleicht mit 1 GPC, 3 SMX, 128 Bit

Alternativ, falls NV keine Angst hat mit dem GK114 den GK110 unter Spielen zu erreichen, könnten es auch 4 GPC, 12 SMX und 384 Bit beim GK114 sein. Würde dann aber ein dickes Die werden. Wenn es NV schafft, mit einem GPC auch verschiedene SMX auszulasten, dann wäre auch eine unsymetrische Anordnung möglich, wie 4 GPC, 10 SMX und 384 Bit beim GK114.

Iruwen
2012-07-05, 10:30:18
Vielleicht solltest du weniger trollen.

Der Unterschied zwischen "der Cat 12.6 ist mindestens 25% bei BF3 im MP schneller als Cat 12.4" und "der Cat 12.6 liefert in einem Worst Case Szenario im BF3 MP 25% höhere min FPS" ist wohl offensichtlich.

Ailuros
2012-07-05, 13:02:17
Die Frage ist eigentlich, ob NV nochmal eine Generation von Refresh-Chips auflegt, die eigentlich völlig gleich zum Original ist (wie bei Fermi). Und im Gegensatz zu Fermi wurden in der originalen Generation nicht überall Einheiten deaktiviert - wenn ein Kepler-Refresh nun auch mit gleicher Einheitenanzahl herauskommt, dann geht ein Performanceplus nur über mehr Takt, was aber im Effekt begrenzt ist.

Was da kommt, ist noch heftig unsicher. Aber es gibt durchaus die Chance auf 2013er Refreshchips mit mehr HW-Einheiten - auch weil die Performance-Möglichkeiten von 28nm in der ersten 28nm-Generation noch nicht genutzt wurden und irgendwann schließlich auch mal das Ziel +100% gegenüber 40nm erreicht werden sollte.

GK114 vielleicht mit 3 GPC, 9 SMX, 256-384 Bit
GK116 vielleicht mit 2 GPC, 6 SMX, 192-256 Bit
GK117 vielleicht mit 1 GPC, 3 SMX, 128 Bit

Alternativ, falls NV keine Angst hat mit dem GK114 den GK110 unter Spielen zu erreichen, könnten es auch 4 GPC, 12 SMX und 384 Bit beim GK114 sein. Würde dann aber ein dickes Die werden. Wenn es NV schafft, mit einem GPC auch verschiedene SMX auszulasten, dann wäre auch eine unsymetrische Anordnung möglich, wie 4 GPC, 10 SMX und 384 Bit beim GK114.

Nach einer sturen KISS Logik (und alles stets IMHO ohne jegliche Hintegrund-Infos bis jetzt): wenn man allein durch hoehere Frequenzen +10-15% erreicht vs. theoretisch N mehr Einheiten/mehr Bandbreite +20-25%, waere es wohl logischer die schnellere, billigere und einfachere Loesung zu waehlen.

Im Gegenfall wo GK114 ein GK104 + mehr Einheiten + breiterem Bus werden sollte, hat GK110 desktop vielleicht keinen besonderen Sinn mehr. Aber mein Bauchgefuehl spricht einfach dagegen weil es eben ein viel zu teurer Plan werden wuerde.

Gipsel
2012-07-05, 18:38:10
Für CUDA + single precision allgemein, wird man sicher auch größere Register brauchen, wie Coda schon schrieb.

Aber mir geht es primär hier nur um die Sache, dass GK104 seine Rechenleistung auch bei direct compute bringen kann, wenn man die kleineren / zuwenig Register im Auge behält.
Die Sache ist, daß man das nicht bei jedem Algo so machen kann. Im Prinzip will man ja eine bestimmte Rechenaufgabe möglichst schnell lösen. Und dafür benötigt man nunmal eine bestimmte Menge an Zwischenergebnissen, die in Registern gespeichert werden. Du kannst diese Menge nicht einfach willkürlich verkleinern. Das funktioniert so nicht. Codas DX Compute Raytracer ist da gewissermaßen ein Sonderfall, den zu erläutern hier wahrscheinlich zu weit führt und wo man auch nur bei Kenntnis des Codes wirklich qualifizierte Aussagen machen kann.

Aber als Kurzform (und meinem Verständnis): Die Anzahl der benutzten Register wurde wohl gar nicht [wesentlich] geändert sondern die Größe der work group. Dies hat unter Umständen eine ähnliche Einschränkung für die Anzahl der gleichzeitig laufenden Warps bzw. die Fähigkeit zum Verstecken von Latenzen und damit die Performance zur Folge, wie eine andere Registernutzung. Es spielt keine Rolle, ob die Einschränkung durch ein Mehr an Registernutzung entsteht oder anders. GK104 hat allgemein wenige Register relativ zur Latenz und ALU-Anzahl und gleichzeitig eine für die Anzahl der ALUs unterdimensionierte local/shared memory Größe (GK104 hat 32kB oder 48kB für 192 ALUs, alle GCN-GPUs haben 64kB für je 64 ALUs, das ist das Vier- bis Sechsfache). Damit hat man bei bestimmten (aber natürlich nicht allen) Algorithmen bzw. zu lösenden Problemstellungen einen prinzipiellen Nachteil, der sich auch durch Optimierung nicht wettmachen läßt.

Hugo78
2012-07-05, 22:57:20
Gut klar, alles wird man nicht wett machen können per Optimierung.

Aber dann stellt sich halt die Frage, was wäre der Worste Case in Spielen in Sachen DirectCompute?
Denn die Entwickler müssen sich auch immer an der HW Basis der Käufer orientieren,
und hier wird DirectCompute genauso wenig nur auf GCN optimiert, wie Tess auf Fermi mit Einführung von Fermi.

Also um nochmal Codas Bench aufzugreifen.
Alle 40nm Karten, schneiden hier ja deutlich schlechter ab als die 28nm Gen.
http://www.3dcenter.org/news/computeshader-raytracing-benchmarks-verschiedener-grafikkarten
(im 16x16 fällt GK104 halt auf GTX 580 Level zurück *worst case*)

Dies wird kein Entwickler in den nächsten 2-3 Jahren ignorieren können,
entsprechend moderat wird DC benutzt werden.

OBrian
2012-07-07, 14:26:20
Nach einer sturen KISS Logik (und alles stets IMHO ohne jegliche Hintegrund-Infos bis jetzt): wenn man allein durch hoehere Frequenzen +10-15% erreicht vs. theoretisch N mehr Einheiten/mehr Bandbreite +20-25%, waere es wohl logischer die schnellere, billigere und einfachere Loesung zu waehlen.

Im Gegenfall wo GK114 ein GK104 + mehr Einheiten + breiterem Bus werden sollte, hat GK110 desktop vielleicht keinen besonderen Sinn mehr. Aber mein Bauchgefuehl spricht einfach dagegen weil es eben ein viel zu teurer Plan werden wuerde.Und was, wenn es ZWEI Chips gibt? Einen GK110 als professionellen Chip, der super GPGPU-Fähigkeiten hat, aber in Spielen nicht so sonderlich abräumt, weil er wegen des großen Dies auch eine miese FPS-pro-Watt-Rate hat. Kann für teuer Geld in Kleinserien-Profikarten verkauft werden für Workstations, HPC-Cluster usw. Und daneben einen anderen Chip für Zocker, der die GPGPU-Fähigkeiten auf das Nötige beschränkt, dafür aber sehr effizient in Spielen agiert, also so eine Art GK104 mal 1,5, als neue GTX 780 des Jahres 2013.

Die Architekturen müssen sich dabei ja gar nicht so extrem unterscheiden, denn modular sind sie ja schon längere Zeit, man läßt dann einfach bestimmte Teile weg bzw. dimensioniert sie schwächer, um Diefläche und Stromverbrauch zu sparen.

Nachteil ist natürlich die zweite Chipmaske, was sich aber auszahlen kann, weil man so die beiden sehr unterschiedlichen Märkte optimal bedienen kann. Zeitlich wäre es kein Problem, da man problemlos parallel entwickeln kann (man braucht nur evtl. ein paar Leute mehr).

mapel110
2012-07-07, 15:40:14
OBrian, das ist hier schon etliche Male durchgekaut worden. nvidia braucht die Absatzmenge durch Gamer, damit sich die Produktion eines Chips lohnt. Im Profi-Segment ist zwar die Gewinnmarge wesentlich größer, aber man verkauft dort nicht so viele Chips.
Ein Extra-Tapeout mit wenigen Änderungen lohnt sich nicht.

OgrEGT
2012-07-07, 19:32:52
OBrian, das ist hier schon etliche Male durchgekaut worden. nvidia braucht die Absatzmenge durch Gamer, damit sich die Produktion eines Chips lohnt. Im Profi-Segment ist zwar die Gewinnmarge wesentlich größer, aber man verkauft dort nicht so viele Chips.
Ein Extra-Tapeout mit wenigen Änderungen lohnt sich derzeit nicht.

Fixed :smile:

Derzeit deshalb, weil durch das Verhältnis der beim Gamerchip zusätzlichen GPGPU Logik zu den Mehrkosten derzeit eben noch eine Kompromisslösung aus Gamer+GPGPU Chip wirtschaftlicher ist.

Die Frage ist wieviel Marktanteile man sich im Gamerbereich sichern könnte mit einer speziellen Gamer Chipfamilie und wann sich diese Mehrleistung marktwirksam für den Konsumenten auszahlt (Stichwort QFHD 3840x2160).

Sobald aber einmal einer der beiden Konkurrenten damit anfängt, dann muss der andere in jedem Fall nachziehen, und eine Rückkehr zur alten Strategie wird schwer bis unmöglich sein.

boxleitnerb
2012-07-07, 19:39:24
Gibts doch schon, in dem Bereich, in dem sich das aus lohnt, nämlich bis inkl. GK104 und Pitcairn. Darüber sind die Absatzzahlen zwar höher als bei den Profikarten, aber insgesamt immer noch gering.

mapel110
2012-07-07, 19:56:47
AMD hat sich aus dem High End für Gamer zurückgezogen, weil es sich nicht lohnt. Und ihr erwartet da eine Umkehr?! Also ich nicht.

Skysnake
2012-07-07, 22:19:45
Fixed :smile:

Derzeit deshalb, weil durch das Verhältnis der beim Gamerchip zusätzlichen GPGPU Logik zu den Mehrkosten derzeit eben noch eine Kompromisslösung aus Gamer+GPGPU Chip wirtschaftlicher ist.

Die Frage ist wieviel Marktanteile man sich im Gamerbereich sichern könnte mit einer speziellen Gamer Chipfamilie und wann sich diese Mehrleistung marktwirksam für den Konsumenten auszahlt (Stichwort QFHD 3840x2160).

Sobald aber einmal einer der beiden Konkurrenten damit anfängt, dann muss der andere in jedem Fall nachziehen, und eine Rückkehr zur alten Strategie wird schwer bis unmöglich sein.

Und genau deswegen hat auch keiner der Beiden daran ein interesse, den anderen mit einer reinen Gamerkarte in den Boden zu stampfen, da man damit die Konkurrenz zum gleichen Handeln zwingt, was auf beiden Seiten nur unnötig Geld verbrennt....

Die High-End/Enthusiasten Gamer kaufen doch eh jeden Rotz, hauptsache es ist das schnellste am Markt :rolleyes:

Hübie
2012-07-08, 02:34:46
Denn die Entwickler müssen sich auch immer an der HW Basis der Käufer orientieren,
und hier wird DirectCompute genauso wenig nur auf GCN optimiert, wie Tess auf Fermi mit Einführung von Fermi.

Einen tesselator gibts seit R600 in hardware. Die Entwickler hängen leider 5 Jahre der Hardware hinterher. Und das wird sich auch nicht so schnell ändern. Schau dich doch mal um: DX11 wird wenig bis gar nicht genutzt, gemessen an der Spieleanzahl. Ja ja ich weiß: Konsolen sei dank. Irgendwann zieht die Ausrede aber nicht mehr.
Ich stelle immer wieder fest dass es einige ältere Spiele gibt, welche verhältnismäßig besseren content boten als aktuelle Titel. Ist einfach nur noch ne Goldgrube. Wir sind die Schatzgoblins wie in Diablo III und die Macher farmen uns ab.

GK110 wird ebenso in keinem Spiel großartig mit GP-Power auftrumpfen können, da kaum ein Spiel so etwas nutzt.

LG Hübie

Nightspider
2012-07-08, 02:39:05
Naja in 2 Jahren wirds dank NextGen Konsolen wahrscheinlich gar kein Spiel mehr geben, was KEIN Tessellation nutzt.

Hübie
2012-07-08, 02:46:50
Und in 10 Jahren dann endlich AA Standard? Ist doch erbärmlich!

Im Prinzip gabs mit Truform schon eine Art Tesselation. Und es bekommt immer noch keiner geschissen es gescheit einzusetzen. Ich fordere ja nicht mal exzessive Rundungen, denn vieles lässt sich plastisch mittels Texturen kompensieren aber ich fordere ein sauberes Bild ohne Matsch, Griesel, Flimmern und/oder Überstrahlung.

Übrigens wäre es Quark GK110 in GPGPU und GamerGPU zu splitten, da ja selbst der geneigte gamer gerne mal mit der GPU rechnet (transcoding, bitcoin, de-/encryption). Einige Effekte laufen ja auch über computeshader wie DoF und afaik auch Frostbite´s 2.0 global illumintaion. Evtl. verstärkt sich diese Entwicklung.

Nightspider
2012-07-08, 02:52:28
In den NextGen Games werden sicherlich TXAA und SRAA sowie andere "Neuentwicklungen" zum Einsatz kommen die performanter sind und weniger blurren.

OgrEGT
2012-07-08, 09:16:48
AMD hat sich aus dem High End für Gamer zurückgezogen, weil es sich nicht lohnt. Und ihr erwartet da eine Umkehr?! Also ich nicht.

Erwarten kann man nicht direkt sagen, für möglich halte ich es aber dennoch.

AMD hat sich mit Tahiti mitnichten aus dem Highend Gamermarkt verabschiedet. Du sagst das sicherlich deshalb, weil AMD nicht die technisch maximale Chipfläche ausnutzt, was NV momentan auch nicht macht.

Die Diskussion, wie denn Highend Gamerchip definiert wird hatten wir an anderer Stelle aber schon.

Das Highend im Jahre 2012 ist nun mal Tahiti und GK104. Wird wohl auch so bleiben, da die Nachfolger höchstwahrscheinlich erst 2013 erscheinen werden. AMD könnte sogar SeaI noch Ende 2012 (paper-)launchen.

mapel110
2012-07-08, 09:22:59
und ich erwarte, dass nvidia auch weiterhin wesentlich näher ans Limit eines Fertigungsprozesses gehen wird als AMD.

boxleitnerb
2012-07-15, 09:34:13
Aus dem CB-Forum (mit einem Salzkorn einnehmen):

Ich habe mit einem Techniker von EVGA erst kürzlich bei einer Präsentation in Berlin gesprochen und der ist besorgt, dass GK110 eventuell erst auch im Sommer nächsten Jahres aufschlagen könnte.
Vor allem besorgt ist er aber über die kleineren Chips, die nicht den Markt erreichen.
http://www.computerbase.de/forum/showthread.php?p=12358838

M4xw0lf
2012-07-15, 10:07:25
In den NextGen Games werden sicherlich TXAA und SRAA sowie andere "Neuentwicklungen" zum Einsatz kommen die performanter sind und weniger blurren.

Wenn du damit die Spiele für die NextGen-Konsolen meinst, sehe ich für TXAA schwarz - Nvidias neues proprietäres AA auf AMD-Hardware?

OgrEGT
2012-07-15, 10:13:58
Aus dem CB-Forum (mit einem Salzkorn einnehmen):


http://www.computerbase.de/forum/showthread.php?p=12358838

Hört sich beunruhigend an, kann allerdings wie Du schon sagst bezweifelt werden. Wenn der Chip erst im Sommer kommt, gibts vlt. auch schon wieder SeaI GHZ Editions o.ä. also ein anderes Umfeld, in das sich GK110 einfinden muss mit nochmals niedrigerem Vorsprung.

Durch die Strategie des maximalen Ausreizens von Fertigungsprozessen erleben wir immer größere Zeitspannen zwischen den Topdogs und es darf zumindest spekuliert werden ob sich diese Verzögerungen in Zukunft noch weiter lohnen werden.

G80 (90nm) -> GT200 (65nm) -> ca. 19 Monate
GT200 (65nm) -> GT200b (55nm) -> GF100 (40nm) -> ca. 20 Monate
GF100 (40nm) -> GF110 (40nm) -> GK110 (28nm) ??? (derzeit bereits > 28 Monate)

Skysnake
2012-07-15, 15:48:02
Aus dem CB-Forum (mit einem Salzkorn einnehmen):


http://www.computerbase.de/forum/showthread.php?p=12358838
Naja, das nVidia bei den "kleinen" (wohl eher den winzigen) chips nicht in die Pushen kommt ist ja bekannt. Mehr als GK104 gibts ja nicht, außer GK107, der aber abstinkt gegen die kleinen Radeons.

Die Frage ist halt nur, ob nVidia mit Absicht den Desktopmarkt ignoriert, weil Sie eh nicht genug Kapazitäten haben, und sich eben AMD geschlagen geben in diesem Bereich, und eben alles was man hat in die Mobile Designwins geht, oder ob man wirklich ernsthafte Probleme hat mit dem Design.

Duplex
2012-07-15, 16:02:46
Release erst Sommer 2013 bzw. 15 Monate nach Tapeput? Kann ich mir nicht vorstellen...in der Regel brauchen die Entwickler 6-9 Monate damit die Chips bei TSMC gebacken werden können.

Ich denke nicht das plötzlich Probleme mit GK110 entstehen, "DIE Space" kann man bereits ausschließen siehe GT200 Strategie & "Leistungsaufnahme" sollte auch kein Problem sein, zur Not deaktiviert man einfach einige GPU Shader, den Rohleistung sollte sowieso genug vorhanden sein :)
Nicht vergessen das Design wird von den gleichen Leuten wie "Fermi" entwickelt, GK104 war easy & GK110 wird Technisch gesehen nicht komplizierter als die Fermi Entwicklung, alleine das A2 Stepping bei GK104 zeigt doch bereits das man in kurzer Zeit "Stärke" mit Erfolg demonstrieren kann. :smile:

Meine persöhnliche Einschätzung
HD8970: 25-30% mehr Game Performance als Tahiti XT, Realease Q4/2012-Q1/2013
GTX780: 30-40% mehr Game Peformance als GK104, Release Q1/2013

OgrEGT
2012-07-15, 16:48:01
(...)
Meine persöhnliche Einschätzung
HD8970: 25-30% mehr Game Performance als Tahiti XT, Realease Q4/2012-Q1/2013
GTX780: 30-40% mehr Game Peformance als GK104, Release Q1/2013

Wäre das nicht ein wenig enttäuschend? Tahiti XT/XT2 <> GK104...

Duplex
2012-07-15, 17:02:31
Zu Optimistisch sollte man nicht sein ;)

Was erwartest du den, 50% mehr Shader & neuen Frontend?

450mm² ? 23% mehr DIE Space ist auch nicht viel anders als Cypress > Cayman

Mit einem 450mm² DIE kann man bestimmt 3072 Shader einbauen, dann muss nur noch das Frontend stimmen.

Dann wäre der Chip aber möglicherweise deutlich besser als GK110.

OgrEGT
2012-07-15, 17:14:37
Zu Optimistisch sollte man nicht sein ;)

Was erwartest du den, 50% mehr Shader & neuen Frontend?

450mm² ? 23% mehr DIE Space ist auch nicht viel anders als Cypress > Cayman

Mit einem 450mm² DIE kann man bestimmt 3072 Shader einbauen, dann muss nur noch das Frontend stimmen.

Dann wäre der Chip aber möglicherweise deutlich besser als GK110.

Nicht unbedingt, aber auch die Variante mit "nur" 2560 Shadern + Frontend könnte eine gute Option sein, bei noch immer unter 420mm2 (R600). Die Leistungssteigerung durch Umbau des Frontend alleine auf was auch immer kann nicht sicher geschätzt werden, da kann man sicherlich zusätzlich zu den zusätzlichen Shadern die entscheidenden Prozente rausholen. Bei der Chipgröße könnten auch wieder SI ähnliche GPU Taktraten zu erwarten sein.

robbitop
2012-07-16, 09:00:41
Wenn du damit die Spiele für die NextGen-Konsolen meinst, sehe ich für TXAA schwarz - Nvidias neues proprietäres AA auf AMD-Hardware?
TXAA ist doch sowieso ein Witz. Da wird etwas normales als neu verkauft. Das ist ein Kompromis. 2xMSAA + PP-AA statt PP-AA only.
Das ist auf jeder aktuellen GPU machbar.

V2.0
2012-07-16, 09:15:02
Aus dem CB-Forum (mit einem Salzkorn einnehmen):


http://www.computerbase.de/forum/showthread.php?p=12358838

Tja, TSMC ist nun einmal der limtierende Faktor.

Im Q1/2012 haben die im Volumen mehr Chips in 250nm+ gefertigt als in 28nm.

Skysnake
2012-07-16, 09:43:04
Naja, es soll ja aber in Q3-Q4 GK110 für den HPC-Markt geben. Q1 2013 geistert ja schon länger rum und ist auch durchaus nachvollziehbar, aber Sommer 2013 wäre schon wirklich sehr herb.

Da sieht man aber mal wieder, was für ein Käse es war, davon zu reden, das AMD mit Tahiti gefailed hat, weil ja eh "bald" GK110 kommt, und AMD dann in Grund und Boden stampft....

Wies jetzt aussieht wird sich SI einen direkten Schlagabtausch mit GK110 liefern. Ich hoffe wirklich, das man bald mal neue Infos über GK110 über den K20 bekommt.

Ronny145
2012-07-16, 11:25:05
TXAA ist doch sowieso ein Witz. Da wird etwas normales als neu verkauft. Das ist ein Kompromis. 2xMSAA + PP-AA statt PP-AA only.
Das ist auf jeder aktuellen GPU machbar.


TXAA verwendet kein PP-AA Anteil, sagt Lottes.

Ailuros
2012-07-16, 12:39:18
Naja, es soll ja aber in Q3-Q4 GK110 für den HPC-Markt geben. Q1 2013 geistert ja schon länger rum und ist auch durchaus nachvollziehbar, aber Sommer 2013 wäre schon wirklich sehr herb.

Fuer desktop waere der Sinn einer so spaeten Vorstellung generell fraglich. Ob eine jegliche Alternative Sinn machen wuerde ist genauso fraglich.

Da sieht man aber mal wieder, was für ein Käse es war, davon zu reden, das AMD mit Tahiti gefailed hat, weil ja eh "bald" GK110 kommt, und AMD dann in Grund und Boden stampft....

Ich bezweifle dass Ende 2011 selbst die IHVs wirklich wussten wie muehsam es mit 28nm vorgehen wird. Es ist ja auch nicht so dass AMD alle ihre release-Plaene einhalten konnte und 28nm GPU Preise von beiden IHVs sind leider immer noch unverschaemt hoch.

Wies jetzt aussieht wird sich SI einen direkten Schlagabtausch mit GK110 liefern. Ich hoffe wirklich, das man bald mal neue Infos über GK110 über den K20 bekommt.

Das einzige was ich mir momentan vorstellen koennte waere dass sich NV noch brutaler verschaetzt hat; ie die Nachfrage fuer HPC ist noch groesser als sie sich bis Punkt X vorgestellt haben und 28HP yields bzw. Kapazitaeten bleiben zur gleichen Zeit um einiges laenger als sie schaetzten in etwa so miserabel wie heute.

Wenn's ueberhaupt stimmt, denn doom und gloom Geruechte ohne Basis zu generieren ist ja heutzutage keine besondere Kunst mehr, ebenso natuerlich wie das exakte Gegenteil.

robbitop
2012-07-16, 13:34:18
TXAA verwendet kein PP-AA Anteil, sagt Lottes.
Das steht hier aber anders:
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-680/6/

Und die Quelle sind NVIDIA Dokumente zu Kepler für den Artikel.

TXAA = MSAA + FXAA + TAA (natürlich vereinfacht ausgedrückt)

Ronny145
2012-07-16, 14:29:44
Das steht hier aber anders:
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-680/6/

Und die Quelle sind NVIDIA Dokumente zu Kepler für den Artikel.

TXAA = MSAA + FXAA + TAA (natürlich vereinfacht ausgedrückt)


Wenn jemand darüber Bescheid weiß, dann Timothy Lottes als Entwickler dieser Lösung. In welchem Nvidia Dokument steht das und wo ist die Quelle hierfür? Im Kepler whitepaper (http://www.geforce.com/Active/en_US/en_US/pdf/GeForce-GTX-680-Whitepaper-FINAL.pdf) steht nichts davon.

TXAA is based on hardware multi-sampling, a high quality sample to pixel filter, and temporal super-sampling (which is optional but provides a 2x quality improvement). TXAA uses hardware multi-sampling before the samples are resolved, and FXAA 4.0 was a post process.

TXAA and SMAA are completely different. TXAA and FXAA are completely different. TXAA has no MLAA component.

TXAA is not a post process, there is no post edge smoothing like FXAA.
http://timothylottes.blogspot.de/2012/03/unofficial-txaa-info.html

Coda
2012-07-16, 14:48:29
Ergibt Sinn und erklärt auch die sehr gute Qualität.

robbitop
2012-07-16, 15:40:47
Dann wundert es mich, dass CB etwas Falsches veröffentlicht.

M4xw0lf
2012-07-16, 18:44:19
Ergibt Sinn und erklärt auch die sehr gute Qualität.

Konntest dus schon in Action sehen?

y33H@
2012-07-16, 18:58:23
Crytek setzt TXAA in Crysis 3 ein (laut Tiago Sousa (https://twitter.com/crytek_tiago/status/193389762336403460)) - also sollte Coda es eigentlich kennen ;-)

aufkrawall
2012-07-16, 18:59:32
Ich frage mich, ob die Implementierung mit Deferred Rendering genau so schwierig ist wie bei MSAA.
Hoffentlich gibts dann nicht solche Ausfälle wie etwa bei BF3 mit MSAA.

Hugo78
2012-07-16, 20:45:27
Ergibt Sinn und erklärt auch die sehr gute Qualität.

Ist es dir möglich, uns ein ganz einfaches Beispiel, sagen wir mal 2x MSAA vs 2x TXAA, in Cryengine 3 zuzeigen?
Büdde, büdde, büdde *lieb guck* :biggrin:

Coda
2012-07-17, 00:20:27
Am besten noch unveröffentliches C3-Material, is klar. (Sieht übrigens super aus :tongue:)

M4xw0lf
2012-07-17, 07:21:16
Am besten noch unveröffentliches C3-Material, is klar. (Sieht übrigens super aus :tongue:)

Wie wäre es mit einer Bildbeschreibung? :wink:

Iruwen
2012-07-17, 09:04:01
Das ist ja wie bei 'nem Porno nur den Ton zu hören.

robbitop
2012-07-17, 09:21:54
An sich muss es genauso schwer bei DR zu implementieren sein wie MSAA. Es ist ja immerhin MSAA mit Zusätzen. Das Wechseln der Samplepositionen bei aufeinanderefolgenden Frames hat etwas von ATIs Temporal AA.

Ailuros
2012-07-17, 09:29:17
Das ist ja wie bei 'nem Porno nur den Ton zu hören.

OT: aber zumindest eine Indizie dass es jemand gut geht :D

Gaestle
2012-07-17, 09:31:17
Ich vermute als Laie, dass sie angesichts der (nun seit einigen Jahren) bekannten Probleme mit der Kombination MSAA und DR nach einiger Forschungs- und Entwicklungsarbeit einen Weg gefunden haben, diese Probleme zu umgehen / zu lösen.

Das ist ja vielleicht der zentrale Bonus des neuen Systems. Praktikables MSAA trotz DR.

Coda
2012-07-17, 10:11:25
An sich muss es genauso schwer bei DR zu implementieren sein wie MSAA. Es ist ja immerhin MSAA mit Zusätzen. Das Wechseln der Samplepositionen bei aufeinanderefolgenden Frames hat etwas von ATIs Temporal AA.
Das gehört da glaube ich nicht dazu, nur Re-Projection von vorherigen Frames.

Ich vermute als Laie, dass sie angesichts der (nun seit einigen Jahren) bekannten Probleme mit der Kombination MSAA und DR nach einiger Forschungs- und Entwicklungsarbeit einen Weg gefunden haben, diese Probleme zu umgehen / zu lösen.

Das ist ja vielleicht der zentrale Bonus des neuen Systems. Praktikables MSAA trotz DR.
Nein, das hat damit nichts zu tun. Und die Lösung des Problems ist bekannt. Das Problem ist die Performance, bzw. die Faulheit der Entwickler.

aufkrawall
2012-07-17, 11:55:25
Das ist ja vielleicht der zentrale Bonus des neuen Systems. Praktikables MSAA trotz DR.
Hoffentlich. :(
Ich denke nicht, dass Nvidia den Wirbel um einen neuen Modus machen würde, der dann hinterher doch richtig mies aussehen täte.

Bei AMD gab es bei der Leo-Techdemo ja auch einen Ansatz, vernünftiges MSAA bei ansprechender Beleuchtung umsetzen zu können.
Nur bisher gibt es afaik AMD typisch noch keinerlei Hinweis, in welchen Spielen das mal irgendwann funktionieren könnte. :freak:

PCGH_Carsten
2012-07-17, 12:13:03
Nur bisher gibt es afaik AMD typisch noch keinerlei Hinweis, in welchen Spielen das mal irgendwann funktionieren könnte. :freak:

Es gibt sogar schon ein Spiel, welches das nutzt: Dirt Showdown.

aufkrawall
2012-07-17, 12:14:48
Es gibt sogar schon ein Spiel, welches das nutzt: Dirt Showdown.
Und was ist so neu an der Belichtung gegenüber Dirt 3?

dildo4u
2012-07-17, 12:20:21
Und was ist so neu an der Belichtung gegenüber Dirt 3?
Es nutzt jetzt Global illumination vergleichbar mit Cryengine 3 und Frostbite 2.0.

http://www.youtube.com/watch?v=zHi0fJJVLBs

aufkrawall
2012-07-17, 12:25:51
Es nutzt jetzt Global illumination vergleichbar mit Cryengine 3 und Frostbite 2.0.

http://www.youtube.com/watch?v=zHi0fJJVLBs
OK, das ist nett. Ich erahne was man sehen soll, wobei der 480p-Matsch es einem nicht leicht macht.

Hoffentlich kommt da noch mehr.
Bei SniperElite V2 hat man ja lieber auf MLAA & OGSSAA gesetzt. :(

Coda
2012-07-17, 15:35:35
Was hat bitte Global Illumination mit Anti-Aliasing zu tun?

boxleitnerb
2012-07-17, 15:44:05
Am besten noch unveröffentliches C3-Material, is klar. (Sieht übrigens super aus :tongue:)

Sowohl auf Screenshots als auch in Bewegung?

aufkrawall
2012-07-17, 15:55:04
Was hat bitte Global Illumination mit Anti-Aliasing zu tun?
Welche Teile der Beleuchtung kollidieren denn üblicherweise mit MSAA?
Ist dynamische GI nicht i.d.R. deferred?

Coda
2012-07-18, 00:45:36
Welche Teile der Beleuchtung kollidieren denn üblicherweise mit MSAA?
Ist dynamische GI nicht i.d.R. deferred?
Sind Äpfel nicht i.d.R. Birnen?

Sowohl auf Screenshots als auch in Bewegung?
Ich hab mich auf C3 an sich bezogen. Was das TXAA angeht weiß ich ehrlich gesagt auch noch nichts genaues.

Gipsel
2012-07-18, 02:02:21
Sind Äpfel nicht i.d.R. Birnen?Der Spruch ist fast schon signaturwürdig. :D

aufkrawall
2012-07-18, 02:43:04
Sind Äpfel nicht i.d.R. Birnen?

Kennst du das Wort "impliziert"?
Ist ein sehr gutes, etwa wie "Kontext".

Skysnake
2012-07-18, 08:44:59
Und ist das hier nicht minimal OT gerade?

Iruwen
2012-07-18, 09:22:45
Und warum liegt da eigentlich Stroh? Coda hat hier keinen Bildungsauftrag, das weiß man doch :D

Gipsel
2012-07-18, 11:31:40
So, jetzt ist dann aber auch gut. Back to topic, please!

Ailuros
2012-07-24, 11:33:54
Besser spaet als nie: http://www.brightsideofnews.com/news/2012/7/23/nvidia-releases-kepler-graphics-demo-a-new-dawn.aspx

Hübie
2012-07-24, 11:43:11
Hab ich gestern mit 14-19 fps über meinen Schirm ruckeln lassen ;D Wunderschön anzusehen. Das wars aber auch. Wie das wohl auf GK110 performed?

Ailuros
2012-07-24, 12:35:50
Hab ich gestern mit 14-19 fps über meinen Schirm ruckeln lassen ;D Wunderschön anzusehen. Das wars aber auch. Wie das wohl auf GK110 performed?

14-19fps mit welcher GPU? Wie dem auch sei da es sich um ein Techdemo handelt, ist Leistung in Grenzen egal.

boxleitnerb
2012-07-24, 12:42:34
Läuft mit 11(min)-20(max)fps auf einer einzelnen 580. Eine 680 ist ca. 50% schneller. GK110 könnte da gut auf einen Faktor 2 kommen ggü. GF110 :)

aufkrawall
2012-07-24, 13:00:56
Die Demo haut mich nicht vom Hocker.
Die Haare sind gut, aber etwa vom Licht der Lampen findet sich rein gar nichts auf der Elfe wieder.
Der Baumstamm ist auch furchtbar aliased.

Da fand ich "Leo" eher besser.

Botcruscher
2012-07-24, 13:03:44
Es ist zwar eine Grafikdemo aber die ganze Physik inkl. Sitzposition und Bewegung passt eher zu einem Klotz Holz. Wenn das Marketing ständig auf Physik herumreitet, sollte man auch man für 60s motion capturing zahlen.

Godmode
2012-07-24, 13:09:18
Etwas OT, daher lieber dort weitermachen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=530503

aufkrawall
2012-07-25, 15:38:40
Es gibt sogar schon ein Spiel, welches das nutzt: Dirt Showdown.
Ist bei der Final das AA besser als in der Demo?
Dort greift es nämlich ziemlich mies.

Darkman.X
2012-07-26, 00:01:22
Ein Spiel, dass zwischen Demo und Release noch verbessert wird ? In was für einer komischen Welt lebst du denn ? ;)

Skysnake
2012-07-30, 22:15:19
Gibts eigentlich mal echte Neuigkeiten bzgl GK110? Irgendwie ist es in letzter Zeit SEHR still geworden.

Hugo78
2012-07-30, 23:41:38
Ist doch von den Daten her schon alles bekannt.
Allein das finale Produkt fehlt, aber hier wissen wir doch alle, dass es nix vor Oktober gibt, wenn nicht sogar später.
Und letzlich wird auch das nur Profi-HPC Zeug sein, wo nur der Vergleich zum Larrabee 2012, aka XeonPhi interessant wird.

Wobei Intel wohl mit mit einem 512bit SI aufmarschiert, sowie Produktionsvorsprung in Form von 22nm Trigate und sollte die dann aktuelle XeonPhi Version, "Big K" nicht deutlich schlagen können,
dass dann Intel sich auf Dauer eine effektivere Hardware zusammenschrauben muss, um in Zukunft dran bleiben zukönnen.
Also ich erwarte mit XeonPhi ein vergleichsweise kurzlebiges Produkt.
AMD hat dann schon eher schnellere Hardware als Alternative zu "Big K" in Peto, soabld der Produktionsvorsprung von Intel sich gegessen hat.

Und ja mir ist klar das Intel sicher auch bei 14nm ect. die ersten sein werden, aber die Entwicklung wird sich allgemein verlangsamen, dass erkennt man schon heute.

Skysnake
2012-07-30, 23:49:49
Pft, das was man weiß reicht aber bei weitem nicht aus, um vernünftige Leistungsabschätzungen betreiben zu können.

Ich will harte Zahlen haben, wie gut der Chip jetzt in unterschiedlichen Anwendungen performt. Vergleich zu XeonPhi wäre natürlich sehr schick ;)

dildo4u
2012-07-30, 23:56:01
Wäre Blödsinn solche Infos zu geben,wenn man noch Monate Zeit zum Treiber optimieren hat und man nicht weiss wie hoch man den Chip dann bekommt.
Das Endergebnis wird nur besser um so mehr Zeit verstreicht,auch gibt's noch keine Konkurrenz Produckt am Markt was man mit Vorabinfos "aufhalten" muss.

G3cko
2012-08-01, 19:10:25
Und ja mir ist klar das Intel sicher auch bei 14nm ect. die ersten sein werden, aber die Entwicklung wird sich allgemein verlangsamen, dass erkennt man schon heute.
Das ist aber genau der springende Punkt. Die Leistungssprünge werden immer kleiner und werden nur bei neuen Fertigungsverfahren etwas größer. Sollte Intel mit Leistung/Verbrauch gleichziehen können werden sie einen entscheidenen Vorteil haben, wie auch schon bei den CPUs.

Hugo78
2012-08-01, 19:28:48
Wenn Intel 22nm + Trigate und ein 512bit SI braucht, um überhaupt mit NVs Topdog in 28nm ohne Trigate und nur 384bit SI gleichzuziehen, seh ich langfristig keinen Vorteil für Intel.

Gipsel
2012-08-01, 20:23:27
Wenn Intel 22nm + Trigate und ein 512bit SI braucht, um überhaupt mit NVs Topdog in 28nm ohne Trigate und nur 384bit SI gleichzuziehen, seh ich langfristig keinen Vorteil für Intel.
Kurz- bis mittelfristig. Langfristig traue ich intel durchaus zu, eine zu den beiden "traditionellen" GPU-Herstellern vergleichbare Effizienz auf die Beine zu stellen. Und dann kann der Fertigungsvorteil in wenigen Jahren (wenn es 14 vs 20nm heißt, was immerhin eine volle Node ist, nicht nur eine halbe wie jetzt) halt doch entscheidend zuschlagen.

Hübie
2012-08-01, 21:06:07
Na vor allem ist Intel momentan nur in eine Lücke hinein geprescht die da x86-hpc heißt. Mein Wissen ist aber nicht umfangreich genug um jetzt sagen zu können das lohnt sich weil x% nicht mit CUDA/OPENCL/WASAUCHIMMER programmieren "müssen" sondern ihre auf x86-gertrimmten Programme weiter nutzen können.
Will heißen dass sich deren Segmente überschneiden aber nicht decken.

Skysnake
2012-08-01, 21:34:44
GPGPU ist ne Teilmenge des HPC-Bereiches.

GPGPU ist immer extra Aufwand. Wenn man sich das sparen kann ist das natürlich toll

Hugo78
2012-08-01, 22:10:44
Kurz- bis mittelfristig. Langfristig traue ich intel durchaus zu, eine zu den beiden "traditionellen" GPU-Herstellern vergleichbare Effizienz auf die Beine zu stellen.

Ich weiß nicht, es kommt mir aktuell einfach nur so bezeichnend vor, dass man Larrabee, nachdem man es nicht für Grafik verwenden konnte,
nicht schnell über Nacht zum MIC gemacht hat, sondern auch hier noch 2-3 Revisionen + Fertigungsvorteil brauchte, damit es jetzt überhaupt marktreif wird.

Da müsste die aktuelle Version schon der Über-Knaller werden und so überzeugen, dass die Stückzahlen in dem relativ kleinen Segment auch zum tragen kommen.

Gipsel
2012-08-01, 22:17:57
Denke einfach noch 2 bis 3 Revisionen und einen full node shrink (für nV und AMD, intel will ja wohl von 22nm gleich anderthalb nodes auf 14nm springen, wodurch der Fertigungsvorteil noch größer wird) weiter. ;)

Hübie
2012-08-01, 22:36:39
Mal ne Frage zwischendurch wo ich das gerade lese: Was ist fullnode und halfnode eigtl? =) Woher weiß ich wanns full und wanns half ist :redface:

@skysnake: War das nicht auch meine Aussage? :| Oder wolltest du das nur noch mal unterstreichen?

Skysnake
2012-08-01, 23:51:02
nein, du sagst sie überschneiden sich, haben aber auch Bereiche die nicht gleich sind.

Ich sag: GPGPU ist nur ein Teil von HPC in dem Bereich. Es gibt also CPU-HPC der kein GPGPU-HPC ist, aber keine GPGPU-HPC Probleme, die kein CPU-HPC sind. GPGPU-HPC macht man nur aus Kosten und Effizienzgründen.

DavChrFen
2012-08-02, 01:10:09
Aber muß man bei HPC nicht sowieso immer auf die exakte Hardware (z.B. Cachegrößen) optimieren, womit der Vorteil, dass alles x86 ist, nicht zum Tragen kommt?

ndrs
2012-08-02, 01:14:06
Mal ne Frage zwischendurch wo ich das gerade lese: Was ist fullnode und halfnode eigtl? =) Woher weiß ich wanns full und wanns half ist :redface:
Kurzes OT dazu im Spoiler

Nimm einfach die üblichen Fertigungsgrößen und zähl die Schritte. Wenn du direkt einen weiter gehst, sagt man umgangssprachlich Half Node. Bei zwei Schritten ist es ein Full Node.

Wobei die Bezeichnung heute eigentlich nicht mehr treffend ist, da die ursprüngliche Aussage der Begriffe eine andere war:
Bei einer Verkleinerung, wo man das alte Design einfach herunterskalieren konnte, sagte man ursprünglich, dass es ein Half-Node-Sprung ist, ergo weniger Arbeit für die Chipdesigner. Beim Sprung zu einem Full Node musste in jedem Fall vieles neugelayoutet werden. Letzterer ist übrigens meistens an einem, relativ zum Vorgänger gesehen, größeren Sprung erkennbar.

Wenn du ein paar Jahre zurückgehst war es so weit ich weiß noch so. Also:
90nm: Full Node
80nm: Half Node
65nm: Full Node
55nm: Half Node ...

Genaugenommen hängt das aber immer vom Fertiger und dessen Spezifikationen für den jeweiligen Prozess ab, ob sich viel oder wenig geändert hat.
Da heutzutage meist eine Strukturgröße ausgelassen wird, gibt es eigentlich fast nur noch Full Node Sprünge istdie Bezeichnung so wie sie mal war eigentlich kaum noch gebräuchlich.

Üblicherweise fertigen die CPU-Hersteller in den Full Nodes (wobei das bei AMD bald hinfällig ist). Bspw TSMC hat irgendwann die 32nm übersprungen und hängt seit dem in den "Half Nodes" fest, die aber im Vergleich zu ihrem direkten Vorgänger eigentlich doch Full-Node-Sprünge sind.

Du siehst, die Begrifflichkeit ist eindeutig ... nicht :D

Skysnake
2012-08-02, 10:54:56
/sign @ndrs ;)

@DavChrFen:
Und du glaubst da setzt sich jemand hin und optimiert für jede Architektur die Programme von Hand?

Die großen sehr wichtigen grundlegenden Bibliotheken sind selbstoptimierend. Das heißt, die erfassen erstmal mit "Benchmarks" die Architektur und wählen dann die Parameter so, dass die Architektur bestmöglichst ausgenutzt wird.

Hab so was auch mal fast komplett für DGEMM geschrieben, allerdings nur auf einem Rechner als Multithread-Anwendung. Fast, da ich zwar die Daten ermittelt, dann aber nicht benutzt habe, um die Berechnung zu optimieren ;)

Bei einigen/vielen Sachen kann man das aber recht "einfach" machen, da es eben nur wenige wirkliche Parameter gibt. Meist sind das die größen der Slices und eben die größe der Pakete bei MPI. Das wars dann meist auch schon. Der Algorithmus/Programm an sich ist ja schon darauf ausgelegt zu skalieren. Das sind dann halt "nur" noch die Feinheiten.

Und selbst wenn man doch noch selbst hand anlegen muss, dann kann man die Struktur des Problems relativ gleich lassen. Bei GPGPU muss man sehr oft größere Anpassungen vornehmen und sich eben auch Gedanken machen, wie und wann man denn die Daten auf die GPU schiebt, und wann man Sie wieder runter holt, und ob man jetzt XY auf der GPU oder auf der CPU berechnet, und dann eben Daten hin und her schieben muss, oder man es einfach auf der GPU auch ausrechnet, was eigentlich langsamer ist, aber dann doch schneller am Ende, weil man den Transfer nicht hat usw usw usw....

Wie du siehst wird das SEHR schnell SEHR komplex. Das MIC Konzept macht einem da das Leben schon sehr viel einfacher.

Ailuros
2012-08-02, 12:25:52
Wie du siehst wird das SEHR schnell SEHR komplex. Das MIC Konzept macht einem da das Leben schon sehr viel einfacher.

Schon nur hat es Intel hier auch leicht das sie mit dem gefloppten LRB Design nicht mehr (oder zumindest fuer einige Zeit) den desktop GPU Markt bedienen werden. Weder AMD noch NVIDIA waeren so bloed gewesen an solch einen Design selbst zu denken, da sich keiner der beiden momentan einen HPC only design leisten kann. Fuer mehr als HPC ist Intel's MIC auch nicht geeignet, ergo sorgt Intel lediglich dafuer dass ihre R&D Kosten dafuer irgendwann gedeckt werden wenn ueberhaupt.

Skysnake
2012-08-02, 12:37:42
Über die Idee von Larrabee müssen wir nicht reden... Ich frag mich ja noch immer, was die geraucht haben, um auf so ne Idee zu kommen...

bzgl nVidia/AMD. AMD arbeitet an was ähnlichem ja mit HSA und Bulldozer. Sie fassen es nur komplett anders an. Es gibt aber schon gewisse Ähnlichkeiten. AMD sieht die Sache mehr wie ein Multi-Core und Intel mehr wie ein Cluster.

Naja und nVidia musste sich halt von der x86 Emulation verabschieden...

Am Ende wirds wohl eher ne Mischung aus MIC und HSA werden auf lange sicht. Aber das kann man noch nicht wirklich abschätzen, wie sich die Dinger weiter entwickeln. Dafür gibts einfach zu viele Randpunkte.

Einige "Vorzüge" von MIC sind z.B. für mich absolut keine. Da seh ich den HSA Ansatz in einigen/vielen Punkten vielversprechender.

Hugo78
2012-08-02, 12:53:58
HSA sagt doch erstmal nichts darüber aus, ob du in x86, RISC oder whatever machst.
AMD hatte sich vor nicht all zu langer Zeit, aus dem ARM Markt verabschiedet, um nicht mit 10 anderen konkurieren zumüssen.

Jetzt arbeitet man wieder mit ARM zusammen in der HSA Foundation, aber deswegen wird ARM oder auch TI nicht mit x86 anfangen und AMD nicht mit ARMs Geschichten.

Was wird das also?
Nur eine weitere API wie CUDA, wo jeder sein CPU + GPU Ding einbringt?!

Skysnake
2012-08-02, 13:11:13
HSA ist eben KEINE API!

HSA soll den Programmablauf automatisch steuern. Also die Aufgaben auf die jeweils sinnigsten Ausführungseinheiten mappen. Das ist ein GEWALTIGER Unterschied im Vergleich zu dem was aktuell gemacht wird.

Kurz, alles was bei CUDA/OpenCL vom Programmierer per Hand gemacht wird, wird im (utopischen) Optimalfall von der Hardware automatisch gemacht, ohne das ein Programmierer auch nur einen Finger rühren muss...

Das schlägt halt in die gleiche Kerbe wie Intels MIC. Man nimmt nen Compiler, jagt das Zeug durch und bei entsprechendem Code/Problemen ist man dann halt schneller bei weniger Energieverbrauch....

Die (i)GPU bei HSA ist ja praktisch auch nichts anderes als die ultrawide SIMD/Vektorbefehle von MIC. Es ist halt nur eine etwas andere herangehensweise, weil man aus 2 eins macht, und bei MIC eben bei einem eine Funktionalität (SIMD) extrem aufbohrt und eben den Interconnect onChip bringt.

Man muss halt schauen, was am Ende besser ist. Wie schon gesagt, wohl eine Mischung aus beidem. War in der Vergangenheit eigentlich schon immmer so ;D

Hugo78
2012-08-02, 13:27:55
Kurz, alles was bei CUDA/OpenCL vom Programmierer per Hand gemacht wird, wird im (utopischen) Optimalfall von der Hardware automatisch gemacht, ohne das ein Programmierer auch nur einen Finger rühren muss...

Ja gut, das ist letztlich das Ziel wo alle irgendwann mal mit ihren CPU + GPU Zeug hinwollen.
Unter dem Namen "Projekt Denver" soll NV daran ja schon seit über vier Jahren arbeiten.

Ailuros
2012-08-02, 14:01:02
Ja gut, das ist letztlich das Ziel wo alle irgendwann mal mit ihren CPU + GPU Zeug hinwollen.
Unter dem Namen "Projekt Denver" soll NV daran ja schon seit über vier Jahren arbeiten.

Mehr; und es wurden auch mehr als nur einmal die Richtlinien geaendert, wofuer aber eher die Spinnereien vom Management verantwortlich sind.

Über die Idee von Larrabee müssen wir nicht reden... Ich frag mich ja noch immer, was die geraucht haben, um auf so ne Idee zu kommen...

bzgl nVidia/AMD. AMD arbeitet an was ähnlichem ja mit HSA und Bulldozer. Sie fassen es nur komplett anders an. Es gibt aber schon gewisse Ähnlichkeiten. AMD sieht die Sache mehr wie ein Multi-Core und Intel mehr wie ein Cluster.

Naja und nVidia musste sich halt von der x86 Emulation verabschieden...

Am Ende wirds wohl eher ne Mischung aus MIC und HSA werden auf lange sicht. Aber das kann man noch nicht wirklich abschätzen, wie sich die Dinger weiter entwickeln. Dafür gibts einfach zu viele Randpunkte.

Einige "Vorzüge" von MIC sind z.B. für mich absolut keine. Da seh ich den HSA Ansatz in einigen/vielen Punkten vielversprechender.

Wir sind leider wieder zu stark OT, aber ich kann mir eine jegliche Mischung von MIC und HSA schwer vorstellen.

Das schlägt halt in die gleiche Kerbe wie Intels MIC. Man nimmt nen Compiler, jagt das Zeug durch und bei entsprechendem Code/Problemen ist man dann halt schneller bei weniger Energieverbrauch....

Bis zu 30% die area fuer x86 beim MIC und nur der minimalste Anteil an ff hw spricht eben nicht fuer geringeren Stromverbrauch. Weniger ff garantiert zwar hoehere Flexibilitaet, ff hw verbraucht aber nach wie vor weniger Strom. Einfacher: man kann nicht alles so einfach haben. Engineers werden immer Striche ziehen muessen fuer jegliche Zeitspanne um das bestmoegliche unter den jeweiligen Vorraussetzungen quetschen zu koennen. Eine GPU die genauso gut fuer HPC als auch 3D sein wird kann eben kein MIC sein oder auch im Gegenfall kein 294mm2 grosser GK104 chip.

Ein sehr schoener thread (hat auch nichts mit dem Thema hier zu tun) ist bei B3D die DX12 Wunschliste fuer diejenigen die Lust haben etwas relevantes zu lesen.

http://forum.beyond3d.com/showthread.php?t=62157

boxleitnerb
2012-08-08, 09:27:41
Tesla K20 ab Q4 2012 für $3199
Nicht wirklich neue Details, aber eine schön aufbereitete News von Computerbase:
http://www.computerbase.de/news/2012-08/nvidia-stellt-zweite-maximus-generation-mit-kepler-vor/

Was erstaunt ist der geringe Preis. Die stärkste neue FirePro kostet $3999. Hatte jetzt irgendwie damit gerechnet, dass Nvidia sich in Richtung $5000 bewegt.

AnarchX
2012-08-08, 09:38:30
Vielleicht der Einstiegspreis? Das Topmodell könnte dann entsprechend mehr kosten.

AffenJack
2012-08-08, 10:01:12
Warn die Teslas nicht schon immer tendenziell billiger als die Quadros ?
Von den Quadros kommt ja erstmal nur Gk104, während der Toppreis dann vom Gk110 als Quadro eingenommen wird.

Ailuros
2012-08-08, 11:03:19
Warn die Teslas nicht schon immer tendenziell billiger als die Quadros ?

Ich hatte den Eindruck dass es eher das Gegenteil ist.

Von den Quadros kommt ja erstmal nur Gk104, während der Toppreis dann vom Gk110 als Quadro eingenommen wird.

Ich will hoffen dass wenn high end Kepler Quadros auftauchen, die 28nm GPUs Preise endlich normaler aussehen.

Hugo78
2012-08-08, 11:54:39
Mehr; und es wurden auch mehr als nur einmal die Richtlinien geaendert, wofuer aber eher die Spinnereien vom Management verantwortlich sind.

Wenn du die frühen x86 Ambitionen meinst, dass muss man auch mit Blick auf Windows zu der Zeit sehen.
Ohne x86 konnte man sich vor paar Jahren nicht vorstellen, überhaupt jemals ein eigenes SoC unter Windows zu etablieren.
Und ohne Windows, kein Desktopgeschäft für leistungsfähige SoCs, mit entsprechenden hohen Stückzahlen, die Investitionen für Entwicklungen in diese Richtung rechtfertigen.

Heute schaut die Welt natürlich anders aus, auch wenn ARMWin8 nicht den Umfang haben wird wie die x86 Version und erstmal rein auf Tablets abziehlt.

AffenJack
2012-08-08, 12:16:49
Ich hatte den Eindruck dass es eher das Gegenteil ist.


Hab mal bei Google gesucht, die Quadro 6000 gibts für 3500$, die Tesla 2090 für 2400$. Bei großen Mengen wie Rechenzentren die Tesla nehmen dürfte das noch saftig Rabatt geben. Also Quadro macht da noch ne deutlich schönere Marge. Die 2250$ für die neue Quadro zeigen klar, dass dies nur das Mittelklassemodell ist.

Skysnake
2012-08-08, 12:57:01
teslas sind bei gleichen Daten billiger. Sie haben halt keine Displayanschlüsse und sind bzgl der Treiber nicht auf CAD usw optimiert. Das sind wirklich nur Rechenknechte, die auch kein frame/genlock haben.

Das ist ja auch die Idee hinter Maximus. Eine teure Quadro für die Ausgabe usw und x "billige" Teslas fűr die Berechnungen.

EDIT:

Ich finde die 3199$ jetzt auch ziemlich billig. Die M2070 war glaub ich um die 3100$ und die M2090 um die 4000$ angesiedelt am Anfang. Jetzt bekommt man die M2090 für um die 2600$. Ich finde das schon sehr erstaunlich, wenn das wirklich die 6GB Version wird für die 3199$. Ich tendiere eher zum Salvage-Part. Die FirePro kostet im Maximalausbau ja auch knapp 4k€, wobei man da sagen muss, dass die mit der Quadro konkurriert und nicht mit der Tesla, und die Quadro (6000) Version der M2070 kostet jetzt noch immer knapp 2800$ Soweit ich gesehen hab hat die Quadro 6000 zumindest nur 448 Cuda-Cores, was eben einem GF100 entspricht. Die M2090 ist ja ein GF110, also im Vollausbau mit 512 Cores.

mboeller
2012-08-08, 16:33:23
Tesla K20 ab Q4 2012 für $3199
Nicht wirklich neue Details, aber eine schön aufbereitete News von Computerbase:
http://www.computerbase.de/news/2012-08/nvidia-stellt-zweite-maximus-generation-mit-kepler-vor/


Q4/2012 heißt aber laut Heise.de Dezember, nicht Oktober.

http://www.heise.de/newsticker/meldung/Nvidias-GK110-Rechenbeschleuniger-kostet-3200-US-Dollar-1660971.html


Denn Maximus 2 ist ein Verbund aus der laut Nvidia ab Oktober erhältlichen Quadro K5000 und einer Tesla K20, welche erst ab Dezember erhältlich sein soll.

y33H@
2012-08-08, 16:36:49
NV sagt in der PM das, was Heise schreibt.

dildo4u
2012-08-08, 18:07:00
Tesla K20 ab Q4 2012 für $3199
Nicht wirklich neue Details, aber eine schön aufbereitete News von Computerbase:
http://www.computerbase.de/news/2012-08/nvidia-stellt-zweite-maximus-generation-mit-kepler-vor/

Was erstaunt ist der geringe Preis. Die stärkste neue FirePro kostet $3999. Hatte jetzt irgendwie damit gerechnet, dass Nvidia sich in Richtung $5000 bewegt.
Warum ist 104 dort so gut bei Raytracing?Beim Luxmark kackt die 680 ja ordentlich ab.

boxleitnerb
2012-08-08, 18:40:48
Dort? Wo dort?

Skysnake
2012-08-08, 19:07:52
Warum ist 104 dort so gut bei Raytracing?Beim Luxmark kackt die 680 ja ordentlich ab.
Weil die Quadro nur die Bildausgabe übernimmt mehr oder weniger, und das eigentlich Raytracing auf K20 läuft?

Hugo78
2012-08-08, 20:37:25
Warum ist 104 dort so gut bei Raytracing?Beim Luxmark kackt die 680 ja ordentlich ab.

Primär sicher das was Skysnake schreibt, aber sollte V-Ray auch im Gegensatz zum Luxmark, auf die Registergröße achten,
dann ist GK104 garnicht mehr so lahm und rendert entsprechend seiner Flopangabe.
- http://www.forum-3dcenter.org/vbulletin/showthread.php?t=524956

Okay, es hat wohl tatsächlich einen Register-Überlauf gegeben. Ich hab die Blockgröße reduziert und jetzt läuft es deutlich schneller (484 FPS). Hab's nochmal hochgeladen, sorry.

Kann gut sein, dass das Register-File bei GK104 ziemlich klein ist.

Die Slides hier geben mir auch recht: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=4&ved=0CDcQFjAD&url=http%3A%2F%2Fcis565-spring-2012.github.com%2Flectures%2F04-18-Modern-GPUs.pptx&ei=ReaVT_GGBcOhOq2a4fEN&usg=AFQjCNHsp_YTNBGsw_zbhRsQAy23SsRZ9g&sig2=0O-zrmrHT86viN9afyJsrg&cad=rja

Zu wenig Register für die ALU-Anzahl per SMX. Mal sehen was GK110 da so macht.

Skysnake
2012-08-08, 21:11:25
die Register/Core soll sich mit GK110 ja aber, wenn ich mich richtig erinnere, nicht ändern.

Hugo78
2012-08-08, 22:50:44
Na dann erbringt aber auch K20 nicht allein die Arbeit bei V-Ray.
Wenn das Verhältnis gleich bleibt, dann sollten Tesla K20 und Quadro K5000, problemlos zusammenarbeiten in V-Ray.
Also DAU theoretisch... :D

dildo4u
2012-08-08, 23:19:29
Dort? Wo dort?
http://youtu.be/s7niAKeAVxY

Würde mich Wundern wenn externe Entwickler jetzt schon GK110 haben.

GK104 wird auch als Tesla verkauft.
http://www.nvidia.de/object/tesla-server-gpus-de.html

Braucht man für Raytracing Double Precision?

Skysnake
2012-08-08, 23:40:16
Kann man sicher aussuchen.

GK110 hat halt das breite Speicherinterface und vor allem auch nen doppelt so großen L2 Cache.

Hübie
2012-08-09, 21:20:15
Wo stand denn das die register sich net ändern? :| Habe das eben genau anders in der Birne.

Lu
2012-08-20, 23:01:31
In welchen Preisregionen vermutet ihr "Big K" wenn GK104 schon so abartig überteuert ist? Muss man sich auf 700-900€ einstellen?

y33H@
2012-08-20, 23:05:39
Zwischen GTX 680 und GTX 690 vermutlich, ja.

Raff
2012-08-20, 23:07:40
Mit etwas Glück sinken die Preise mit steigender Kapazität @ TSMC. Für 600+ Euro können sie sich ihren großen Johnny selbst sonstwohin stecken.

MfG,
Raff

Coda
2012-08-20, 23:09:49
Braucht man für Raytracing Double Precision?
iRay nicht.

Lu
2012-08-20, 23:23:44
Mir kribbelt es in den Fingern, GK104 ist ja ein schlechter Witz bezüglich Leistung...
700-900€ wären aber auch ziemlich happig. Da sollte dann schon +50% Leistung zu meinem Sli rausspringen.

boxleitnerb
2012-08-21, 00:01:28
Mehr als $649 kann Nvidia kaum verlangen, sonst bleiben sie auf den Karten sitzen.

dildo4u
2012-08-21, 00:03:33
500$ wie alle letzten High-End Karten von NV,der volle 104 wird dann als 760 rebranded.Es wird dann einfach das billige PCB der 670 genommen,damit kommt man locker Richtung 200€.

Gaestle
2012-08-21, 08:33:43
Klingt IMHO nachvollziehbar.

Aber etwas mehr als 500$ werden es angesichts der vermuteten Yields schon sein. Evtl. 550-600?

Ailuros
2012-08-21, 09:45:29
Jegliche Preis-projektion fuer GK110 ist verdammt relativ zu mehr als einem Faktor. Zeitpunkt der Veroeffentlichung, yields/Kapazitaeten bei TSMC, was die Konkurrenz im Angebot hat etc etc.

Wenn NV GK110 heute veroeffentlichen wuerde, muesste das Preis-/Leistungsverhaeltnis im Vergleich zu allen anderen Loesungen (ohne das irgendwelche Preise reduziert werden) auch Sinn machen. Irgendwo zwischen der GTX680 und der GTX690 wuerde der Preis schon liegen.

Angenommen GK110 erscheint fuer desktop erst in Q1 2013 an, koennen sich etliche Faktoren bis dahin aendern. NV wird diesen fuer desktop nur frueher veroeffentlichen falls AMD sie mit ihren refreshes unerwartet unter Druck setzt. In dem Fall kommt das Ding halt frueher mit miserabler Verfuegbarkeit und wohl auch pfiffigen Preisen um die Nachfrage gering zu halten.

boxleitnerb
2012-08-21, 12:35:55
Was spricht mal dagegen, wenn Nvidia zur Abwechslung vor AMD einen Chip rausbringt? Muss ja nicht Monate vorher sein wie Tahiti vs GK104 oder Evergreen vs Fermi, aber immer als Zweiter ist meh.

M4xw0lf
2012-08-21, 12:59:37
Was spricht mal dagegen, wenn Nvidia zur Abwechslung vor AMD einen Chip rausbringt? Muss ja nicht Monate vorher sein wie Tahiti vs GK104 oder Evergreen vs Fermi, aber immer als Zweiter ist meh.

Reagieren ist halt besser als Agieren, wenn man die Leistungskrone haben will ^^

aufkrawall
2012-08-21, 13:05:04
Reagieren ist halt besser als Agieren, wenn man die Leistungskrone haben will ^^
Wenn sie diese wieder bekommen, würd ich mal preislich vom schlimmsten ausgehen.
Offenbar werden die Karten ja eh gekauft. :freak:

Ich hoffe, dass das Ding auch vom OC her wieder mit G80 vergleichbar sein wird.
Also PT >=140%.

Ailuros
2012-08-21, 13:20:13
Was spricht mal dagegen, wenn Nvidia zur Abwechslung vor AMD einen Chip rausbringt? Muss ja nicht Monate vorher sein wie Tahiti vs GK104 oder Evergreen vs Fermi, aber immer als Zweiter ist meh.

GTX690 kam als erste 28nm mGPU an mit einem ziemlich mageren MSRP von $999 und ultra-beschissener Verfuegbarkeit. Wie gesagt so etwas laesst sich locker wiederholen, nur hat der Endverbraucher nichts davon ausser dass er ziemlich geaergert wird.

aufkrawall
2012-08-21, 13:25:27
Wie gesagt so etwas laesst sich locker wiederholen, nur hat der Endverbraucher nichts davon ausser dass er ziemlich geaergert wird.
OT: Das vorletzte Wort musste ich erstmal entschlüsseln.
So ne Angewohnheit aus pre Unicode Zeiten?

Raff
2012-08-21, 13:28:25
Angenommen GK110 erscheint fuer desktop erst in Q1 2013 an, koennen sich etliche Faktoren bis dahin aendern. NV wird diesen fuer desktop nur frueher veroeffentlichen falls AMD sie mit ihren refreshes unerwartet unter Druck setzt. In dem Fall kommt das Ding halt frueher mit miserabler Verfuegbarkeit und wohl auch pfiffigen Preisen um die Nachfrage gering zu halten.

"Unerwartet unter Druck setzt"? Nvidias GTX 680 ist jetzt schon nur die zweitschnellste Single-GPU-Karte, AMD hat mit einer "HD 8970" leichtes Spiel, das Nvidia doch bitte kontern soll. ;)

MfG,
Raff

boxleitnerb
2012-08-21, 13:29:53
GTX690 kam als erste 28nm mGPU an mit einem ziemlich mageren MSRP von $999 und ultra-beschissener Verfuegbarkeit. Wie gesagt so etwas laesst sich locker wiederholen, nur hat der Endverbraucher nichts davon ausser dass er ziemlich geaergert wird.

Solange ich im Dezember am ersten Tag schnell 3x GTX780 bekomme... :freak:

Ich fände es gut, wenn die IHVs bei ihren Releases wieder näher zusammenrücken würden. Dann würde die Preistreiberei am Anfang wenigstens etwas eingedämmt, weil sofort Konkurrenz da ist. Sowas wie bei Fermi will ich nie wieder sehen - vor allem jetzt, wo AMD bei den Preisen viel selbstbewusster geworden ist. Nvidia verlangt eh immer viel.

Iruwen
2012-08-21, 13:30:30
OT: Das vorletzte Wort musste ich erstmal entschlüsseln.
So ne Angewohnheit aus pre Unicode Zeiten?
Vermutlich gibts auf seiner Tastatur keine Umlaute :cool:

Ailuros
2012-08-21, 13:50:53
Vermutlich gibts auf seiner Tastatur keine Umlaute :cool:

Genau. Ich hab's ihm schon per PM erlautert wie verdammt umstaendlich es ist Umlaute auf dem Mist-keyboard hier reinzutippen.

Solange ich im Dezember am ersten Tag schnell 3x GTX780 bekomme... :freak:

Optimist :P

Ich fände es gut, wenn die IHVs bei ihren Releases wieder näher zusammenrücken würden. Dann würde die Preistreiberei am Anfang wenigstens etwas eingedämmt, weil sofort Konkurrenz da ist. Sowas wie bei Fermi will ich nie wieder sehen - vor allem jetzt, wo AMD bei den Preisen viel selbstbewusster geworden ist. Nvidia verlangt eh immer viel.

Es ist nicht so dass sich NVIDIA nicht teilweise an AMD als Konkurrenten richtet; von der anderen Seite aber setzt NV auch ihre eigenen Prioritaeten. AMD setzt eben nicht so viel Wert wie NV auf HPC und/oder workstation GPUs was eben fuer NV ganz andere Kombinationen bedeutet. Noch schlimmer AMD macht bei performance chip die Groesse halt und haelt sich schon seit Jahren von dem Zeug fern. Wir muessen doch nicht wirklich konstant das gleiche Zeug wiederholen. Es ist alles bekannt und ausser ein paar wenigen Aussnahmen wo mal ab und zu falsche Entscheidungen getroffen werden versuchen IHVs tatsaechlich das bestmoegliche innerhalb der Moeglichkeiten auf die Beine zu stellen.

Im FirePRO thread meckerten die User dass AMD so spaet und mit so wenig mit Tahiti ankommt; wer hat in solch einem Bereich die wirkliche Not sich auf workstation Loesungen zu konzentrieren? NV mit ihrem monstroesen Marktanteil fuer Quadros oder AMD? In der Zwischenzeit bedenke dass egal wie beschissen yields/Kapazitaeten bei TSMC sind, egal wie viel NV nur verkauft momentan usw. wird GK104 einer ihre bestverkauften cores sein. Denk nach was sie an GTX670/680 verdienen, wie ekelhaft hoch die Margen fuer GK104 Quadros sind und erklaer mir dann wie manche Idioten dazu kommen dass der kastrierte GK104 auf der GT660Ti ein "Verlust-geschaeft" sei.

Nochmal: GK110 ist ein 7.1b/550mm2 die. So lange sich GK104 sich gut mit Tahiti in Verkaufszahlen schlagen kann, wird man wohl nicht so bloed sein irgendwelche wafer fuer GK110 desktop zu widmen, wo man stattdessen zich mehr chips fuer jeglichen GK10x herstellen kann.