PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GK110 - High-End-Kepler - Q1 2013


Seiten : 1 2 [3] 4 5 6 7 8 9 10 11 12 13 14 15 16

Gaestle
2012-05-11, 12:42:59
Ist das SI unabhängig von den "Clustern"?

8 x 32bit = 256bit

24 x 16bit = 384bit

24 x 32bit = 768bit

Die Verfügbarkeit wird (nach den seit Februar/März existierenden Aussagen) wohl eher homöophatisch sein, besonders im Gamerbereich.

robbitop
2012-05-11, 13:32:25
An der GTX670 sah man IMO dass die 680 von irgendwas limitiert wird. Da das Ding ein 4x Frontend hat, tippe ich auf die Bandbreite.
Sollte GK110 mit doppelt so viel Rohleistung wie GK104 antanzen, sollte er besser auch die Bandbreite verdoppeln. Ansonsten könnte er seine Rohleistung nicht ausfahren

Ailuros
2012-05-11, 13:33:25
also ich glaube weiterhin an die 3072, lediglich beim SI tendiere ich dann doch eher zum kleineren 384 bit, ist ja auch schon ein gutes stück mehr als GK104 256 bit.
fragt sich jetzt nur noch wie die tacktbarkeit und die praktische (gaming)leistung aussieht.
unklar wäre ja auch noch wie 28nm bei einem solchen Riesenchip läuft. Ich wäre nicht sehr verwundert wenn dieses Jahr keine nennenswerte verfügbarkeit mehr kommt.

Ein guter Grund an einen 512bit bus zu glauben ist HPC und fuer so manche Datenstroeme dort ist sehr hohe Bandbreite mehr als nur wichtig. Kann sein dass ich total falsch liege (obwohl die 512bit info vom engineering kommen soll) aber denk dran dass Tahiti fuer 1 TFLOP DP 264GB Bandbreite hat. Bei hypothetischen 6.5Gpbs/384bit fuer GK110 sind es "lediglich" 312GB welches mir fuer einen chip der um einiges hoehere TFLOP Raten (>2 TFLOPs auf Papier) erreichen soll doch etwas knapp klingt, lass mich aber gerne eines besseren belehren.

Gipsel
2012-05-11, 13:48:51
Ist das SI unabhängig von den "Clustern"?
War es das nicht schon immer?

Ailuros
2012-05-11, 13:51:08
War es das nicht schon immer?

So weit ich mich zurueck erinnern kann ja; und es sind auch seit geraumer Zeit stets Nx64bits und nicht weniger.

VooDoo7mx
2012-05-11, 14:10:51
An der GTX670 sah man IMO dass die 680 von irgendwas limitiert wird. Da das Ding ein 4x Frontend hat, tippe ich auf die Bandbreite.
Sollte GK110 mit doppelt so viel Rohleistung wie GK104 antanzen, sollte er besser auch die Bandbreite verdoppeln. Ansonsten könnte er seine Rohleistung nicht ausfahren

Wenn es so wäre, würde ja eine GTX680 sehr stark an Performance zulegen wenn man den Speicher übertaktet, dies ist aber nicht der Fall.
Der geringe Unterschied zwischen GTX670 und GTX680 kommt dadurch zu stande das nur sehr wenig Einheiten deaktiviert sind udn die GTX 570 Review Sample einen sehr hohen Boostclock haben.

GK104 hat imho keinen größeren Flaschenhals. Alles am GTX680 Board ist ist perfekt aufeinander abgestimmt. Erinnert mich irgendwie an die 9600GT alias G96.

G3cko
2012-05-11, 14:25:34
http://www.pcgameshardware.de/aid,875267/Overclocking-Test-Geforce-GTX-680-Radeon-HD-7970/Grafikkarte/Test/

Im Gegensatz zur 7970 profitiert sie schon deutlicher bei einer Speichertakterhöhung.

aufkrawall
2012-05-11, 14:27:42
Deshalb sollte man für OC einen Kühler verwenden, der auch gut auf den Speicher wirkt.

Gaestle
2012-05-11, 14:57:11
Vielleicht ist es zwischen 670 und 680 auch keine Speicherfrage, sondern etwas anderes?
Die Anzahl der ROPs ist auch bei beiden gleich.

Meine Rechnung von oben vergesse ich jetzt mal lieber....

Ailuros
2012-05-11, 15:02:44
Vielleicht ist es zwischen 670 und 680 auch keine Speicherfrage, sondern etwas anderes?
Die Anzahl der ROPs ist auch bei beiden gleich.

Meine Rechnung von oben vergesse ich jetzt mal lieber....

Ist doch ziemlich einfach: die 680 hat zu wenig Bandbreite um ihre Beine (siehe ALUs, TMUs etc) voll auszustrecken.

Duplex
2012-05-11, 15:09:06
Was soll jetzt am 512 Bit SI so besonderes oder zweifelhaft sein?
Nvidia hat mal GT200 Chips "GTX260 Karten" mit 448 Bit für 130 € verkauft...

Ailuros
2012-05-11, 15:34:16
Was soll jetzt am 512 Bit SI so besonderes oder zweifelhaft sein?
Nvidia hat mal GT200 Chips "GTX260 Karten" mit 448 Bit für 130 € verkauft...

Zweifel gibt es lediglich seit der Oak Ridge 6GB Aussage; fuer 512bit waeren es halt eher 8GB/SKU.

kruemelmonster
2012-05-11, 17:57:24
GK104 hat imho keinen größeren Flaschenhals. Alles am GTX680 Board ist ist perfekt aufeinander abgestimmt. Erinnert mich irgendwie an die 9600GT alias G96.

Die grandios ausbalancierte 9600GT hatte den G94 verbaut, G96 war 9500GT.

Zweifel gibt es lediglich seit der Oak Ridge 6GB Aussage; fuer 512bit waeren es halt eher 8GB/SKU.

Speku ins Blaue: Fermi Tesla kann 12,5% seines Speichers für ECC nutzen. Wenn nun bei Kepler Tesla das ECC-Feature evtl. durch eine andere Art und Weise der Berechnung speicherintensiver ist und so 25% benötigt werden passt die 6GB/8GB @ 512bit Geschichte wieder.
Habe aber keine Ahnung wie ECC bei den Teslas funktioniert, ist vllt. auch kompletter Quatsch.

Hades11
2012-05-11, 20:03:15
Ein guter Grund an einen 512bit bus zu glauben ist HPC und fuer so manche Datenstroeme dort ist sehr hohe Bandbreite mehr als nur wichtig. Kann sein dass ich total falsch liege (obwohl die 512bit info vom engineering kommen soll) aber denk dran dass Tahiti fuer 1 TFLOP DP 264GB Bandbreite hat. Bei hypothetischen 6.5Gpbs/384bit fuer GK110 sind es "lediglich" 312GB welches mir fuer einen chip der um einiges hoehere TFLOP Raten (>2 TFLOPs auf Papier) erreichen soll doch etwas knapp klingt, lass mich aber gerne eines besseren belehren.
lass dich mit deinem wissen ja nicht von meinem raten belehren, dass sollte eher andersrum laufen.
ich hoffe einfach nur dass sie die 3072 bringen und war etwas skeptisch ob dazu noch das Große SI draufpasst, zumal man sich ja auch bei dieser fertigung nicht umbedingt einen noch größeren chip wünscht, war aber alles nur vermutung. Und deiner Quelle vertraue ich mehr als meinem bauchgefühl.

robbitop
2012-05-11, 21:57:39
Wenn es so wäre, würde ja eine GTX680 sehr stark an Performance zulegen wenn man den Speicher übertaktet, dies ist aber nicht der Fall.
Der geringe Unterschied zwischen GTX670 und GTX680 kommt dadurch zu stande das nur sehr wenig Einheiten deaktiviert sind udn die GTX 570 Review Sample einen sehr hohen Boostclock haben.

GK104 hat imho keinen größeren Flaschenhals. Alles am GTX680 Board ist ist perfekt aufeinander abgestimmt. Erinnert mich irgendwie an die 9600GT alias G96.
Naja eine 680 müsste bei Volllast 8/7 also 14 % schneller sein als eine 670. Bis auf SSAA ist sie idR nur 7-8 % schneller. Also die Hälfte. Sie ist nicht vollständig limitiert aber teilweise. Ich wette, dass eine Speichertakterhöhung linear mit Faktor 0,5 skaliert und die Übertaktung der GPU selbst ebenso.
Zumindest denke ich, dass das Speicherinterface teilweise bremst.

Vielleicht ist es zwischen 670 und 680 auch keine Speicherfrage, sondern etwas anderes?
Die Anzahl der ROPs ist auch bei beiden gleich.

Meine Rechnung von oben vergesse ich jetzt mal lieber....

Glaube ich kaum. Eine ROP macht soziemlich alles in 1-2 Takten. Das ist um >= 1x Größenordnung weniger Aufwand als das was der Rest der Grafikpipeline in der GPU macht.

Godmode
2012-05-15, 07:27:44
Und was meint ihr, gibt es heute neues zu GK110? @GTC

boxleitnerb
2012-05-15, 07:44:25
Heute Abend erst, denke ich.

AffenJack
2012-05-15, 07:53:36
heute fast nix, heute ist ja nur die eröffnung und cuda5 vorstellung, morgen ist der talk über Big K.

AnarchX
2012-05-15, 11:23:05
Tesla K10 mit bis zu 75 TFLOPs in einem Rack: http://www.pcgameshardware.de/aid,883717/GTC-2012-GPU-Raytracing-mit-Physx-Erste-Demo-mit-Kepler/Grafikkarte/News/bildergalerie/?iid=1665846

Wie viele GPUs sind in einem solchen SGI Rack üblicherweise verbaut?

edit: GK104 basierend!
http://www.eetimes.com/electronics-news/4372936/Nvidia-upgrades-Tesla--eyes-cloud-gaming

The board is available now from vendors including Appro, Dell, HP, IBM, SGI and Supermicro with a double precision version, the model K20, coming in the fall.




Diskussion zur Tesla K10: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9299217#post9299217

Screemer
2012-05-15, 13:25:42
also gk110 auch bei den großen erst im herbst. wohl eher oktober als september, oder?

Duplex
2012-05-15, 21:03:40
Comprised of 7.1 billion transistors, the Kepler GK110 GPU is an engineering marvel created to address the most daunting challenges in HPC
http://www.nvidia.com/content/PDF/kepler/NV_DS_Tesla_KCompute_Arch_May_2012_LR.pdf

GK104 hat 3,54 Milliarden Transistoren & 1536 GPU Shader, mit 7,1 Milliarden Transistoren könnte GK110 tatsächlich 3072 GPU Shader haben, das doppelte von der GTX680

AnarchX
2012-05-15, 21:26:28
In der Keynote versprach man für Tesla K20 3-fache DP-Leistung gegenüber den GF110-Teslas.

http://www.abload.de/img/desktop_2012_05_15_214jdfy.png
http://forum.beyond3d.com/showpost.php?p=1643005&postcount=97

Die-Shot High-Res:
http://www.abload.de/img/ctt.marketwire.comnedfd.jpg
http://www.marketwire.com/press-release/nvidia-pioneers-new-standard-high-performance-computing-with-tesla-gpus-built-on-kepler-nasdaq-nvda-1657561.htm

Entweder ist das ein anderer Layer vom Chip oder GK110 ist extrem anders als GK104.

AnarchX
2012-05-15, 21:43:53
1Based on DGEMM performance: Tesla M2090 (Fermi) = 330 gigaflops, Tesla K20 (expected) > 1000 gigaflops
http://www.nvidia.com/content/tesla/pdf/NV_DS_TeslaK_Family_May_2012_LR.pdf

Fragt sich wie groß der Unterschied bei GK110 zwischen den erreichten und den theoretischen DP-GFLOPs ist.

AnarchX
2012-05-15, 21:52:14
Die-Shot-Analye aus B3D:
http://i.imgur.com/mVFb6.jpg

http://forum.beyond3d.com/showpost.php?p=1643034&postcount=107

384-Bit
15 SMX -> 2880SPs?

Hugo78
2012-05-15, 21:55:27
@AnarchX

SMX 0 nicht vergessen. ;)

Ich glaub nicht an 192SP pro SMX im GK110.

15*200 klingt cooler. :D *keine Ahnung hab*

AwesomeSauce
2012-05-15, 22:18:43
Die-Shot-Analye aus B3D:
http://i.imgur.com/mVFb6.jpg

http://forum.beyond3d.com/showpost.php?p=1643034&postcount=107

384-Bit
14 SMX -> 2668SPs?
Wo ist dann der L2 Cache?

AnarchX
2012-05-15, 23:30:29
Carsten von der GTC: http://www.pcgameshardware.de/aid,883969/GK110-Big-Kepler-mti-bis-zu-2880-ALUs-auf-GTC-2012-vorgestellt/Grafikkarte/News/
Die 15 SMX und 2880SPs sind wohl bestätigt wurden.
edit: Heise berichtet es auch: http://www.heise.de/newsticker/meldung/GTC-2012-GK110-Grafikchip-hat-bis-zu-2880-Shader-Kerne-1576464.html

Laut B3D-Analyse könnten es wohl weiterhin 16 TMUs je SMX sein: 240 TMUs insgesamt.

Hugo78
2012-05-15, 23:48:32
SP/DP liegt dann bei 3:1?!

Coda
2012-05-15, 23:58:06
Wieso 3:1?

AnarchX
2012-05-16, 00:02:15
Weil man sonst auch einen Faktor 4 oder mehr gegenüber der M2090 bewerben könnte?


the Tesla K20 delivers 3x the double precisionperformance compared to the previous generation Fermi-based Tesla M2090,in the same power envelope.

1Based on DGEMM performance: Tesla M2090 (Fermi) = 330 gigaflops, Tesla K20 (expected) > 1000 gigaflops
http://www.nvidia.com/content/tesla/pdf/NV_DS_TeslaK_Family_May_2012_LR.pdf

z.B. 1164 GFLOPs mit 2496SPs (13 SMX) @ 700MHz

Skysnake
2012-05-16, 00:39:11
Für Fermi Teslas gibts doch auch DGEMM mit 362GFlop/s, also auch auf ner M2090, soweit ich das richtig sehe.

http://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&ved=0CFYQFjAA&url=http%3A%2F%2Fasg.ict.ac.cn%2Fprojects%2Fdgemm%2Fsc11_dgemm.pdf&ei=U9qyT6GIJ5DBswad1JiaBA&usg=AFQjCNF8rTNBdulJN09HhsRqdNk856nCHQ&sig2=X7ZIuR97l9q6O0Orn9acUw

Aber gut, wollen wir mal nicht kleinlich sein. Die 330 sind meines Wissens mehr, als Sie Anfangs in cuBLAS erreicht haben.

AnarchX
2012-05-16, 00:49:29
Im Endeffekt könnte die DP-Berechnung ähnlich wie bei GF110/100 sein.

Jeweils 2 ALUs berechnen 32 DP-FMAs, während die dritte/super-skalare ALU, die es bei GF110/100 nicht gab, außen vor bleibt.

Damit erhält man DP mit 1/3 SP.

DavChrFen
2012-05-16, 01:02:36
Die große Frage ist nun: Kommt Tesla vor oder nach GForce raus? Wenn man wie bisher von 1/4 Jahr vorher für GForce rechnet, dann kommt das wegen dem Tape-Out-Termin+6Monate nicht hin. Auf der anderen Seite kann ich mir noch nicht vorstellen, dass Tesla vor GForce rauskommt.

Und das mit 1/3 DP glaub ich auch nicht.

Hugo78
2012-05-16, 01:30:22
Wieso 3:1?

Ich bin hier nur vom K10 ausgegangen und das K20 mit einem Chip ja noch etwas weniger hat.
K10 (2*GK104) kommt ja mit 4580 GFlops SP, GK110 wird das selbe Powerbudget halten, aber an Hand der ALU Anzahl etwas weniger SP Flops aufweisen (15/16 = 4.293,75 von 4580).

Jetzt wäre 4:1 erstmal schick und stimmig (1073 GFlops in DGEMM), wenn da nicht Intel am Horizont wäre.
Intel meinte das sie 1,3 TFlops von Kepler in Q3 erwarten, sie aber damit kein Stress haben weils eh nur Peakwerte wären und ihr Larrabee 2012 da konstantere Werte liefern werde.

Ich wiederum glaube nicht das NV sich hier die Butter vom Brot nehmen lassen wird... zumal ja auch eigentlich 665 GFlops als DP Angabe für Tesla M2090 im Raum stehen und 3x dann fast 2 TFlops wären.

4:1 klingt mir da irgendwie zuwenig.

mfi
2012-05-16, 04:20:11
GeForce-Karten mit GK110 sollen erst 2013 kommen. Hat Sumit Gupta von Nvidia im Gespräch bestätigt.

siehe letzter Absatz: www.heise.de/newsticker/meldung/GTC-2012-GK110-Grafikchip-hat-bis-zu-2880-Shader-Kerne-1576464.html

dildo4u
2012-05-16, 04:24:07
Logisch die haben schon massive Probleme den kleinen Chip zu liefern,680 sind immer noch dünn gesät.

Massig "kaputte" 670 kaum 680.

http://geizhals.at/de/?cat=gra16_512&bpmax=&asuch=&v=l&plz=&dist=&xf=1439_GTX+680~132_2048~1439_GTX+670&sort=eintr

Sir Integral Wingate Hellsing
2012-05-16, 07:53:55
GeForce-Karten mit GK110 sollen erst 2013 kommen. Hat Sumit Gupta von Nvidia im Gespräch bestätigt.

siehe letzter Absatz: www.heise.de/newsticker/meldung/GTC-2012-GK110-Grafikchip-hat-bis-zu-2880-Shader-Kerne-1576464.html

Spieler müssen sich derweil noch gedulden: Denn erst 2013 sollen erste GeForce-Karten mit GK110-Grafikchips ausgeliefert werden. Bis dahin dürfte die GeForce GTX 680 Nvidias schnellste Single-GPU-Spielerkarte bleiben – außer die Kalifornier bringen noch eine Version mit erhöhten Taktfrequenzen heraus.

Da hat Nvidia wohl den Mund zu voll genommen. Anstatt dieses Jahr AMD abzuhängen, wie es von einigen hier angesagt wurde, bleibt es bei einem halbgaren Vorsprung bei geringer Verfügbarkeit und höheren Preisen. :rolleyes:

boxleitnerb
2012-05-16, 08:02:03
Bin enttäuscht, aber irgendwie ist es nur logisch. Schlechte Yields bei so einem Monsterchip werden in Zukunft wohl dafür sorgen, dass der immer im zweiten Jahr so eines Prozesses erscheint.

robbitop
2012-05-16, 08:37:47
Mehr ist doch gar nicht nötig als aktuell. Intel könnte AMD auch übel abhängen seit Jahren. Und was hat man davon? Gar nichts? Das kostet nur Margen. Das hebt man sich lieber auf. Nun kann man einen Winzling wie GK104 zu saftigen Preisen verkaufen. Tolle Situation. Sie sind in keinem Zugzwang.

384 bit SI finde ich etwas wenig...

boxleitnerb
2012-05-16, 08:41:37
Ich meinte ja aus Kundensicht. Dass es für Nvidia toll ist, ist unzweifelhaft.

Skysnake
2012-05-16, 08:46:04
Viel zu wenig meiner Meinung nach. Das ist sicher ein Rückschritt von GF110 was Flops/Byte_Bandbreite anbelangt.

Man könnte jetzt sagen:" Ja aber für solche Anwendungen gibt es ja K10"
Stimmt, wenn K10 nicht so ne verkorkste GPGPU-Architektur hätte...

Was meint ihr, sind die äußeren Strukturen bei den SMs der L2 Cache? Wäre verdammt viel, würde aber das "schmale" SI ausgleichen und auch ansonsten dem Ding gut tun. Aber so recht dran glauben kann ich nicht. Man sieht eigentlich keine Strukturen die für einen Cache sprechen.

AnarchX
2012-05-16, 08:52:43
Wohl fast 36 Monate zwischen zwei High-End-GPUs ist schon relativ übel.
Zwischen GT200 und GF100 lagen nur 21 Monate, ähnlich wie zwischen G80 und GT200.

Da ist man wohl wirklich an einem kritischen Punkt angekommen, denn es mit neuen Technologien (Interposer, Stacking, HMCs,...) zu überwinden heißt.

Skysnake
2012-05-16, 09:02:08
Definitiv.

Aber es traut sich ja keiner den Schritt nach vorne zu machen :(

Ein gutes hat es aber. Ich hoffe die "Boah alter! AMD ist schuld an den Preisen, wenn die nicht so gefailed hätten, hätten wir heute GK100!!!!111einself! Boah alter!" verstummen nun endgültig...

Für AMD natürlich auch keine schlechte Situation. Es bleibt wirklich genug Zeit, um sich mit dem Tahiti Nachfolger gegen GK110 zu positionieren. Klar, das Ding ist schon so gut wie fertig, aber man muss eben nicht mehr mit Tahiti XT gegen ihn antreten. Ich hoffe ja wirklich, das sich AMD traut auch mal wieder einen großen Chip zu fertigen. DAS könnte dann wirklich ein sehr interessanter Schlagabtausch werden

Auf der anderen Seite muss AMD mit ihren FirePro nun gewaltig in die Pushen kommen! Das nVidia eine Tesla-Karte auf Kepler Basis vor AMDs neuer FirePro vorstellt, hat wohl niemand erwartet. Hier ist AMD wirklich unter zugzwang. Es ist zwar nur K10, aber einige werden auch das Ding nutzen, und für GK110 ist nun auch Licht am Ende des Tunnels zu sehen. AMD hat hier eindeutig versagt, diese gewaltige Chance für sich zu nutzen. Schade eigentlich... Es hätte dem Markt gut getan.

Botcruscher
2012-05-16, 09:28:10
Das ganze Paket wirkt irgendwie langweilig. Die unendliche Verzögerung ist dann noch das I-Tüpfelchen. Positiv ist da eigentlich nur noch, dass man die total überzogenen Preise ignorieren kann. Wirklich mehr Leistung gibt es ja momentan eh nicht. Ende 2012 gibt es dann wieder Futter von beiden Herstellern.

deekey777
2012-05-16, 09:53:49
Ich bin hier nur vom K10 ausgegangen und das K20 mit einem Chip ja noch etwas weniger hat.
K10 (2*GK104) kommt ja mit 4580 GFlops SP, GK110 wird das selbe Powerbudget halten, aber an Hand der ALU Anzahl etwas weniger SP Flops aufweisen (15/16 = 4.293,75 von 4580).

Jetzt wäre 4:1 erstmal schick und stimmig (1073 GFlops in DGEMM), wenn da nicht Intel am Horizont wäre.
Intel meinte das sie 1,3 TFlops von Kepler in Q3 erwarten, sie aber damit kein Stress haben weils eh nur Peakwerte wären und ihr Larrabee 2012 da konstantere Werte liefern werde.

Ich wiederum glaube nicht das NV sich hier die Butter vom Brot nehmen lassen wird... zumal ja auch eigentlich 665 GFlops als DP Angabe für Tesla M2090 im Raum stehen und 3x dann fast 2 TFlops wären.

4:1 klingt mir da irgendwie zuwenig.
Genauer gesagt:
Supercomputer 2011: CPU mit "Many Integrated Cores" knackt 1 TFlops (http://www.heise.de/newsticker/meldung/Supercomputer-2011-CPU-mit-Many-Integrated-Cores-knackt-1-TFlops-1379625.html)
Knights Corner wird im neuen 22-nm-Prozess gefertigt; er dürfte in etwa gleichzeitig zu Nvidias Kepler-Version für HPC im dritten Quartal 2012 herauskommen. Kepler soll bei 1,3 Teraflops im DGEMM liegen. Bei den GPUs hängt die Performance aber sehr stark von der Matrixgröße ab, Intel ließ die Matrizen über verschiedene Blockgrößen laufen, um die "Unempfindlichkeit" von Knights Corner zu demonstrieren: Der Zeiger schwankte nur ein bisschen, blieb aber stets bei über 1 TFlops.

robbitop
2012-05-16, 09:54:10
IMO gut - ein Jahr das man nicht aufrüsten muss. (unter Faktor 2 aufrüsten finde ich sinnlos)

Dural
2012-05-16, 09:55:34
sooo schlimm ist es ja jetzt nicht wirklich, tesla wohl mehr oder weniger im zeitplan (was möglich ist) und die GeForce produkte benötigt NV dieses Jahr einfach (noch) nicht, deswegen verschiebt man die nach hinten.

und mal ehrlich, wer würde im Q2 anfang Q3 ein GK110 GeForce für über 1000.- Euro kaufen?!? zudem NV im Q3 / Q4 für die Chips 4000.- Doller und mehr bekommt... ;)


das einzige was zum nachdenken bewegen sollte ist die immer komplexere fertigung und es wird immer wie schlimmer!

AnarchX
2012-05-16, 09:58:50
AMDs 365mm² GPU mit 384-Bit ist mittlerweile schon unter 400€, die Tendenz für Q3 sollte wohl weiter fallend sein.
>1000€ dürfte man da wohl nur schwer ausrufen können, für eine Karte die vielleicht ~50% schneller ist.

robbitop
2012-05-16, 09:59:48
Aus Kundensicht wäre es zu verstehen. GK110 würde im Herbst als nächste High End Karte zu normalen High End Preisen kommen und GK104 würde in den Performancebereich rutschen, wo er hingehört. Aus Kundensicht ist das was NV dieses Jahr macht sehr unschön im Vergleich zu den Vorjahren. Man verkauft uns sozusagen eine GTX560 als 580 (Analogie zum letzten Jahr).

Dural
2012-05-16, 10:13:58
AMDs 365mm² GPU mit 384-Bit ist mittlerweile schon unter 400€, die Tendenz für Q3 sollte wohl weiter fallend sein.
>1000€ dürfte man da wohl nur schwer ausrufen können, für eine Karte die vielleicht ~50% schneller ist.

Das ist mir schon klar, aber NV müsste für die handvoll chips derzeit sicher so viel verlangen. wie schon gesagt es ist die logische entscheidung die geforce produkte nicht so schnell zu bringen.

aber ja ist aus kunden sicht extrem schade, der druck seitens AMD fehlt halt auch komplett :rolleyes:

Mancko
2012-05-16, 10:17:04
AMDs 365mm² GPU mit 384-Bit ist mittlerweile schon unter 400€, die Tendenz für Q3 sollte wohl weiter fallend sein.
>1000€ dürfte man da wohl nur schwer ausrufen können, für eine Karte die vielleicht ~50% schneller ist.

1000 Euro halte ich auch für zu viel aber 600 Euro oder drüber sind auf jeden Fall drinn. Im High End Enthusiast Segment wird ja grundsätzlich nicht proportional zum Leistungszuwachs bezahlt sondern eben überproportional. Nvidia's Vorteil gegen die HD7970 ist halt, das sie die bessere Gamerkarte bei geringeren Kosten haben. Das trifft auch auf die 670 zu - dort aber wohl noch deutlicher (siehe PCB).

SamLombardo
2012-05-16, 10:29:29
IMO gut - ein Jahr das man nicht aufrüsten muss. (unter Faktor 2 aufrüsten finde ich sinnlos)
Naja, die GTX 680 liegt ca. 90 Prozent (http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-680/12/#abschnitt_leistung_mit_aaaf) vor der GTX 470 (als Vergleich 560ti) Und die OC Modelle der 670 liegen gleichauf mit der 680. Insofern hättest Du im Moment für um 380€ Fast eine Verdoppelung. Gar nicht so schlecht finde ich;)

Gruß Sam

robbitop
2012-05-16, 11:14:44
Ja aber nicht ganz. Außerdem lässt sich meine 470 prozentual wesentlich mehr übertakten als die 670/680. :)

Ailuros
2012-05-16, 11:26:54
Carsten von der GTC: http://www.pcgameshardware.de/aid,883969/GK110-Big-Kepler-mti-bis-zu-2880-ALUs-auf-GTC-2012-vorgestellt/Grafikkarte/News/
Die 15 SMX und 2880SPs sind wohl bestätigt wurden.
edit: Heise berichtet es auch: http://www.heise.de/newsticker/meldung/GTC-2012-GK110-Grafikchip-hat-bis-zu-2880-Shader-Kerne-1576464.html

Laut B3D-Analyse könnten es wohl weiterhin 16 TMUs je SMX sein: 240 TMUs insgesamt.

Irgend etwas stimmt hier nicht; das Ding hat 6 setup engines (6 GPCs) und 15SMXs? Selbst 16 waere eine ziemlich merkwuerdige Anzahl.

robbitop
2012-05-16, 11:33:53
Hast du also eher 18 oder 12 erwartet?

AnarchX
2012-05-16, 11:35:11
Sind eben einige GPCs unbalanciert, wie schon bei aktuellen Salvage-Parts.
Oder für 3D-Berechungen stehen nur 12 SMX zur Verfügung und man kompensiert hier mit einem höheren Takt (~1GHz statt ~800MHz mit 15 SMX), welcher der Geometrie-Leistung zu Gute kommt.


Selbst wenn Rohleistung und Bandbreite bei der GeForce GK110 nur 50% höher liegen als bei der GTX 680, könnten bessere Caches und höhere Instruktionsraten, eine Ergebnis jenseits der 50% ermöglichen.

Ailuros
2012-05-16, 11:38:51
Hast du also eher 18 oder 12 erwartet?

Nein. Die originale Meldung war deutlich fuer 6 GPCs, 4 SMXs (4*32) /SMX.

AnarchX
2012-05-16, 11:41:21
Da hat man wohl nun ein weiteres Leck geschlossen. ;D

Spasstiger
2012-05-16, 11:42:44
Irgend etwas stimmt hier nicht; das Ding hat 6 setup engines (6 GPCs) und 15SMXs?
Auf dem Dieshot sieht es nach 5 identischen Baugruppen aus. Also würde ich in allen Metriken Vielfache von 5 erwarten. 15 SMX passen dazu, 5 GPCs wären konsequent. Innerhalb der fünf Blöcke kann man jeweils eine Dreierstruktur erkennen. 5*3=15.

AnarchX
2012-05-16, 11:43:41
Wobei man hier 6 Setup-Pipelines/GPCs sieht: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9300434#post9300434

Spasstiger
2012-05-16, 11:48:23
Wobei man hier 6 Setup-Pipelines/GPCs sieht: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9300434#post9300434
Ok, das hatte ich noch nicht gesehen. Vielleicht sind die GPCs auch gar nicht so starr verdrahtet wie es im Blockschaltbild aussieht, die Vermutung kam ja schon bei Fermi auf. Geht es nicht aus irgendeinem CUDA-Guide hervor, wie die SMs/SMXs von den Setup-Pipelines gefüttert werden?

robbitop
2012-05-16, 11:59:10
Das wirft die Vermutung auf, dass beides voneinander entkoppelt ist.

Coda
2012-05-16, 12:05:17
Ich geh eh schon länger davon aus, dass der Tesselator nur in den Block-Diagrammen in die SMs eingezeichnet wird.

AnarchX
2012-05-16, 12:15:17
Die Geometrie-Leistung skaliert aber eindeutig mit der Zahl der aktiven SMs.

dargo
2012-05-16, 12:17:51
Ich meinte ja aus Kundensicht. Dass es für Nvidia toll ist, ist unzweifelhaft.
Ich finde das immer witzig wie hier die hohen Preise für die Hersteller gefeiert werden. Was macht euch so sicher, dass zu diesen hohen Preisen auch entsprechend viele Grafikkarten abgesetzt werden? Hinzu kommt, dass es für viele noch nicht mal Gründe gibt von der letzten Generation upzugraden. Wenn NV und AMD wenig Karten absetzen kann das bei dieser Generation auch nach hinten losgehen. ;)

Mancko
2012-05-16, 12:30:48
Ich finde das immer witzig wie hier die hohen Preise für die Hersteller gefeiert werden. Was macht euch so sicher, dass zu diesen hohen Preisen auch entsprechend viele Grafikkarten abgesetzt werden? Hinzu kommt, dass es für viele noch nicht mal Gründe gibt von der letzten Generation upzugraden. Wenn NV und AMD wenig Karten absetzen kann das bei dieser Generation auch nach hinten losgehen. ;)

Davon ist derzeit nicht auszugehen. Die Kapazitäten bei TSMC sind einfach viel zu beschränkt um hier große Lagerhaltung entstehen zu lassen. Und Gründe upzugraden gibt es genug - natürlich nicht für GTX580 User.

Telema
2012-05-16, 12:47:03
Hoffentlich kommt die Geforce GTX 685 nur mit Vollausbau. Sonst ist das Chaos wieder perfekt

dargo
2012-05-16, 12:58:17
Davon ist derzeit nicht auszugehen. Die Kapazitäten bei TSMC sind einfach viel zu beschränkt um hier große Lagerhaltung entstehen zu lassen.
Ich meine damit keine Lagerhaltung. Gäbe es genug Karten wären selbstverständlich die Preise nicht so gesalzen. Ich meine ob beide Hersteller die Entwicklungskosten so bald wieder reinbekommen.

Ailuros
2012-05-16, 13:39:41
Ok, das hatte ich noch nicht gesehen. Vielleicht sind die GPCs auch gar nicht so starr verdrahtet wie es im Blockschaltbild aussieht, die Vermutung kam ja schon bei Fermi auf. Geht es nicht aus irgendeinem CUDA-Guide hervor, wie die SMs/SMXs von den Setup-Pipelines gefüttert werden?

Keine Ahnung; es kann auch durchaus sein dass die GPCs nur eine virtuelle Blockbeschreibung seitens NV sind (wie Gipsel schon seit einer Ewigkeit vermutet).

GK104=

4 GPCs = 4 raster/trisetups = 8 pixels/clock/raster (passt auch schoen zu den 32 ROPs)

2 SMXs/GPC ergo jeglicher SMX kann theoretisch 4 pixels/clock bearbeiten

GK110 =

6 GPCs = 6 raster/trisetups = 8 pixels/clock/raster (pass auch wieder schoen zu den 48 ROPs)

....und hier genau komm ich zum Ende meiner Laien-Weissheit :confused:

AffenJack
2012-05-17, 08:32:06
Kepler whitepaper:
http://www.nvidia.com/content/PDF/kepler/NVIDIA-Kepler-GK110-Architecture-Whitepaper.pdf

Was mich hierran völlig verwirrt ist das DP, schon GK104 soll 192 Sp + 8 DP Shader inner SMX haben, GK110 sollens nun 192 SP + 64 DP sein. Also 3:1 DP-Rate, aber in dedizierten einheiten? Wieso sollte man sowas machen?

AnarchX
2012-05-17, 09:17:03
Immerhin die 240 TMUs bestätigt.

Bei den DP-Einheiten stellt sich die Frage, ob das nur eine schematische Darstellung ist oder ob da wirklich physikalische Einheiten verbaut sind.
Bei letzterem wäre es doch sinnvoll diese auch unter SP zu nutzen, z.B. über einen weiteren Dispatch Port und supers-skalarer Ausführung.

Coda
2012-05-17, 09:28:56
Ich geh davon aus, dass es nur schematisch ist.

Ailuros
2012-05-17, 09:37:20
Kepler whitepaper:
http://www.nvidia.com/content/PDF/kepler/NVIDIA-Kepler-GK110-Architecture-Whitepaper.pdf

Was mich hierran völlig verwirrt ist das DP, schon GK104 soll 192 Sp + 8 DP Shader inner SMX haben, GK110 sollens nun 192 SP + 64 DP sein. Also 3:1 DP-Rate, aber in dedizierten einheiten? Wieso sollte man sowas machen?

Ich bin mir immer noch nicht sicher ob es auf GK104 wirklich 192+8 sind. Anand behauptet es und wenn ich mich nicht irre behauptet Damien genau das Gegenteil.

Ich hab das whitepaper nur schnell durchgekaemmt aber es sieht wohl danach aus dass die 6 Bloecke die bisher als "setup engines" beschrieben wurden eher die ROP partitions + L2 sind.

Wenn ich mich jetzt nicht irre:

[2*(3*32)] SPs / SMX
[2*(2*4)] TMUs / SMX
3 SMXs / GPC
5 GPCs
48 ROPs

Wenn's stimmen sollte kommen von den rasters "nur" 40 pixels/clock insgesamt; duerfte kein Beinbruch sein aber die insgesamte Konstellation ist von hinten bis vorne mehr als nur merkwuerdig.

Spasstiger
2012-05-17, 10:24:22
Ich geh davon aus, dass es nur schematisch ist.
Ich gehe auch davon aus, dass man 2/3 des SP-Durchsatzes mit den DP-Einheiten bereitstellt. Alles andere wäre nicht gerade flächeneffizient.
Wäre es von den Dispatchern her möglich, pro SMX 192 SP-Ops und 64 DP-Ops gleichzeitig durchzuführen?

Ailuros
2012-05-17, 11:54:41
Ich gehe auch davon aus, dass man 2/3 des SP-Durchsatzes mit den DP-Einheiten bereitstellt. Alles andere wäre nicht gerade flächeneffizient.
Wäre es von den Dispatchern her möglich, pro SMX 192 SP-Ops und 64 DP-Ops gleichzeitig durchzuführen?

Ich will wetten dass wenn ein 15 SMX Kepler/Tesla ueber ca. 4 TFLOPs SP theoretisch maximal faehig ist, dass bei hypothetischen gleichzeitigen DP und SP OPs nur maximal 1.3+ DP und 2.6+ SP herauskommt.

Spasstiger
2012-05-17, 11:59:19
Ich will wetten dass wenn ein 15 SMX Kepler/Tesla ueber ca. 4 TFLOPs SP theoretisch maximal faehig ist, dass bei hypothetischen gleichzeitigen DP und SP OPs nur maximal 1.3+ DP und 2.6+ SP herauskommt.
Nicht eher 1,3 TFlops für Beides? Und denkst du, dass Tesla so niedrig getaktet sein wird? Wären ja nur 680+ MHz.

Skysnake
2012-05-17, 12:06:39
Ich will wetten dass wenn ein 15 SMX Kepler/Tesla ueber ca. 4 TFLOPs SP theoretisch maximal faehig ist, dass bei hypothetischen gleichzeitigen DP und SP OPs nur maximal 1.3+ DP und 2.6+ SP herauskommt.
Soweit ich das verstanden habe, sind bei voller DP-Auslastung alle Ports belegt, und du kannst keine SP-Operationen mehr ausführen.

Man soll wohl nur dynamisch SP und DP Operationen ausführen können, was auch immer das bedeuten mag. Ich versteh das so, wie bei den Superskalaren CPUs, wo man eben nicht alle Pipelines gleichzeitig verwenden kann, aber sehr viele verschiedene Kombinationen daraus.

Ailuros
2012-05-17, 12:14:17
Nicht eher 1,3 TFlops für Beides? Und denkst du, dass Tesla so niedrig getaktet sein wird? Wären ja nur 680+ MHz.

Ich hab mit 700MHz gerechnet fuer meine Milchmaedchen-rechnung. Ich hab fuer desktop nie mehr als 800-850MHz erwartet, ergo wo wuerdest Du den Takt einer Tesla Schleuder mit 225-240W TDP genau anlegen?

Soweit ich das verstanden habe, sind bei voller DP-Auslastung alle Ports belegt, und du kannst keine SP-Operationen mehr ausführen.

Man soll wohl nur dynamisch SP und DP Operationen ausführen können, was auch immer das bedeuten mag. Ich versteh das so, wie bei den Superskalaren CPUs, wo man eben nicht alle Pipelines gleichzeitig verwenden kann, aber sehr viele verschiedene Kombinationen daraus.

Ich erwaehnte mit Absicht eine hypothetische DP/SP Kombination weil ich so oder so nicht erwarten wuerde dass es so moeglich ist. Anders waere eine volle Kombination von DP/SP moeglich und es waeren 192 SP + 64 DP / SMX physikalische Einheiten dann muessten theoretisch bei 700MHz 4.032 TFLOPs SP und 1.344 TFLOPs DP auf Papier herauskommen. Mir klingt das Ganze nach verdrehtem Marketing-Geschwafel und ich glaube eher dass ganz einfach 4 SIMD32 in jeglichem SMX sowohl ueber FP32 als auch ueber FP64 faehig sind.

Spasstiger
2012-05-17, 12:19:24
Die 800-850 hätte ich jetzt für Tesla angesetzt. Vielleicht wird das ja der Boost Takt, falls es den auch bei Tesla gibt.

Ailuros
2012-05-17, 12:23:16
Die 800-850 hätte ich jetzt für Tesla angesetzt. Vielleicht wird das ja der Boost Takt, falls es den auch bei Tesla gibt.

7.1 Mrd. Transistoren und ein >550mm2 die? Hilfe :eek:

***edit: nebenbei TeslaK10 (2*GK104) = 225W TDP, core clock 745MHz, memory clock 1250MHz *hust*

Skysnake
2012-05-17, 12:40:13
Ich erwaehnte mit Absicht eine hypothetische DP/SP Kombination weil ich so oder so nicht erwarten wuerde dass es so moeglich ist. Anders waere eine volle Kombination von DP/SP moeglich und es waeren 192 SP + 64 DP / SMX physikalische Einheiten dann muessten theoretisch bei 700MHz 4.032 TFLOPs SP und 1.344 TFLOPs DP auf Papier herauskommen. Mir klingt das Ganze nach verdrehtem Marketing-Geschwafel und ich glaube eher dass ganz einfach 4 SIMD32 in jeglichem SMX sowohl ueber FP32 als auch ueber FP64 faehig sind.
Ich weiß, dass du das weißt, und damit nur zeigen wolltest, das man wohl keine dedizierten DP-Units hat.

Das wollte ich damit nur unterstreichen, das es im Prinzip auch gar keine Rolle spielt, weil es für dne Programmierer eben genau so aussieht, als ob man keine dedizierten Units hätte. Daher spielst eigentlich keine Rolle und ist nur Implementierungsspezifisch. Ich tendiere aber auch dazu, nicht an die dedizierten Units zu glauben, wobei es eh schwer zu sagen ist, wo denn eine Unit liegt usw. Man hat ja die ganzen Placement- und Routingtools usw.

Mehr als 750 MHz würde ich für KG110 auch nicht erwarten. Man spart einiges an Energie, weil man weniger DDRAM Chips hat, ein schmaleres SI im Vergleich zu K10 und auch weniger Bandbreite. Alles was kräftig Strom frisst, wenn man es ausnutzt.

Ailuros
2012-05-17, 13:19:57
Mehr als 750 MHz würde ich für KG110 auch nicht erwarten. Man spart einiges an Energie, weil man weniger DDRAM Chips hat, ein schmaleres SI im Vergleich zu K10 und auch weniger Bandbreite. Alles was kräftig Strom frisst, wenn man es ausnutzt.

Ich wuerde fuer K20 zumindest einen 1.5GHz Speichertakt erwarten. Framebuffer ist ein Fragezeichen. Bei 6GB geht es noch; bei mehr haut es nochmal etwas auf den Stromverbrauch rauf.

Spasstiger
2012-05-17, 13:22:46
Ich hab übrigens auf den Dieshots von GK104 und GK110 mal versucht, die Speicherinterfaces auszumessen. Unter der Annahme, dass bei GK104 und GK110 die Speicherinterfaces jeweils gleiche Dieflächen belegen, komme ich auf eine gesamte Diesize des GK110 von 530+/20 mm². Also genau in dem Bereich, in dem auch GF110 liegt.

AwesomeSauce
2012-05-17, 13:50:32
http://www.abload.de/img/gk110smx_sm7zdpz.png (http://www.abload.de/image.php?img=gk110smx_sm7zdpz.png)

Wo sind die PolymorphEngines? :confused:

Ganze GTC-Präsentation: http://www.youtube.com/playlist?list=PLE17ED9CB13A00DFD&feature=iv&annotation_id=annotation_1473&src_vid=8FPQTxOTW10

deekey777
2012-05-17, 14:12:14
http://www.abload.de/img/gk110smx_sm7zdpz.png (http://www.abload.de/image.php?img=gk110smx_sm7zdpz.png)

Wo sind die PolymorphEngines? :confused:

Ganze GTC-Präsentation: http://www.youtube.com/playlist?list=PLE17ED9CB13A00DFD&feature=iv&annotation_id=annotation_1473&src_vid=8FPQTxOTW10
Genau dort, wo sie bei der GF100-Präsenation waren (http://www.nvidia.com/content/PDF/fermi_white_papers/NVIDIA_Fermi_Compute_Architecture_Whitepaper.pdf).

Ailuros
2012-05-17, 15:16:44
Ich hab übrigens auf den Dieshots von GK104 und GK110 mal versucht, die Speicherinterfaces auszumessen. Unter der Annahme, dass bei GK104 und GK110 die Speicherinterfaces jeweils gleiche Dieflächen belegen, komme ich auf eine gesamte Diesize des GK110 von 530+/20 mm². Also genau in dem Bereich, in dem auch GF110 liegt.

~550mm2 nach dem was mir vermittelt wurde. Wo anders hiess es "kleiner als GT200", ergo haben sie auf jeden Fall den Rekord der die-Groesse diesmal nicht brechen koennen ;)

mironicus
2012-05-17, 18:10:36
GK110 wird bei Games langsamer sein als die GTX 690, oder?

Skysnake
2012-05-17, 18:13:07
Bei gleicher TDP?

Ich denke schon.

AnarchX
2012-05-17, 18:15:12
Kommt zwar darauf an, wie gut GK110 seine Rohleistung ausnutzt, aber die GTX 690 wird wohl etwas schneller bleiben.

Aber 2013 dürfte man wohl eher über eine GTX 790 nachdenken könne. :D

aufkrawall
2012-05-17, 18:43:41
Aber 2013 dürfte man wohl eher über eine GTX 790 nachdenken könne. :D
Vielleicht eine Doppel-PCB Variante mit teildeaktiviertem GK110?

AnarchX
2012-05-17, 18:52:23
Mit einem reifen 28nm Prozess 2013 und vielleicht wieder 1000€ könnte man sicherlich etwas ASUS Mars artiges bauen.

Spasstiger
2012-05-17, 18:54:50
So wie die GTX 590 möglich war sollte auch eine GTX 790 möglich sein. Eine GTX 580 geht in der Spitze auch auf 300 Watt.

Hübie
2012-05-18, 01:15:49
Äh. Die GTX 580 sprengt gerne mal die 300 Watt. Ich hatte peak 515 Watt mit meinem System! ;D So wie es aussieht wird GK110 etwa 10% overall über der GTX 590 stehen. Also GTX 680 + 20-25%. Mit 700€ liege ich sicher auch net ganz verkehrt.
Seit Tahiti, der erbärmlichen Marktlage und nun auch Kepler ist bei mir die Luft raus. :( Ich glaub ich kauf mir lieber ne neue Konsole.

Nightspider
2012-05-18, 01:50:19
Äh. Die GTX 580 sprengt gerne mal die 300 Watt. Ich hatte peak 515 Watt mit meinem System! ;D So wie es aussieht wird GK110 etwa 10% overall über der GTX 590 stehen. Also GTX 680 + 20-25%. Mit 700€ liege ich sicher auch net ganz verkehrt.
Seit Tahiti, der erbärmlichen Marktlage und nun auch Kepler ist bei mir die Luft raus. :( Ich glaub ich kauf mir lieber ne neue Konsole.

Du glaubst GK110 ist nur 25% schneller als GK104?

Bei fast doppelt so großem Chip? Im Ernst? :freak:

Ph0b0ss
2012-05-18, 13:37:16
Ausgehend von einem 384bit Speicherinterface mit ebenfalls 1500Mhz Speichertakt wird der GK110 diese Bandbreite wohl ziemlich genau ausnutzen und somit etwa ~50% schneller als eine GTX 680 sein. Dazu passen würden bei der Topkarte dann 14 aktive Cluster mit 2688 Einheiten auf 850-900Mhz Basistakt mit stromsparenden ~1V maximum um unter 300W zu bleiben.

Nightspider
2012-05-18, 14:53:47
Wenn bei der GTX680 vor allem die Bandbreite bei sehr hohen Auflösungen, SGSAA Modi usw. ausbremsen soll, sollte die Bandbreite beim GK110 doch auch erst bei noch viel viel extremeren Auflösungen die Bandbreite limiteren.

Gut möglich das im relevanten Szenario Bereich die Bandbreite gar nicht limitieren wird beim GK110 und dadurch auch gut mehr als 50% drin sind, die eben nicht durch die Bandbreite ausgebremst werden.

Vielleicht geht der GK110 gar sogar etwas besser mit der Speicherbandbreite um. Stichwort: verbesserter Speichercontroller.

AnarchX
2012-05-18, 15:04:05
GK110 hat 3-mal soviel L2-Cache wie GFK104. Vielleicht gibt es Anfang 2013 auch 7Gbps Speicher.

Ailuros
2012-05-18, 15:25:13
Ausgehend von einem 384bit Speicherinterface mit ebenfalls 1500Mhz Speichertakt wird der GK110 diese Bandbreite wohl ziemlich genau ausnutzen und somit etwa ~50% schneller als eine GTX 680 sein. Dazu passen würden bei der Topkarte dann 14 aktive Cluster mit 2688 Einheiten auf 850-900Mhz Basistakt mit stromsparenden ~1V maximum um unter 300W zu bleiben.

Wie die zwei Herren von NV im Interview oben erwaehnen, wo immer die Bandbreite limitiert wird GK110 tatsaechlich um ca. 50% schneller sein als GK104. Bleibt nur noch die Frage wo genau auf GK104 die Bandbreite in heutigen Applikationen nicht limitiert. Die 50% (Durchschnitt) duerften aber eher fuer den 15 SMX GK110 sein. Es klingt mir wahrscheinlicher dass NV die vollen GK110 eher fuer desktop projeziert.

aufkrawall
2012-05-18, 16:39:49
Bleibt nur noch die Frage wo genau auf GK104 die Bandbreite in heutigen Applikationen nicht limitiert.
Die PGHW hatte das getestet, mit 550 Mhz mehr Speichertakt sinds nur 5% - 15% Mehrleistung.
So doll limitiert der Speicher also auch wieder nicht, eigentlich nur bei Metro und Alan Wake mit AA.

N0Thing
2012-05-18, 19:20:48
Die PGHW hatte das getestet, mit 550 Mhz mehr Speichertakt sinds nur 5% - 15% Mehrleistung.
So doll limitiert der Speicher also auch wieder nicht, eigentlich nur bei Metro und Alan Wake mit AA.

Metro hat die PCGH ja auch getestet, selbst da bringen die 550MHz mehr Speichertakt (+18,5%) nur eine Mehrleistung von 9%.

Wenn man davon ausgeht, daß Nvidia den GK104 ursprünglich weniger schnell geplant hatte, gibt es etwas im Chip, das nicht mit dem Chiptakt skaliert, für die Performance aber wichtig ist?

Spasstiger
2012-05-18, 19:32:20
In dem Interview der c't mit Nvidia-Entwicklern spekulieren sogar die Entwickler selbst über eine mögliche Bandbreitenlimitierung und daraus resultierend 50% Mehrperformance gegenüber GK104:
c't: Wieviel schneller wird GK110 im Vergleich zum GK104 in der Praxis sein?

Alben: Wir haben die genauen Produkspezifikationen, etwa die endgültigen Taktfrequenzen, noch nicht veröffentlicht. Es kommt natürlich auf das jeweilige Programm an – die Frage ist also: limitiert die Anzahl der Funktionseinheiten oder das Speicherinterface? Limitiert letzteres, kann man wahrscheinlich mit einem Geschwindigkeitsgewinn von rund 50 Prozent rechnen. Rechenintensive Programme wie SGEMM dürften dagegen ganz gut mit der Zahl der Einheiten skalieren.

Quelle: http://www.heise.de/newsticker/meldung/GTC-2012-Die-GK110-Schoepfer-ueber-Performance-und-zukuenftige-Herausforderungen-1578605.html

Skysnake
2012-05-18, 19:47:49
WAT?????

SGEMM und Rechenintensiv? :ugly:

SGEMM hing schon bei GF1x0 am SI. Mit GK104 wirds nicht anders sein. Bei GK110 könnte sich das Blatt eventuell wieder drehen wegen dem großen L2, aber bei GK104 ganz sicher nicht...

Erst wenn du DGEMM betrachtest, limitiert bei GK104 die ALU-Leistung, aber die ist auch einfach verdammt grottig bei dem...

Felixxz2
2012-05-20, 14:48:07
Das heißt dann aber wohl, dass GK110 mindestens 50% schneller wird. Wenn das SI limitiert wird dieser Wert erreicht, wenn die Shader limitieren können es dann je nach Takt auch mal 60% sein. Natürlich nur wenn die Rohleistung sehr gut genutzt wird (SSAA, hohe Auflösungen etc.)

robbitop
2012-05-20, 14:56:26
Wenn die niedrigen Taktraten für das Geforce Produkt stimmen (< 800 MHz) wird ja schon ein ganzer Batzen vom Einheitenvorteil durch Taktnachteil wieder aufgefressen. :(

Felixxz2
2012-05-20, 15:03:42
Das hängt dann wohl ganz von der Fertigung bei TSMC ab. Wenn nVidia absichtlich niedriger taktet um die TDP gering zu halten, kann man das ja manuell wieder ändern.

50% mehr Rohleistung würde man aber auch schon mit ~780 MHz hinkriegen und die sind doch sehr realistisch.

AnarchX
2012-05-20, 15:09:45
Man wird wohl nicht auf GeForce Boost bei GK110 verzichten. Vielleicht gibt es dann auch schon eine verbesserte Implementierung, die auf der GPU basiert.

Skysnake
2012-05-20, 18:11:24
Davon ist aus zu gehen, ich würde mich aber nicht darauf verlassen. Kommt halt drauf an, wie die Boost Implementierung aussieht, und wie zufrieden man damit ist, bzw. ob man da überhaupt noch groß dran drehen kann, so dass es auch etwas bringt, und nicht am Ende wieder für mehr Verbrauch sorgt, wenn auch sicherlich in SEHR niedrigem Bereich.

boxleitnerb
2012-05-20, 19:30:44
Wenigstens hält Nvidia durch den Boost die TDP zur Abwechslung mal ein :freak:
Mit 300W TDP rechne ich eigentlich nicht. Die drei Preisfragen sind:

1. Welche TDP/TDPs (Dip-Schalter?) verpasst man GK110?
2. Wie effizient wird das Ding in Spielen im Vergleich zu GK104 (fps/W)
3. WENN die Effizienz ggü. GK104 deutlich nachlassen sollte, wie vermittelt man das dem Kunden? Insbesondere im Angesicht einer Produktreihe GTX 7xx, die wohl einen GK104 vs/GK114 beinhalten könnte, der in diesem Fall klar effizienter wäre.

AnarchX
2012-05-20, 19:35:53
Im Endeffekt wird auch vieles davon abhängen, was AMD Anfang 2013 präsentiert.

Dural
2012-05-21, 10:34:21
bis zu 900MHz halte ich für GK110 im Desktop für gut möglich, mit boost sogar mehr. zudem die fertigung sicher immer besser wird.

und überhaupt selbst die zwei GK104 auf der 690 laufen dank boost meistens über 1000MHz, wie so sollte den das bei nur einem stück silizium nicht auch so sein... zudem GK110 rein von den einheiten her nicht mal zwei GK104 entspricht.


TDP 250Watt

Knuddelbearli
2012-05-21, 14:35:41
weil der GK durch die ganzen GPGPU / CUDA funktionen ganz anders aufgebaut sein wird siehe Fermi da hat der xx4 Ableger auch deutlich höher getaktete als der xx0, und auch unter OC blieb das so war / ist also keine Verbrauchsgeschichte

Dural
2012-05-21, 14:47:31
wo gab es den grosse unterschide?

GTX560 zu GTX580 waren gerade mal 50MHz ;)


zudem die GTX680 dank boost über 1100MHz taktet, die von mir erwähnten 900MHz dürften wohl keine grossen probleme machen ;)

Ailuros
2012-05-22, 10:38:02
weil der GK durch die ganzen GPGPU / CUDA funktionen ganz anders aufgebaut sein wird siehe Fermi da hat der xx4 Ableger auch deutlich höher getaktete als der xx0, und auch unter OC blieb das so war / ist also keine Verbrauchsgeschichte

Fuer den desktop GK110 ist die finale Frequenz IMO der kleinste moegliche Kopfschmerz, im Vergleich zu wievielen aktiven SMXs der top dog wirklich haben wird. Ich nehme an dass eine 15 SMX Variante in anstaendigen Quantitaeten moeglich sein wird, aber garantiert ist es wohl nirgends.

Da der Stromverbrauch weniger wichtig ist als im HPC Markt (sie muessen sich nicht auf 225-240W TDP begrenzen), koennte es durchaus sein dass NV die 13 und 14 salvage parts primaer dort verkauft.

Ailuros
2012-05-25, 10:31:01
http://techreport.com/articles.x/22989/3

The GK110 won't reach the market until the fourth quarter of 2012, and multiple folks from Nvidia forthrightly admitted to us that those chips are already sold out through the end of 2012. All of those sales are to supercomputing clusters and the like, where each chip commands a higher price than it would aboard a video card. One gentleman seated in front of us at the GK110 deep-dive session mentioned in passing that he had 15,000 of the chips on order, which was his reason for attending.

Nur fuer die Herren die bezweifelten dass NV angeblich um die 20k GK110 fuer den ersten Schub braucht.

The Nvidia executives we talked with raised the possibility of a GK110-based GeForce being released this year only if necessary to counter some move by rival AMD. That almost certainly means that any GK110-based GeForce to hit the market in 2012 would come in extremely limited quantities.

Blah....ein semi paper launch interessieren wohl wenige IMHO.

Hugo78
2012-05-25, 12:27:08
2012 hat Paperlaunches endgültig Salonfähig gemacht und ich wette, AMD wird ihre GCN 2.0 Radeon noch vor Nvidias GK110 Geforce "launchen"
und alle werden glücklich darüber sein, dass sie "endlich" wissen woran sie sind, auch wenn man die Karte erst Wochen später kaufen kann.

Skysnake
2012-05-25, 12:48:57
http://techreport.com/articles.x/22989/3
Nur fuer die Herren die bezweifelten dass NV angeblich um die 20k GK110 fuer den ersten Schub braucht.

Naja, wie der Bericht schon sagt. Auf ein paar k Karten kommste allein mit einem Cluster. Je nachdem wie groß das Ding werden soll, braucht man halt auch entsprechend viele Karten. Ich hoffe nur, das nVidia die Lieferversprechen einhalten kann. Bei Fermi haben Sie viele schon enttäuscht, weil Sie ewig warten mussten.

Die Frage ist halt nur, wie viele neue Cluster auf GPUs setzen, und ob wegen der Wirtschaftskrise nicht doch kurzfristig das eine oder andere zusammengestrichen werden muss.

nVidia hat mit CUDA5 aber auch einige echt schicke Sachen gebracht. Ich kann mich darüber aber irgendwie nicht so recht freuen, einfach weil man wieder auf einen Propritären Standard setzt, und damit dann auf Gedeih und Verderben an einen Hersteller gebunden ist, und das widerstrebt mir einfach.

AMD hats ja aber nicht geschafft, die GCN FirePros endlich mal auf den Markt zu bringen... Da hätte man sicherlich den einen oder anderen Cluster von nVidia abluchsen können. Insbesondere wenn die GK110 wohl am Anfang nicht einfach zu bekommen sein werden. Aber nein.... Sie bekommen ja mal wieder nicht den Arsch hoch -.-

Hübie
2012-05-25, 14:18:03
Wohl oder Übel müssen wir die paperlaunches hinnehmen. Ich bleibe dabei. GeForce GTX 780 wird overall 25% vor GTX 680 liegen. Vllt. gehts dann mal auf +35% aber ein Wunder darf man nicht erwarten. Fraglich ist ja nun auch ob Sachen wie HyperQ und DynP Anwendungen finden.

Krass finde ich die Virtualisierungsgeschichten. Ich freue mich schon sehr auf die technischen Artikel von Techreport, ht4u und Konsorten.

@Hugo78: Gibt es irgendwelche Anzeichen für GCN 2.0??? :confused:

Duplex
2012-05-25, 14:40:32
25% mehr Leistung als GTX680 wäre Fail, das wären nur 55% mehr Leistung als GF110 ;)

boxleitnerb
2012-05-25, 15:00:05
1,3*1,25=1,62
Sowas hat im Schnitt auch Fermi abgeliefert.

dargo
2012-05-25, 15:07:00
Ich bleibe dabei. GeForce GTX 780 wird overall 25% vor GTX 680 liegen. Vllt. gehts dann mal auf +35% aber ein Wunder darf man nicht erwarten.
Ist klar... bei doppeltem Transistorcount +25% Leistung. :facepalm: In dem Fall brauchen sie den gar nicht erst als Desktopvariante releasen. Unwirtschaftlicher geht es kaum.

boxleitnerb
2012-05-25, 15:13:31
Hm, Vorsicht:
Was passiert, wenn die 8970 nur 25% schneller ist als die 7970? Glaubt jemand ernsthaft, dass Nvidia sich dann die Binning Yields versaut und unnötig z.B. 30% schneller als Sea Islands ist?

Duplex
2012-05-25, 15:21:44
1,3*1,25=1,62
Sowas hat im Schnitt auch Fermi abgeliefert.
Bei Fermi gab es aber mit Tesselation neue Baustellen von daher sollte man bei GK110 50% mehr als GK104 erwarten können, 25% wäre schwach wenn man bedenkt das der Chip 90% größer als GK104 ausfällt.

Wenn AMD bei Sea islands das Frontend verbessert & 3072 GPU Shader einbaut (48x64 | ca. 450mm²), dann kann der Chip 50% schneller als GCN werden.

N0Thing
2012-05-25, 15:22:04
Ist klar... bei doppeltem Transistorcount +25% Leistung. :facepalm: In dem Fall brauchen sie den gar nicht erst als Desktopvariante releasen. Unwirtschaftlicher geht es kaum.

Und wie viel Prozent der Transistoren gehen in die GPGPU-Fähigkeiten bei GK110? GK104 sieht in dem Bereich ja oft schlechter aus als GF100/110.

Solange man mit einer GTX 780 Geld verdienen kann, wäre es nicht wirtschaftlich, darauf zu verzichten.

boxleitnerb
2012-05-25, 15:27:10
Bei Fermi gab es aber mit Tesselation neue Baustellen von daher sollte man bei GK110 50% mehr als GK104 erwarten können, 25% wäre schwach wenn man bedenkt das der Chip 90% größer als GK104 ausfällt.

Hoffe ich ja auch. Allerdings: Wann gabs mal keine neuen Baustellen? Ich schätze 40%, bei Cherrypicking vielleicht auch 50%. Aber das alles auch nur, wenn man es wirklich braucht gegen AMD. Marktanteile kann man mit einem so riesigen teuren Chip nicht zurückgewinnen, dass es irgendwen jucken würde. Kein IHV fängt damit einen Preiskampf an. Das Motto würde ich einschätzen auf "Soviel wie möglich, aber soviel wie nötig".

Duplex
2012-05-25, 15:29:17
Was heißt wirklich brauchen?
Der G80 war auch meilenweit stärker als R600/RV670...
Sowas wie Cypress > Cayman wäre wohl ein witz oder nicht?

AMD spricht bei Sea Islands von einer neuen GPU Architektur, evtl. wird der rest außer die GPU Shader neu entwickelt, das Design kann effizient werden so das man bei gleicher Fertigung direkt 50% mehr GPU Shader verbauen kann. 25% mehr Einheiten und Frontend Verbesserungen wäre nicht viel...

boxleitnerb
2012-05-25, 15:43:50
Wusste man um die Verspätung von R600? Oder war man so stark, um auf Nummer sicher zu gehen, falls doch was Gutes von ATI gekommen wäre?
Gegenfrage: Warum ist GK104 nicht noch 20% schneller, warum schöpft man nicht die 250W TDP aus und bringt ein zusätzliches Modell über der 680? Antwort: Weil man es nicht braucht. So wie es ist, reicht es für einen leichten Vorteil.

dargo
2012-05-25, 15:57:38
Hm, Vorsicht:
Was passiert, wenn die 8970 nur 25% schneller ist als die 7970?
Bei ~8,6 Milliarden Transistoren? :|

Dural
2012-05-25, 15:59:41
wie kommst du auf 8,6 Milliarden Transistoren?



NV hat damals aber auf den R600 reagiert, nämlich mit der 8800Ultra.

der R600 sah auf dem papier ja wirklich stark aus, NV hat bei der Ultra und ihrem 384Bit sogar den damals bessten GDDR3 speicher verbaut weil man wohl von den 512Bit des R600 respekt hatte.

im nachhinein hat sich die ganze aktion als komplett sinnlos hinausgestellt.

dildo4u
2012-05-25, 16:00:23
AMD bringt niemals so ne Monster Die,weil sie im HPC kaum Abnehmner dafür haben.Cuda ist immer noch mit Abstand Nummer 1.

dargo
2012-05-25, 16:01:44
wie kommst du auf 8,6 Milliarden Transistoren?

Das doppelte vom Tahiti. Den Zusammehang aus der Diskussion wirst du wohl selbst herausfinden.

Duplex
2012-05-25, 16:24:31
Wusste man um die Verspätung von R600? Oder war man so stark, um auf Nummer sicher zu gehen, falls doch was Gutes von ATI gekommen wäre?
Die Karten wurden unabhängig vom R600 primär für den Profi Markt entwickelt.

Gegenfrage: Warum ist GK104 nicht noch 20% schneller, warum schöpft man nicht die 250W TDP aus und bringt ein zusätzliches Modell über der 680? Antwort: Weil man es nicht braucht. So wie es ist, reicht es für einen leichten Vorteil.
GK104 ist doch bereits schneller als ursprünglich geplant, er ist eig. ein Mainstream Chip der 299$ Klasse, im HPC Markt ist er langsamer als GF100 und Meilenweit hinter Tahiti.
AMD bringt niemals so ne Monster Die,weil sie im HPC kaum Abnehmner dafür haben.Cuda ist immer noch mit Abstand Nummer 1.
450mm² ist kein Monster DIE, das wäre ca. 15% größer als Cayman.

Der aktuelle tahiti XT hat 32 CUs
http://www.abload.de/thumb/tahiti32cuszpjkdl6fsf87kz1.jpg (http://www.abload.de/image.php?img=tahiti32cuszpjkdl6fsf87kz1.jpg)
Für 3072 Shader brauchst du 48 CUs, heißt auf jeder Seite vom DIE 4 CUs erweitern...

dildo4u
2012-05-25, 16:30:08
2Mal Tahiti ist wesentlich größer.

Duplex
2012-05-25, 16:31:25
Wer sprach den von 2x Tahiti in einem DIE ?
Wenn dann Faktor 1,5

boxleitnerb
2012-05-25, 16:49:43
GK104 ist doch bereits schneller als ursprünglich geplant, er ist eig. ein Mainstream Chip der 299$ Klasse, im HPC Markt ist er langsamer als GF100 und Meilenweit hinter Tahiti.


Na gut, er ist ja auch kleiner. Aber nimm mal an, Nvidia könnte mit einem noch vertretbaren Takt die 8970 um 25-30% schlagen. Der Chip ist groß und teurer herzustellen als bei der Konkurrenz, die Yields sind mäßig. Nvidia wäre schön blöd, wenn sie nicht den Takt senken, sich mit 15% Vorsprung zufriedengeben und dafür vielleicht 10-20% mehr Chips vom Wafer runterbekommen, die das schaffen und die sie ansonsten für die GTX770 aufheben und deutlich billiger verkaufen müssten.

Hugo78
2012-05-25, 16:57:37
@Hugo78: Gibt es irgendwelche Anzeichen für GCN 2.0??? :confused:

Man geht allgemein davon aus, dass AMD die Technik hinter der kommenden HD8k als GCN 2.0 bezeichnen wird.

AffenJack
2012-05-25, 17:08:26
Na gut, er ist ja auch kleiner. Aber nimm mal an, Nvidia könnte mit einem noch vertretbaren Takt die 8970 um 25-30% schlagen. Der Chip ist groß und teurer herzustellen als bei der Konkurrenz, die Yields sind mäßig. Nvidia wäre schön blöd, wenn sie nicht den Takt senken, sich mit 15% Vorsprung zufriedengeben und dafür vielleicht 10-20% mehr Chips vom Wafer runterbekommen, die das schaffen und die sie ansonsten für die GTX770 aufheben und deutlich billiger verkaufen müssten.

Nein, deine Taktik wäre schön blöd. Wieso sollte man auf Margen verzichten indem man was langsameres bringt? In deinem Beispiel bringt man den Topchip, der 25-30% schneller ist für nen sehr hohen Preis und darunter verwertet man dann die Chips die das nicht schaffen inner Edition die nur 10% schneller ist und als absolute Resteverwertung kann man nochn leicht langsameren Chip bringen, wenn man will. Zufälligerweise machen die Hersteller es schon seit Jahren so und nicht so unsinnige Dinge, die ihr euch ausdenkt.

dildo4u
2012-05-25, 17:12:20
Wer sprach den von 2x Tahiti in einem DIE ?

Dargo und darauf hab ich mich bezogen.

boxleitnerb
2012-05-25, 17:13:46
Nein, deine Taktik wäre schön blöd. Wieso sollte man auf Margen verzichten indem man was langsameres bringt? In deinem Beispiel bringt man den Topchip, der 25-30% schneller ist für nen sehr hohen Preis und darunter verwertet man dann die Chips die das nicht schaffen inner Edition die nur 10% schneller ist und als absolute Resteverwertung kann man nochn leicht langsameren Chip bringen, wenn man will. Zufälligerweise machen die Hersteller es schon seit Jahren so und nicht so unsinnige Dinge, die ihr euch ausdenkt.

Dass es mit den besten Chips ein zusätzliches Ultra SKU für 699+ gibt wie damals, das liegt durchaus im Bereich des Möglichen. Aber die "normale" Highendkarte für 499-549 orientiert sich an der Konkurrenz. Das meinte ich. Außerdem: Angenommen GK110 ist so gut, dass überproportional viele Chips diese 25-30% schaffen - soviel Absatzpotential ist gar nicht da. Wenn ich schätzen müsste, würde ich sagen, für jede 8800 Ultra wurden 10 8800GTX verkauft.

dargo
2012-05-25, 17:51:02
Gegenfrage: Warum ist GK104 nicht noch 20% schneller, warum schöpft man nicht die 250W TDP aus und bringt ein zusätzliches Modell über der 680? Antwort: Weil man es nicht braucht. So wie es ist, reicht es für einen leichten Vorteil.
Weil es sich nicht mehr lohnt. Das SI würde nur noch stärker limitieren und die Leistung könnte man gar nicht auf die Straße bringen. Man kann nicht einfach so das SI verbreitern. Schnellere GDDR5 gibts auch nicht. Imo ist das Design vom GK104 etwas fail. Man hätte gleich auf 384Bit gehen können.

AnarchX
2012-05-25, 17:54:31
Der Plan sah gegen Mitte/Herbst 2011 eben noch etwas anders aus.
Aber GK104 dürfte schon relativ am Ende seiner Skalierung sein, im Bezug auf den Chiptakt.

Hübie
2012-05-25, 18:08:33
Ist klar... bei doppeltem Transistorcount +25% Leistung. :facepalm: In dem Fall brauchen sie den gar nicht erst als Desktopvariante releasen. Unwirtschaftlicher geht es kaum.

Transistorcount ist in diesem Falle mal nicht so aussagekräftig wie sonst, da GK110 doch schon ziemlich viele Änderungen ggü. GK104 erfahren hat bzw. erfahren wird. Allein dynamic parallism dürfte schon gut was gekostet haben. Des weiteren gehe ich nun von 850-900 MHz aus. Und vor allem schrieb ich overall. Das mag wenig klingen aber kann ja von 100-5% alles bedeuten.
In den von mir präferierten settings* und games** können es gerne mal 50-70% mehr als GK104 sein.
Also net gleich :facepalm: einsetzen. Jean Luc Picard hat nur begrenzt Zeit ;D

*(f-HD, SGSSAA, 1,5xDS, HQ-AF)
**(z.B. Diablo3, the Witcher 2, Two Worlds 2, Risen 2, Dirt2&3 bis Battlefield3, Serious Sam 3, Bulletstorm wird gezockt)

dargo
2012-05-25, 18:25:13
Des weiteren gehe ich nun von 850-900 MHz aus.
Die GTX670 hat 915Mhz Baseclock. Hätte sie genauso viele SPs wie die GTX680 wäre der Leistungsunterschied nahezu Null. Wir wollen hier doch nicht ernsthaft über ~5% diskutieren.

Hübie
2012-05-25, 18:56:55
Äh. Ich meinte 850-900 MHz beim GK110. Oder check ich gerade was net. Und natürlich meine ich mit GK104 den top-level-chip womit GTX 670 rausfällt ;) Dachte dass es klar ist.

dargo
2012-05-25, 19:11:22
Äh. Ich meinte 850-900 MHz beim GK110. Oder check ich gerade was net.
Anscheinend nicht.

Wir sprachen ursprünglich vom vollen GK104, also 1006Mhz Baseclock vs. GK110 @deine angepeilten 850-900Mhz. Ich habe gesagt, dass ein voller, theoretischer GK104 @915Mhz kaum langsamer als eine GTX680 ist. Was gibts hier nicht zu verstehen?

Hübie
2012-05-25, 19:25:25
Ach so. Weil du die GTX 670 in den Raum geworfen hast. Bin hier etwas abgelenkt...

Da GK104 recht sauber mit dem GPU-Takt skaliert sollten die ~90 Mhz eben auch 7-9% Verlust ausmachen. Das ist mir aber ohne konktrete Systemangaben aber wohl etwas zu hypothetisch. Wir können diese Diskussion nach ersten Benches gerne fortführen. Entweder du sagst "ätschie-bätschie ich hatte Recht" oder ich sag das ;)
Ehrlich gesagt rede ich eh nicht gern in Prozent, da 70% viel klingen aber wenig bedeuten können (aus 13 werden 22 fps usw...). Verstehst? ;)
Wenn GK110 The Witcher 2 in f-HD mit SSAA kontinuierlich flüssig darstellt ist er gekauft. ;D

Edit: Da wir momentan eh in einer Blase leben was Spiele angeht ist es eh schwierig vernünftig zu prognostizieren...

dargo
2012-05-25, 19:42:18
Da GK104 recht sauber mit dem GPU-Takt skaliert...
What? Nee, das sehe ich etwas anders.

boxleitnerb
2012-05-25, 19:44:26
Kommt wahrscheinlich stark aufs Spiel an. Ich hab 1:1 Skalierung gesehen und in anderen Reviews wiederum klar schlechter.

Hübie
2012-05-25, 19:46:47
Also das was ich so lese deutet darauf hin dass GK104 recht gut skaliert. Aber boxleitnerb hat Recht. Die Anwendung sowie das Setting sind natürlich wichtige Faktoren. Wie gesagt können wir dieses Diskussion so elendig weit ziehen, dass wir auf Seite 100 noch schnacken.
Was hast du denn jetzt für ne Karte Dargo?

dargo
2012-05-25, 20:13:23
Was hast du denn jetzt für ne Karte Dargo?
Immer noch GF100 @GTX480. Es gibt einfach nichts Vernünftiges zum upgraden. :(

Raff
2012-05-25, 22:01:35
Was ist aus den Radeon-Plänen geworden?

MfG,
Raff

dargo
2012-05-25, 22:40:38
Jetzt wirds aber hier verdammt OT. :freak:

Die 370€ @HD7970 mit Club3Ds custom Design fand ich verschmerzbar (obwohl immer noch zu teuer). War leider nicht mehr lieferbar. Ich weigere mich weiter die regulären Preise zu zahlen die die Hersteller für ihre schnellsten 28nm Pixelschleudern verlangen. Und nein, auch eine GTX670 custom Design für ~380€ ist alles andere als attraktiv für mich.

Edit:
Ein voller GK104 mit 3GB Vram, 1,3Ghz GPU-Takt (Dauertakt und kein wildes Rumgetakte) und ~270GB/s Bandbreite @384Bit SI für ~400€. Das wäre für mich ein brauchbares Upgrade wenn wir schon bei "wünsch dir was" sind. :D

G3cko
2012-05-26, 10:09:53
Ich hätte zwar auch gerne mal ein Upgrade meiner 8800GT, aber ich sehe es auch nicht ein, ein kaum besseres P/L-Verhältnis als wie bei der 5870 zu bezahlen. Fast 3 Jahre danach. Hätte ich mir mal eine 5870 für 350€ gekauft... verdammt:freak: Und jetzt den alten 40nm Rotz zu kaufen, oder den überteuerten 28nm Kram kommt für mich nicht in Frage.

Eine GTX670 für 150€ würde ich mir noch gefallen lassen.

Skysnake
2012-05-26, 10:29:56
Das ist aber ziemlich utopisch... zumindest für die nächsten 6 Monate

Hades11
2012-05-26, 18:27:32
Eine GTX670 für 150€ würde ich mir noch gefallen lassen.
wenn es ein gutes custom design ist, z.b. SO mit Windforce kühler und gut selektierten Chips, gerne auch 250€ für das referenzdesign ( mit billig PCB und teildeaktiviertem onehin schon kleinen chip) eher um die 200. da das allerdings warscheinlich nicht geschehen wird bevor GK110 in sichtweite kommt wird es doch wohl eher dessen salvage part. ich hoffe mal dass bis dorthin die Produktion erlaubt die preise auf ein faires niveau zu senken.
Das ist aber ziemlich utopisch...
leider.

ich vermute jetzt wirklich (ohne quellen, nur was man hier und anderswo eben so ließt) dass wir GK110 als gamer-karte dieses jahr nicht mehr sehen werden. Das gute dabei ist allerdings dass es dann mehr zeit gibt die 28Nm Produktion noch zu verbessern/auszubauen, was mit etwas glück auch zu einer besseren preislageführen kann.

Hübie
2012-05-27, 04:33:14
Leute die D-Mark gibts net mehr. 150 :rolleyes:

GK110 wird herzlich wenig zum Preissturz beitragen. Die Preise werden so oder so langsam etwas sinken, stagnieren und verharren. GTX 680 wird wohl auch bis Januar bei 400-420€ kleben bleiben. GK110 wird schätz ich mit 600-700 Euro auf den Markt kommen und sich dann bei der 500er Marke einpendeln.
Zu verschenken haben die alle nix ;)

Gouvernator
2012-05-27, 09:15:33
Was nützt einem besserer 28nm Prozess wenn die Chips eh an die Firmen für Super-Computer gehen bzw. für CUDA. Das ist wie ein Schwarzes Loch solche Firmen mit Geld. Da ist alles nur für die ausgelastet und wir müssen deswegen schon für Mittelklasse 400€ hinlegen. Wenn ihr ein Paperlaunch habt und der Hype ist groß und Grafikkarten knapp das ist nichts im Vergleich was die Firmen an GPUs schlucken... Das ist wie Paperlaunch on Steroids. Was zahlt ne Firma für CUDA GPU? 2000$? Und dennoch haben sie alle Produktion für sich ausgelastet...

Skysnake
2012-05-27, 09:30:32
"Firmen" kannste da schlecht sagen. Das Sind meist Einrichtungen/Institute, die entweder direkt einem Staat gehören, oder aber großen Institutionellen Einrichtungen, angeschlossen sind. Firmen, im Sinne von Wirtschaft, sind eher selten ein Kunde im wesentlichen Ausmaß. Wenn das mal paar hundert Karten sind, ist das schon viel.

Zu der Frage mit dem Preis. Aktuell sinds 1,5-2,5k$. Bei den Vorgängern warens glaub ich 2-8k$. So wird der Preisrahmen wohl auch wieder sein, wenn GK110 kommt.

Und Aufsaugen tun die nichts. Im Vergleich zum Konsumermarkt, sind die Mengen relativ gesehen doch recht klein. Ganz abgesehen davon, das aktuell wohl eh kaum Teslas als 28nm raus gehen.

Das Problem sind wirklich "nur" die unzureichenden Kapazitäten wie es scheint.

Man wird aber sehen müssen, wie sich GPGPU im Supercomputerbereich entwickelt. Wenn deutlich mehr Leute da aufspringen, kann das doch ein erklägliches Sümmchen werden. Bis jetzt waren es ja nur einzelne Rechner mit GPUs, die überwältigende Mehrheit hatte aber keine. Wie man aber oben schon gelesen hat, können bei einem einzelnen großen Cluster schnell mal mehrere tausend Karten zusammen kommen, oder wie dort angeblich sogar 15k Karten. Das summiert sich dann auch schnell.

Hübie
2012-05-27, 11:37:39
Ich finde Forschung und Entwicklung jedoch deutlich wichtiger, als daddeln. Wenn man auf die Art und Weise gesellschaftliche Änderungen bzw. Optimierungen hervorbringen kann, warum nicht? Ich verzichte gern, wenns einen Nutzen hat.

LG Hübie

Ailuros
2012-05-28, 11:49:05
Was nützt einem besserer 28nm Prozess wenn die Chips eh an die Firmen für Super-Computer gehen bzw. für CUDA. Das ist wie ein Schwarzes Loch solche Firmen mit Geld. Da ist alles nur für die ausgelastet und wir müssen deswegen schon für Mittelklasse 400€ hinlegen. Wenn ihr ein Paperlaunch habt und der Hype ist groß und Grafikkarten knapp das ist nichts im Vergleich was die Firmen an GPUs schlucken... Das ist wie Paperlaunch on Steroids. Was zahlt ne Firma für CUDA GPU? 2000$? Und dennoch haben sie alle Produktion für sich ausgelastet...

Im Anschluss zu Skysnake's Post oben, wenn der HPC Markt so stark waechst in der Zukunft, dass die top dog chip R&D Kosten nur von diesem Markt gedeckt werden, befuerchte ich dass wenn es soweit kommt wir sowieso wohl schwer solche cores fuer den desktop sehen werden. In solch einem Fall waere es kein bisschen unwahrscheinlich dass NV sich einfach dreht und in der weniger absehbaren Zukunft wie AMD bei performance chips halt macht und diese trotz allem mit high end Preisen verkauft. Haengt natuerlich auch davon ab was AMD langfristig vorhat (bzw. ob sie sich einer solchen hypothetischen Masche auch selber anpassen) und natuerlich auch wie der desktop Markt generell reagiert.

Wenn bei anstaendiger Verfuegbarkeit in der Zukunft performance chips trotz =/>$500 MSRPs gut verkauft werden, spricht auch leider nichts dagegen. Anders die Nachfrage wird fuer beide IHVs solche moegliche Plaene dann auch regeln.

Es sieht so oder so danach aus dass desktop/notebook SoCs in den naechsten Jahren sowohl in Leistung als auch in Verkaufszahlen skalieren werden; dass heisst dann aber auch wiederrum automatisch dass standalone GPUs zunehmend zu einer Marktniesche verdraengt werden, bis sie irgendwann sogar ganz verschwinden. IGPs sind schon weg vom Fenster dank SoCs und als naechste an der Linie kommen woll irgendwann low end/budget standalone GPUs; entfaellt jetzt irgendwann auch noch single chip high end/enthusiast, schrumpft das Ganze eben zunehmend in die Mitte.

boxleitnerb
2012-05-28, 12:01:58
War nicht gesagt worden, dass gerade der Highend/Enthusiast-Bereich sich bei diskreten GPUs am längsten halten wird? Ich kann mir nicht vorstellen, dass die jemals komplett verschwinden:

Man kann auf absehbare Zeit kein 200+ mm2 Die in eine APU packen. Ein Pitcairn z.B. ist 212mm2 groß und braucht ca. 125W im Vollausbau, wie will man das kostengünstig integrieren, mit Bandbreite versorgen und kühlen? Natürlich könnte man in Zukunft deutlichst größere iGPUs als die jetzigen bauen, aber wer will sich damit die Marge versauen? Verlangt man dann für einen solche große APU $500, kann man sich ausrechnen, wie der Absatz sein wird. Gelegenheitsspieler brauchen eh nicht mehr als die jeweilige Entry-Lösungen, und wir sehen ja, wie toll parallelisierbar Probleme im Consumerbereich sind...nämlich nicht wirklich toll.

Die (sehr bedauerliche) Alternative wäre, dass wir nur solche Entry-Lösungen in den APUs sehen und die Leute damit zufrieden sind, sprich überhaupt nichts mehr vom Schlag einer 7770 aufwärts mehr wollen. DAS kann ich aber schwerlich glauben.

Ailuros
2012-05-28, 12:39:56
War nicht gesagt worden, dass gerade der Highend/Enthusiast-Bereich sich bei diskreten GPUs am längsten halten wird? Ich kann mir nicht vorstellen, dass die jemals komplett verschwinden:

Sie werden hoechstwahrscheinlich als letzte verschwinden. Was oben gemeint war: angenommen irgendwann in der Zukunft decken sich die R&D Kosten fuer NV's Monsterdie nur durch den HPC Markt, koennte es fraglich werden ob sich so ein core weiterhin fuer desktop lohnt. Dieses natuerlich unter der Vorraussetzung dass auch AMD bei maximal performance chips bleibt und desktop enthusiast weiterhin via mGPU bedient.

Einfacher stell Dir vor dass schon heute GK110 es hypothetisch nicht notwendig hat im desktop zu erscheinen (momentan nicht realistisch). In solch einem Fall hat NV das Dilemma ob es billiger und schneller ist einen hypothetischen GK104-refresh auf die Beine zu stellen um den Tahiti Nachfolger zu kontern oder ob es sich lohnt die ohnehin brutalen Herstellungskosten eines GK110 zu schlucken.

Man kann auf absehbare Zeit kein 200+ mm2 Die in eine APU packen. Ein Pitcairn z.B. ist 212mm2 groß und braucht ca. 125W im Vollausbau, wie will man das kostengünstig integrieren, mit Bandbreite versorgen und kühlen? Natürlich könnte man in Zukunft deutlichst größere iGPUs als die jetzigen bauen, aber wer will sich damit die Marge versauen? Verlangt man dann für einen solche große APU $500, kann man sich ausrechnen, wie der Absatz sein wird. Gelegenheitsspieler brauchen eh nicht mehr als die jeweilige Entry-Lösungen, und wir sehen ja, wie toll parallelisierbar Probleme im Consumerbereich sind...nämlich nicht wirklich toll.

Es war NIE die Rede von absehbarer Zeit; alles war nur langfristig gemeint und es spielen so viele moegliche Faktoren mit dass wirklich nichts momentan fest liegt. Wie dem auch sei Project Denver ab 20nm/2014 eroeffnet eine ganz andere Aera und nein dieses ist eben nicht nur fuer desktop/notebooks gemeint sondern wird langfristig auch seinen Platz in HPC Maerkten finden.

Noch schlimmer warte ab was in den naechsten beiden naechster Generation Konsolen stecken wird und nein es werden eben nicht stinknormale PC SoCs sein, aber das ingesamte Resultat wird schon kostenguenstiger sein als standalone Einheiten (CPU, GPU etc.) wie bisher.

Heute sind groessere SoCs noch kein Thema; wie gesagt ersetzen sie momentan lediglich hauptsaechlich IGPs welches in meinem Buch nicht mal ein Feld fuer eigentliches gaming ist, sondern eher wie bei IGPs fancy office PCs. Das sollte aber wiederrum nicht heissen dass SoCs nicht in der Zukunft skalieren werden.

Wie schon mal erwaehnt: wenn schon in 2013 ein smart-phone/tablet SoC so viel GPU processing power hat wie die heutige XBox360 GPU, sollte es zumindest eine Indizie sein auf welche Hoehen ein jeglicher desktop SoC langfristig skalieren kann. Der erste theoretische Schritt fuer die weniger absehbare Zukunft waere dass desktop SoCs nach den IGPs langsam auch low end/budget standalone GPUs ersetzen koennen und nein so etwas passiert auch natuerlich nicht ueber Nacht.

Die (sehr bedauerliche) Alternative wäre, dass wir nur solche Entry-Lösungen in den APUs sehen und die Leute damit zufrieden sind, sprich überhaupt nichts mehr vom Schlag einer 7770 aufwärts mehr wollen. DAS kann ich aber schwerlich glauben.

Wenn man es nicht sooo radikal sieht wie im obrigen Paragraphen, es aber global etwas mehr ueberdenkt, wird mit Sicherheit der Faktor Konsole langfristig auch seine Rolle mitspielen.

Anders und einfache Frage: gibt es heute generell Spiele die eine 7900/6x0 nicht bewaeltigen koennen oder wuerde man wirklich mir nichts dir nichts eine jegliche heutige mGPU oder zukuenftige GK110 SKU brauchen? Nicht dass es nicht schon immer aehnlich war, aber ich hab das Gefuehl dass die jegliche "Notwendigkeit" durch die eigentlichen bescheideneren Ansprueche neuer Spiele Schritt fuer Schritt schrumpft. Ein Faktor der die Landschaft schnell aendern koennte waere display Technologie wo 2560*1600 um einiges billiger wird als bis jetzt und hoehere Aufloesungen erscheinen.

OgrEGT
2012-05-28, 12:53:32
Da wir noch immer von Fotorealismus ein Stückchen entfernt sind, und auch größere Displays mit größeren Auflösungen kommen werden (HD 4K), man denke auch an Raytracing und die dafür benötigte Leistung, bin ich mir sehr sicher, dass auch auf längere Sicht hin diskrete Highend und Enthiusiast GPU Lösungen ihre Dahseinsberechtigung haben werden.

Der Markt wird sich jedoch möglicherweise weiter konzentrieren, d.h. die angesprochene Zielgruppe wird kleiner werden, da mit kleineren GPUs und SoCs immer mehr Anwendungsbereiche, z.B. auch Full HD Entertainment abgedeckt werden. Somit müssen wir uns auf kleinere Stückzahlen und höhere Preise und längere Entwicklungszyklen im Highend und Enthusiast Bereich einstellen.

Edit:
Interessant wäre natürlich eine modulare Skalierung der zukünftigen Leistungsfähigkeit über mehrere GPUs hinweg, die direkt z.B. per Interposer miteinander verdrahtet werden können. So kann man 1x, 2x, 4x, 8x ... nx Leistung ohne MR oder ähnliches für jedes Anwendungsgebiet und jeden Markt passend bereitstellen.

boxleitnerb
2012-05-28, 12:58:59
Sie werden hoechstwahrscheinlich als letzte verschwinden. Was oben gemeint war: angenommen irgendwann in der Zukunft decken sich die R&D Kosten fuer NV's Monsterdie nur durch den HPC Markt, koennte es fraglich werden ob sich so ein core weiterhin fuer desktop lohnt. Dieses natuerlich unter der Vorraussetzung dass auch AMD bei maximal performance chips bleibt und desktop enthusiast weiterhin via mGPU bedient.

Einfacher stell Dir vor dass schon heute GK110 es hypothetisch nicht notwendig hat im desktop zu erscheinen (momentan nicht realistisch). In solch einem Fall hat NV das Dilemma ob es billiger und schneller ist einen hypothetischen GK104-refresh auf die Beine zu stellen um den Tahiti Nachfolger zu kontern oder ob es sich lohnt die ohnehin brutalen Herstellungskosten eines GK110 zu schlucken.

Das ist sowieso ein interessantes Thema. Was ist schneller: Ein aufgepumpter GK104 oder ein wegen Stromverbrauch (leicht) beschnittener GK110?



Es war NIE die Rede von absehbarer Zeit; alles war nur langfristig gemeint und es spielen so viele moegliche Faktoren mit dass wirklich nichts momentan fest liegt. Wie dem auch sei Project Denver ab 20nm/2014 eroeffnet eine ganz andere Aera und nein dieses ist eben nicht nur fuer desktop/notebooks gemeint sondern wird langfristig auch seinen Platz in HPC Maerkten finden.

Noch schlimmer warte ab was in den naechsten beiden naechster Generation Konsolen stecken wird und nein es werden eben nicht stinknormale PC SoCs sein, aber das ingesamte Resultat wird schon kostenguenstiger sein als standalone Einheiten (CPU, GPU etc.) wie bisher.

Heute sind groessere SoCs noch kein Thema; wie gesagt ersetzen sie momentan lediglich hauptsaechlich IGPs welches in meinem Buch nicht mal ein Feld fuer eigentliches gaming ist, sondern eher wie bei IGPs fancy office PCs. Das sollte aber wiederrum nicht heissen dass SoCs nicht in der Zukunft skalieren werden.

Wie schon mal erwaehnt: wenn schon in 2013 ein smart-phone/tablet SoC so viel GPU processing power hat wie die heutige XBox360 GPU, sollte es zumindest eine Indizie sein auf welche Hoehen ein jeglicher desktop SoC langfristig skalieren kann. Der erste theoretische Schritt fuer die weniger absehbare Zukunft waere dass desktop SoCs nach den IGPs langsam auch low end/budget standalone GPUs ersetzen koennen und nein so etwas passiert auch natuerlich nicht ueber Nacht.

Was ich bei den SoCs als sehr problematisch sehe:

Fehlende Flexibilität. Bei diskreten CPUs und GPUs kann ich kombinieren wie ich will nach meinen Ansprüchen. Brauch ich viel serielle Leistung, zocke aber nur wenig, nehme ich eine starke CPU und eine Lowend GPU. Will ich mit SSAA spielen, nehme ich eine mittlere CPU und eine Highend GPU. Usw.

Bei einem SoC gibt es viel weniger Kombinationen und ich kriege Sachen aufgedrückt, die ich gar nicht brauche oder will, muss sie aber mitbezahlen - speziell wenn die Dies mit größer werdenden SoCs auch größer und teurer werden.

Frage:
Kannst du dir ernsthaft vorstellen, dass in einem ALDI-Rechner von 2020 eine 400-500mm2 SoC sitzt? Mit 200-250W TDP. Ich nicht. Vielleicht denke ich da zu klassisch, aber ich finde, man sollte das auswählen können, was man braucht. Man kann natürlich viele verschiedene Dies machen, aber das ist ja ökonomisch auch völliger Quark.



Wenn man es nicht sooo radikal sieht wie im obrigen Paragraphen, es aber global etwas mehr ueberdenkt, wird mit Sicherheit der Faktor Konsole langfristig auch seine Rolle mitspielen.

Anders und einfache Frage: gibt es heute generell Spiele die eine 7900/6x0 nicht bewaeltigen koennen oder wuerde man wirklich mir nichts dir nichts eine jegliche heutige mGPU oder zukuenftige GK110 SKU brauchen? Nicht dass es nicht schon immer aehnlich war, aber ich hab das Gefuehl dass die jegliche "Notwendigkeit" durch die eigentlichen bescheideneren Ansprueche neuer Spiele Schritt fuer Schritt schrumpft. Ein Faktor der die Landschaft schnell aendern koennte waere display Technologie wo 2560*1600 um einiges billiger wird als bis jetzt und hoehere Aufloesungen erscheinen.

Ob die Konsolen nicht eh untergehen im Zuge von Geforce Grid und Co? Wäre eine Möglichkeit.

Zur Notwendigkeit:
4K wird 2015-2020 nicht mehr exotisch sein, das sind 4x so viele Pixel wie 1080p. Wenn die kolpotierten PS4 Specs mit Pitcairn+APU stimmen sollten, wäre das auch schon ein guter Sprung, der die Anforderungen an Ports in die Höhe treiben könnte. Ich denke/hoffe, dass wir endlich auch mehr Interaktivität sehen werden in Spielen, z.B. Partikel- und Fluidsimulation, das braucht immens Rechenleistung.

Und bedenke: Die IHVs wollen ihre Hardware immer verkaufen. Wenn die Notwendigkeit nicht schon da ist, schafft man sie sich einfach (3D, PhysX, Eyefinity).

Gouvernator
2012-05-28, 13:03:58
Einfacher stell Dir vor dass schon heute GK110 es hypothetisch nicht notwendig hat im desktop zu erscheinen (momentan nicht realistisch). In solch einem Fall hat NV das Dilemma ob es billiger und schneller ist einen hypothetischen GK104-refresh auf die Beine zu stellen um den Tahiti Nachfolger zu kontern oder ob es sich lohnt die ohnehin brutalen Herstellungskosten eines GK110 zu schlucken.
Für diesen Fall bereite ich mich gerade vor. Und zwar plane ich beim neuen PC gleich die Möglichkeit eines QUAD SLI mit den kleineren billigen Grafikkarten. Sprich hole mir jetzt ein Quad SLI MoBo für Sockel 1155 und dann lass kommen was will.

dargo
2012-05-28, 13:12:22
Für diesen Fall bereite ich mich gerade vor. Und zwar plane ich beim neuen PC gleich die Möglichkeit eines QUAD SLI mit den kleineren billigen Grafikkarten. Sprich hole mir jetzt ein Quad SLI MoBo für Sockel 1155 und dann lass kommen was will.
Als ob SLI die Lösung wäre. :rolleyes: Wenn das so einfach wäre hätte ich schon ewig SLI.

YfOrU
2012-05-28, 13:37:58
Wenn man es nicht sooo radikal sieht wie im obrigen Paragraphen, es aber global etwas mehr ueberdenkt, wird mit Sicherheit der Faktor Konsole langfristig auch seine Rolle mitspielen.

Dem wäre noch hinzuzufügen das sich bei Microsoft ab Windows 8 die Konsole und der PC bezogen auf das Konzept und UI im Konsumentenbereich spürbar annähern.

Verzahnung und Interoperabilität werden in Zukunft noch enger werden mit entsprechenden Auswirkungen auf die Software. Auch wenn das mit Metro eingeführte Konzept nicht unumstritten ist, das verfolgte Ziel ist absolut verständlich. Der Konsum von Inhalten (dazu gehören auch Spiele) wird deutlich in den Vordergrund geschoben und für den unbedarften Anwender erheblich vereinfacht.

Wird jetzt noch mit einbezogen das zukünftige x86 Prozessoren mit integrierter GPU wie Haswell oder Kaveri sehr viel näher an den GPUs der nächsten Konsolengeneration liegen werden als es in der Vergangenheit der Fall war entsteht hier ganz von selbst ein vergleichsweise einfach zu erreichender (Massen)Markt der praktisch von keinem Publisher ignoriert werden kann.

Ein nettes Beispiel und genaugenommen ein Vorreiter ist hier Blizzard. Titel wie SCII und DiabloIII kommen aufgrund der eigentlich als unzureichend zu bezeichnenden Intel HD3000 mit einem darauf angepassten Modi. Wobei eben solche extremen Beschneidungen in Zukunft nicht mehr nötig sein werden und das nagt dann automatisch an den Absatzzahlen dedizierter GPUs.

Im Übrigen befindet sich der Markt in einem stetigen Wandel weg vom klassischen Desktop Format. Also Richtung Notebook und Smallformfactor/Integrated. Hier gibt es aufgrund der um ganze Faktoren geringeren maximalen Verlustleistung für dedizierte GPUs wesentlich engere Grenzen. Deshalb haben auch GPUs wie 675M oder 7970M am Markt praktisch keine nennenswerte Relevanz sondern deutlich schwächere Modelle wie die 640M/7750M. Ein Kaveri wird davon keine Lichtjahre entfernt sein.

Genaugenommen ist ein entsprechend skalierter SoC dem das gleiche Budget (Leistungsaufnahme) alleine zur Verfügung steht auch einer Kombination aus dedizierter CPU und GPU überlegen (Effizienz, dynamische Skalierung nach Auslastung).

Skysnake
2012-05-28, 13:50:45
Im Anschluss zu Skysnake's Post oben, wenn der HPC Markt so stark waechst in der Zukunft, dass die top dog chip R&D Kosten nur von diesem Markt gedeckt werden, befuerchte ich dass wenn es soweit kommt wir sowieso wohl schwer solche cores fuer den desktop sehen werden. In solch einem Fall waere es kein bisschen unwahrscheinlich dass NV sich einfach dreht und in der weniger absehbaren Zukunft wie AMD bei performance chips halt macht und diese trotz allem mit high end Preisen verkauft. Haengt natuerlich auch davon ab was AMD langfristig vorhat (bzw. ob sie sich einer solchen hypothetischen Masche auch selber anpassen) und natuerlich auch wie der desktop Markt generell reagiert.

Wenn bei anstaendiger Verfuegbarkeit in der Zukunft performance chips trotz =/>$500 MSRPs gut verkauft werden, spricht auch leider nichts dagegen. Anders die Nachfrage wird fuer beide IHVs solche moegliche Plaene dann auch regeln.

Es sieht so oder so danach aus dass desktop/notebook SoCs in den naechsten Jahren sowohl in Leistung als auch in Verkaufszahlen skalieren werden; dass heisst dann aber auch wiederrum automatisch dass standalone GPUs zunehmend zu einer Marktniesche verdraengt werden, bis sie irgendwann sogar ganz verschwinden. IGPs sind schon weg vom Fenster dank SoCs und als naechste an der Linie kommen woll irgendwann low end/budget standalone GPUs; entfaellt jetzt irgendwann auch noch single chip high end/enthusiast, schrumpft das Ganze eben zunehmend in die Mitte.
Allein aus dem HPC-Bereich heraus, wird es schwierig. Dafür sind GPUs einfach nicht flexibel genug, und werden es wohl auch nie, ohne ihre Paradedisziplin Perf/W über den Haufen zu werfen.

Daher werden wir wohl nie in allen Clustern GPUs sehen. Also dedizierte GPUs, so wie man Sie heute hat.

Ich seh da eher durch so Sachen die GeForce-Grid eine verdammt große Anzahl an Verkäufen realisierbar, welche dafür sorgen könnte, das man wirklich R&D so finanziert bekommt, und sich reine Gamerkarten einfach wirtschaftlich nicht mehr lohnen.
Die ganzen Voardpartner bekommen bei den Aussichten aber bestimmt das große Kotzen....


War nicht gesagt worden, dass gerade der Highend/Enthusiast-Bereich sich bei diskreten GPUs am längsten halten wird? Ich kann mir nicht vorstellen, dass die jemals komplett verschwinden:

So wie du heutige diskrete GPUs kennst, wird es die irgendwann sicher nicht mehr geben, einfach weil das System nicht mehr sonderlich skaliert.


Man kann auf absehbare Zeit kein 200+ mm2 Die in eine APU packen. Ein Pitcairn z.B. ist 212mm2 groß und braucht ca. 125W im Vollausbau, wie will man das kostengünstig integrieren, mit Bandbreite versorgen und kühlen? Natürlich könnte man in Zukunft deutlichst größere iGPUs als die jetzigen bauen, aber wer will sich damit die Marge versauen?

Dir ist schon klar, was nen Packaging, nen PCB, das entsprechende Mainboard mit Anschlüssen usw usw usw kostet?

Single-Chip-Lösungen haben gewaltige Einsparpotenziale. Sowohl was die reinen Kosten, als auch den Strombedarf anbelangt.


Verlangt man dann für einen solche große APU $500, kann man sich ausrechnen, wie der Absatz sein wird. Gelegenheitsspieler brauchen eh nicht mehr als die jeweilige Entry-Lösungen, und wir sehen ja, wie toll parallelisierbar Probleme im Consumerbereich sind...nämlich nicht wirklich toll.

Und wo ist das Problem bei ner 500$ APU, die im Vergleich zu ihrer Zeit genau so viel leistet, wie nen Core i5+GTX670?

Richtig, da ist nirgends ein Problem, weil man für die Leistung auch mit dedizierten Produkten so viel gezahlt hätte.


Die (sehr bedauerliche) Alternative wäre, dass wir nur solche Entry-Lösungen in den APUs sehen und die Leute damit zufrieden sind, sprich überhaupt nichts mehr vom Schlag einer 7770 aufwärts mehr wollen. DAS kann ich aber schwerlich glauben.
Wieso sollte es keine differenzierung geben?

Bei Laptops kannste praktisch auch nichts selbst konfigurieren, und trotzdem gibts für jeden Anspruch den richtigen Laptop.

Man muss sich halt von der Vorstellung verabschieden, dass das einzelne Chips sind.

So etwas wird man aus mehreren Chips mit TSV und/oder Interposer realisieren, und da kannste dann auch wieder konfigurieren. Naja und davor wird es halt statt Sockellösungen, wo man etwas austauschen kann, fest verlötete Lösungen noch mit PCB geben.

Der "Schrauber", der sich seinen PC selbst zusammenbaut, wird halt in absehbarer Zeit, ich denke die nächsten 10-15 Jahre, aussterben.

So ist das halt. Heute baut auch keiner mehr ein radio selbst.

boxleitnerb
2012-05-28, 14:19:51
So wie du heutige diskrete GPUs kennst, wird es die irgendwann sicher nicht mehr geben, einfach weil das System nicht mehr sonderlich skaliert.


Welches System?


Dir ist schon klar, was nen Packaging, nen PCB, das entsprechende Mainboard mit Anschlüssen usw usw usw kostet?

Single-Chip-Lösungen haben gewaltige Einsparpotenziale. Sowohl was die reinen Kosten, als auch den Strombedarf anbelangt.


Dass Einsparpotential da ist, bezweifle ich nicht. Dass das groß genug ist, um eine GPU, die man heute im Performancesegment findet (7870, GTX660) da reinzubekommen, schon. Wenn es so einfach wäre, warum reichte z.B. Llano dann nichtmal annähernd an die HD6570 ran? Eine heutige Performancekarte ist geschätzt 5x so schnell.


Und wo ist das Problem bei ner 500$ APU, die im Vergleich zu ihrer Zeit genau so viel leistet, wie nen Core i5+GTX670?

Richtig, da ist nirgends ein Problem, weil man für die Leistung auch mit dedizierten Produkten so viel gezahlt hätte.


Das Problem ist wie schon angesprochen die Flexibilität. GPU schnell mal aufrüsten ist nicht. Man will CPU Power X und Grafik Power Y? Viel weniger Auswahl als bei zwei separaten Lösungen. In dem Bereich, in dem Llano bzw. Trinity momentan wildern ist das noch ok, aber wieviele verschiedene Dies/Produkte willst du denn anbieten, um alles von der mickrigsten Mickerkarte bis zum Niveau einer GTX670 abzudecken?

Was ist mit der Bandbreite? GK110 wird doppelt soviel haben wie der Hybrid Memory Cube Prototyp hat. Die Anforderungen steigen noch weiter. Und zahlt dann der Kunde, der eigentlich nur CPU-Leistung will, das alles mit?

Um es mal bildlich zu sagen:
Du gehst in den Supermarkt und statt Zutaten gibts nur noch Fertiggerichte. Na Mahlzeit!


Wieso sollte es keine differenzierung geben?

Bei Laptops kannste praktisch auch nichts selbst konfigurieren, und trotzdem gibts für jeden Anspruch den richtigen Laptop.

Man muss sich halt von der Vorstellung verabschieden, dass das einzelne Chips sind.

So etwas wird man aus mehreren Chips mit TSV und/oder Interposer realisieren, und da kannste dann auch wieder konfigurieren. Naja und davor wird es halt statt Sockellösungen, wo man etwas austauschen kann, fest verlötete Lösungen noch mit PCB geben.

Der "Schrauber", der sich seinen PC selbst zusammenbaut, wird halt in absehbarer Zeit, ich denke die nächsten 10-15 Jahre, aussterben.

So ist das halt. Heute baut auch keiner mehr ein radio selbst.

S.o.
Austauschen und Sockellösungen? Ist nicht der Sinn der SoCs, dass du eine Komponente hast, die alles vereint, wo du einzelne Teile eben NICHT austauschen kannst?

dargo
2012-05-28, 14:34:04
Und wo ist das Problem bei ner 500$ APU, die im Vergleich zu ihrer Zeit genau so viel leistet, wie nen Core i5+GTX670?

Richtig, da ist nirgends ein Problem, weil man für die Leistung auch mit dedizierten Produkten so viel gezahlt hätte.

Wo das Problem ist? Der Zeitfaktor ist das Problem. Was nützt mir ein SoC mit i5+GTX670 Leistung in (sehr optimistisch) 5 Jahren wenn ich die Leistung jetzt brauche? Gar nichts.


Bei Laptops kannste praktisch auch nichts selbst konfigurieren, und trotzdem gibts für jeden Anspruch den richtigen Laptop.

Das halte ich für ein Gerücht. ;)

YfOrU
2012-05-28, 14:43:53
Wo das Problem ist? Der Zeitfaktor ist das Problem. Was nützt mir ein SoC mit i5+GTX670 Leistung in (sehr optimistisch) 5 Jahren wenn ich die Leistung jetzt brauche? Gar nichts.


In Relation zur Masse der abgesetzten Produkte (Notebooks, Konsolen und Smallformfactor) an der sich die Entwicklung zukünftiger Titel zwangsläufig orientieren wird ist ein Desktop i5 mit GTX670 faktisch eine Nische. Brauchen ist damit ziemlich relativ.

dargo
2012-05-28, 14:49:21
Nicht jeden interessiert die Masse. Wo wäre der Fortschritt wenn jeder nur mit der Masse mitschwimmen würde? Dann wären wir noch in der Steinzeit.

YfOrU
2012-05-28, 14:56:50
Die bestimmt aber schlussendlich die Richtung der Entwicklung denn jeder möchte maximalen Absatz erzielen. So wie sich der Markt insgesamt entwickelt läuft alles auf kostengünstige, hochintegrierte und dabei recht ausgewogene (Leistung) Systeme hinaus -> waschechte Consumer Devices.

Warum das jetzt Stillstand sein soll erschließt sich mir nicht. Der Fokus verändert sich schlichtweg und die reine Performance wird dabei der Effizienz deutlicher als bisher untergeordnet. Fortschritt ist nicht direkt mit einer permanenten Steigerung der Leistung am oberen Ende der Skala verknüpft.

dargo
2012-05-28, 15:08:10
Die bestimmt aber schlussendlich die Richtung der Entwicklung denn jeder möchte maximalen Absatz erzielen. So wie sich der Markt insgesamt entwickelt läuft alles auf kostengünstige, hochintegrierte und dabei recht ausgewogene (Leistung) Systeme hinaus -> waschechte Consumer Devices.

Warum das jetzt Stillstand sein soll erschließt sich mir nicht. Der Fokus verändert sich schlichtweg und die reine Performance wird dabei der Effizienz deutlicher als bisher untergeordnet.
Das was du ausgewogene Leistung nennst ist für mich Low-End. Was die Masse in paar Jahren @SoC sehen wird haben wir doch schon ewig im Rechner gehabt... *gähn*. Wo ist da die Innovation?
Die momentane Marktsituation im Bereich Hardware ist einfach nur noch stinklangweilig. Im GPU-Bereich gibt es @28nm noch nicht mal High-End. Im CPU-Bereich ruht sich Intel aus weil AMD nichts zu bieten hat. Einfach nur :uclap:.

YfOrU
2012-05-28, 15:22:00
Das was du ausgewogene Leistung nennst ist für mich Low-End. Was die Masse in paar Jahren @SoC sehen wird haben wir doch schon ewig im Rechner gehabt... *gähn*. Wo ist da die Innovation?

Einen AMD Trinity würde ich noch nicht als ausgewogen bezeichnen. Mit Kaveri geht es in die Richtung aber auch das ist nicht das Ende der Fahnenstange hin zu wirklich universalen Produkten.

Die Innovation ist das diese Systeme kompakt/mobil und günstig sowie für den aller größten Teil der Anwender mehr als ausreichend sind. Bei dieser Betrachtung spielt die immer engere Verzahnung der Software und die Kreierung übergreifender Ökosysteme eine maßgebliche Rolle.

Die Zukunft bei stationären Computern ist AIO bzw. kompaktere Gehäuseformate als ATX. Spart Geld sowie Platz und das klassische Format landet in der Nische. Schau dir das Portfolio bei Apple an - ist insgesamt schon seit Jahren über die ganze Palette wegweisend. Es mangelt schlichtweg noch an der zur Verfügung stehenden Hardware. Entsprechende hochintegrierte Hardware (Prozessoren) würde ich durchaus als innovativ bezeichnen.


Die momentane Marktsituation im Bereich Hardware ist einfach nur noch stinklangweilig. Im GPU-Bereich gibt es @28nm noch nicht mal High-End. Im CPU-Bereich ruht sich Intel aus weil AMD nichts zu bieten hat. Einfach nur :uclap:.

Beide bewegen sich auf das gleiche Ziel zu nur eben von unterschiedlichen Ausgangspunkten ;). Auch Nvidia hat sich langfristig diesem Ziel auf Basis der ARM ISA verschrieben.

Skysnake
2012-05-28, 18:36:41
Welches System?

Das System einer CPU im Sockel mit ihrem seperaten RAM, in Verbindung mit der Anbindung einer dedizierten GPU/Beschleuniger wiederum mittels Sockel, der dann auch noch recht weit entfernt ist von der CPU, und eben nochmals eigenem Speicher.

Die Anbindung zwischen CPU und Beschleuniger skaliert nicht. Du kannst nur begrenzt viele Beschleuniger anbinden, wobei das mit SB-E viel besser geworden ist als früher, hast aber eben auch nur eine gewisse Geschwindigkeit. In diesem Fall PCI-E 3.0, und da musste man schon in die Trickkiste greifen, um den Geschwindigkeitszuwachs zu erreichen. Auf Kosten der Latenz halt. usw. usw usw.


Dass Einsparpotential da ist, bezweifle ich nicht. Dass das groß genug ist, um eine GPU, die man heute im Performancesegment findet (7870, GTX660) da reinzubekommen, schon. Wenn es so einfach wäre, warum reichte z.B. Llano dann nichtmal annähernd an die HD6570 ran? Eine heutige Performancekarte ist geschätzt 5x so schnell.

Weil Llano am SI zu knabbern hat, und auch nicht gleichwertig ist?
Zudem muss dort alles auf einem DIE untergebracht werden. Mit Interposer und/oder StackedChips/TSV ist die kombinierte DIE-Size kein Problem mehr.


Das Problem ist wie schon angesprochen die Flexibilität. GPU schnell mal aufrüsten ist nicht. Man will CPU Power X und Grafik Power Y? Viel weniger Auswahl als bei zwei separaten Lösungen. In dem Bereich, in dem Llano bzw. Trinity momentan wildern ist das noch ok, aber wieviele verschiedene Dies/Produkte willst du denn anbieten, um alles von der mickrigsten Mickerkarte bis zum Niveau einer GTX670 abzudecken?

Klar ist mit schnell ausrüsten nichts mehr zu machen, aber durch stackedChips/TSV, Interposer und davor eben verlötete Systeme die noch auf ein PCB zurückgreifen, bekommste genug Flexibilität rein. Muss man sich halt VOR dem Kauf überlegen, was man braucht. Ganz abgesehen davon kann man mit obiger Technik auch sehr einfach verschiedene DIEs produzieren, bzw einfach mehrere von den gleichen DIEs zusammen binden. Wenn man nen Octa-Core will, nimmt man halt 2 Quadcore-DIEs, und noch entsprechend viele von der GPU-DIEs.

Sobald man Interposer und/oder stackedChips mal einsetzt, kann man recht einfach nach oben skalieren.

Bei nem Smartphone/Tablet den meisten Notebooks beschwert sich ja auch keiner, das man nicht aufrüsten kann. Ist halt so. Dafür sind die Dinger vergleichweise billig und kommen so auch erst in Summe auf die niedrigen Verbräuche, weil halt alles hochgradig integriert ist, überflüssige Stromfresse weggelassen werden, und man möglichst auf ein SOC setzt, was einem leistungshungrige Signaltreiber spart.


Was ist mit der Bandbreite? GK110 wird doppelt soviel haben wie der Hybrid Memory Cube Prototyp hat. Die Anforderungen steigen noch weiter. Und zahlt dann der Kunde, der eigentlich nur CPU-Leistung will, das alles mit?

Du hast offensichtlich nicht die Funktionsweise von heutigen Speicherinterfaces verstanden, geschweige denn vom Memory-Cube.

Kleiner Tipp: Wie erreicht denn GK110 seine hohe Bandbreite?
Und jetzt übertrag die Antwort mal auf den MemoryCube.


Um es mal bildlich zu sagen:
Du gehst in den Supermarkt und statt Zutaten gibts nur noch Fertiggerichte. Na Mahlzeit!

Eher genau das Gegenteil. Mit dem Memory-Cube ergeben sich ganz neue Möglichkeiten, durch die sich signifikante Einsparpotenziale ergeben. Mehr will und darf ich dazu nicht sagen. Strengt euren Kopf mal an, vielleicht kommt ihr ja drauf ;)


S.o.
Austauschen und Sockellösungen? Ist nicht der Sinn der SoCs, dass du eine Komponente hast, die alles vereint, wo du einzelne Teile eben NICHT austauschen kannst?
Jaein. Der Sinn eines SOCs ist es, dass du alles auf einem DIE hast, und das teure Packaging, sowie die teuren/platzfressenden Interfaces sparst. Ganz zu schweigen vom nicht zu vernachlässigenden Energieeinsparungspotenzial dadurch, dass du die Signale nicht mehr so weit treiben musst.

Die festverlöteten Chips aufm PCB machste deswegen, wohl als Übergangslösung, weils billiger ist als Interposer, und keine so radikale Umgestaltung. Gleichzeitig nimmste aber schonmal die besseren Kontakte mit und kannst so die Signaltreiber etwas schwächer gestalten, was wiederum Strom und sogar (eventuell) DIE-Size spart. Das wird aber wenn nur als Übergangslösung für einige Jahre kommen. Mehr als zwei Generationen bezweifle ich, und auch abhängig davon, wie viel Eier Intel und AMD in der Hose haben. Ich tendiere aber zu keinen Eiern in der Hose. :rolleyes:

Bei Interposer und stackedChips haste eigentlich alle Vorteile von nem SOC außer dass dein Packaging eben etwas teuerer ist. Du hast aber nicht solche Probleme mit der Pinlimitierung usw usw. wie bei aktuellen Sockellösungen.


Wo das Problem ist? Der Zeitfaktor ist das Problem. Was nützt mir ein SoC mit i5+GTX670 Leistung in (sehr optimistisch) 5 Jahren wenn ich die Leistung jetzt brauche? Gar nichts.
Wer lesen kann ist klar im Vorteil. [quote]

"die im Vergleich zu ihrer Zeit" Also ersetze den aktuellen Core i5+GTX670 gegen das hypothetische Produkt, welches zum Zeitpunkt der APU den entsprechenden Platz einnehmen würde.

Du vergisst einfach das unsere heutigen Chips Powerlimited sind. Ein Effizienterer Rechner kann damit unterm Strich auch schneller sein, und APUs haben viel Potenzial für eine bessere Effizienz, auch wenn die zukünftigen APUs eher eine Mischung aus den heutigen APUs und den dedizierten Einheiten heute sein werden. Bzw. wenn mans genau nimmt eigentlich mit beiden nicht mehr viel zu tun haben werden, weil einige grundlegende Plattformkonzepte sich ändern werden.

[quote]
Das halte ich für ein Gerücht. ;)
Was gibts denn nicht außer ausgewachsenen Workstations und Servern? Wobei da halt einfach Platz der limitierende Faktor ist. Wenn du nicht knausrig bist, bekommste praktisch jedwede Lösung, die technisch machbar ist.

Die bestimmt aber schlussendlich die Richtung der Entwicklung denn jeder möchte maximalen Absatz erzielen. So wie sich der Markt insgesamt entwickelt läuft alles auf kostengünstige, hochintegrierte und dabei recht ausgewogene (Leistung) Systeme hinaus -> waschechte Consumer Devices.

Warum das jetzt Stillstand sein soll erschließt sich mir nicht. Der Fokus verändert sich schlichtweg und die reine Performance wird dabei der Effizienz deutlicher als bisher untergeordnet. Fortschritt ist nicht direkt mit einer permanenten Steigerung der Leistung am oberen Ende der Skala verknüpft.
Und gerade in den großen Clustern usw. bedeutet Effizienzsteigerung auch eine Steigrung der maximalen Leistung, da man Powerlimited ist. Wir könnten ohne größere Probleme schon heute Exaskale haben. Die Unterhaltskosten könnte aber niemand mehr finanzieren, weil das ganze zu groß und Ineffizient wird. Ganz zu schweigen von den logistischen Problemen, weil du extra nen AKW daneben stehen haben musst usw. usw. usw.

Das was du ausgewogene Leistung nennst ist für mich Low-End. Was die Masse in paar Jahren @SoC sehen wird haben wir doch schon ewig im Rechner gehabt... *gähn*. Wo ist da die Innovation?
Die momentane Marktsituation im Bereich Hardware ist einfach nur noch stinklangweilig. Im GPU-Bereich gibt es @28nm noch nicht mal High-End. Im CPU-Bereich ruht sich Intel aus weil AMD nichts zu bieten hat. Einfach nur :uclap:.
Vergleiche nicht heutige APUs mit den Dingern, die in einigen JAhren kommen werden.

dargo
2012-05-28, 18:51:47
Wer lesen kann ist klar im Vorteil.

"die im Vergleich zu ihrer Zeit" Also ersetze den aktuellen Core i5+GTX670 gegen das hypothetische Produkt, welches zum Zeitpunkt der APU den entsprechenden Platz einnehmen würde.

Du hast es immer noch nicht verstanden oder? Wo kann ich eine APU heute kaufen mit i5+GTX670 Leistung? Nirgends! Und das ist der ausschlaggebende Punkt. Was interessiert mich wenn in ein paar Jahren diese oder ähnliche Leistung mit ner APU realisierbar ist? In ein paar Jahren lache ich nur über diese Leistung.


Vergleiche nicht heutige APUs mit den Dingern, die in einigen JAhren kommen werden.
Vergleiche nicht heutige Desktop-Hardware mit welcher die wir in ein paar Jahren sehen werden. :rolleyes:

Zu den Notebooks. Zeig mir mal ein Notebook welches die Leistung eines i5/i7 und einer GTX680 zum gleichen Preis erreicht. Wobei man hier noch nicht mal die GTX680 nehmen dürfte da nur Mainstream-Chip @28nm.

boxleitnerb
2012-05-28, 18:53:23
Du hast offensichtlich nicht die Funktionsweise von heutigen Speicherinterfaces verstanden, geschweige denn vom Memory-Cube.

Kleiner Tipp: Wie erreicht denn GK110 seine hohe Bandbreite?
Und jetzt übertrag die Antwort mal auf den MemoryCube.


Eher genau das Gegenteil. Mit dem Memory-Cube ergeben sich ganz neue Möglichkeiten, durch die sich signifikante Einsparpotenziale ergeben. Mehr will und darf ich dazu nicht sagen. Strengt euren Kopf mal an, vielleicht kommt ihr ja drauf ;)


Hä? Wieso jetzt irgendwelche Geheimnistuerei? Natürlich hab ich die Funktionsweise verstanden. Der Punkt ist: Wenn du keine Grafikleistung/parallele Rechenleistung brauchst, in Zukunft aber jeder "Prozessor" sowas drin hat, zahlst du das mit. Mit schnellem teuren Speicher, dem großen Die usw.

Das Gegenteil? Gut, säg ich von dem Die, wo sich alle die Mühe gemacht haben, die Integration voranzutreiben, die Hälfte ab und zahle auch nur die Hälfte. Passt doch :freak:
Aus Sicht des wählenden Kunden wird Flexibilität verlorengehen, das ist nur logisch.

So ein Smartphone hat völlig andere Anwendungsbereiche als ein Desktop-PC, das kannst du doch gar nicht vergleichen, dass sich da niemand beschwert. Es wird immer Leute geben, die aussuchen wollen, was in ihrer Kiste verbaut ist. Eine große Stärke des PC ist es imo, dass er schön konfigurierbar ist, weil es so viele unterschiedliche Anforderungen an das Gerät gibt. Das sollte nicht verlorengehen. So wie du das beschreibst, wandert die Komponentenauswahl vom Kunden zum Hersteller, und das kann ich einfach nicht gutheißen.

Sag doch mal, wie du dir die Zukunft eines Rechners vorstellst. Ein Board und da werden nebeneinander CPUs und GPUs aufgesteckt und nach Belieben kombiniert, benutzen einen gemeinsamen RAM. Braucht man mehr Bandbreite oder mehr Kapazität, steckt man einen anderen Cube drauf?

Ailuros
2012-05-28, 19:24:26
Das ist sowieso ein interessantes Thema. Was ist schneller: Ein aufgepumpter GK104 oder ein wegen Stromverbrauch (leicht) beschnittener GK110?

Da wir die 670 auch schon gesehen haben wie wuerde ein hypothetischer GK104 mit ~15% mehr Takt und einem 384bit genau ankommen? Stromverbrauch waere nicht hoeher als selbst beim vollen GK110, man wuerde nie und nimmer 7.1Mrd Transistoren verplempern muessen und auch nicht von 294 gleich auf 550mm2 steigen muessen. Es geht hier in dem hypothetischen (momentan sinnlosen) Beispiel wohl eben nicht um den Stromverbrauch sondern eher um die Herstellungskosten/die.


Was ich bei den SoCs als sehr problematisch sehe:

Fehlende Flexibilität. Bei diskreten CPUs und GPUs kann ich kombinieren wie ich will nach meinen Ansprüchen. Brauch ich viel serielle Leistung, zocke aber nur wenig, nehme ich eine starke CPU und eine Lowend GPU.

Intel SoCs in N Varianten.

Will ich mit SSAA spielen, nehme ich eine mittlere CPU und eine Highend GPU. Usw.

AMD oder zukuenftige NV SoCs in jeweils N Varianten. Sind lediglich Beispiele.

Bei einem SoC gibt es viel weniger Kombinationen und ich kriege Sachen aufgedrückt, die ich gar nicht brauche oder will, muss sie aber mitbezahlen - speziell wenn die Dies mit größer werdenden SoCs auch größer und teurer werden.

Es sind auch per SoC bzw. IHV zich Kombinationen moeglich; keine Sorge wenn es so weit kommen sollte wissen IHVs schon sich anzupassen.

Frage:
Kannst du dir ernsthaft vorstellen, dass in einem ALDI-Rechner von 2020 eine 400-500mm2 SoC sitzt? Mit 200-250W TDP. Ich nicht. Vielleicht denke ich da zu klassisch, aber ich finde, man sollte das auswählen können, was man braucht. Man kann natürlich viele verschiedene Dies machen, aber das ist ja ökonomisch auch völliger Quark.

Gegenfrage: waere der obrige hypothetische 2020 Aldi Rechner nicht um zich Male schneller und effizienter als ein heutiger Aldi Rechner? Als ob Du erstmal so ein Ding kaufen wuerdest und nicht dass der Ottonormalverbraucher einen besonderen Unterschied sehen wird.

Ob die Konsolen nicht eh untergehen im Zuge von Geforce Grid und Co? Wäre eine Möglichkeit.

Ob Du GeForce Grid vielleicht doch nicht richtig verstanden hast? Fuer was genau soll eine Art cloud gaming genau gut sein wenn es sich eventuell nicht auch auf Tegra bzw. auch Denver Projekte der Zukunft beziehen wuerde? In welcher Richtung erhofft sich NVIDIA selber ihre groessere Zukunft und wieso genau?

Du hast es immer noch nicht verstanden oder? Wo kann ich eine APU heute kaufen mit i5+GTX670 Leistung? Nirgends! Und das ist der ausschlaggebende Punkt.

Es geht hier nach wie vor um die Zukunft.

Was interessiert mich wenn in ein paar Jahren diese oder ähnliche Leistung mit ner APU realisierbar ist? In ein paar Jahren lache ich nur über diese Leistung.

Gut dann behalt es als Notiz und wir werden in einem Jahrzent sehen wer am letzten lachen wird. Chancen sind aber hoeher dass Du bis dahin keine Interesse mehr an PCs haben koenntest, ist aber total OT.

dargo
2012-05-28, 19:27:16
Ich hab jetzt mal auf die schnelle das billigste Notebook mit aktueller GTX675M rausgesucht.
http://geizhals.at/de/770627

1. Nur 2,3Ghz bei der CPU.
2. Die GTX675M hat nur 384 SPs mit 620Mhz GPU-Takt und 96GB/s Speicherbandbreite. :ulol: Was soll das Ding überhaupt leisten? GTX460 @Desktop? Oder noch nicht mal?

Und dafür zahlt man 1.800€. :ucrazy: Den Preis vom Bildschirm (dürfte eh nur TN sein) und die beiden 64GB SSDs kannst du gerne abziehen. Dann sind wir sicherlich immer noch bei guten 1.500€.


Gut dann behalt es als Notiz und wir werden in einem Jahrzent sehen wer am letzten lachen wird. Chancen sind aber hoeher dass Du bis dahin keine Interesse mehr an PCs haben koenntest, ist aber total OT.
Das wäre durchaus möglich bei der momentanen Stagnation im Desktop-Bereich.

boxleitnerb
2012-05-28, 19:41:04
Da wir die 670 auch schon gesehen haben wie wuerde ein hypothetischer GK104 mit ~15% mehr Takt und einem 384bit genau ankommen? Stromverbrauch waere nicht hoeher als selbst beim vollen GK110, man wuerde nie und nimmer 7.1Mrd Transistoren verplempern muessen und auch nicht von 294 gleich auf 550mm2 steigen muessen. Es geht hier in dem hypothetischen (momentan sinnlosen) Beispiel wohl eben nicht um den Stromverbrauch sondern eher um die Herstellungskosten/die.


Dieser hypothetische GK104 dürfte GK110 nicht wirklich angreifen können, wenn du selbst 40+% für GK110 schätzt (also ggü. GK104).



Intel SoCs in N Varianten.

AMD oder zukuenftige NV SoCs in jeweils N Varianten. Sind lediglich Beispiele.

Es sind auch per SoC bzw. IHV zich Kombinationen moeglich; keine Sorge wenn es so weit kommen sollte wissen IHVs schon sich anzupassen.


Möglich ja, aber wirtschaftlich sinnvoll? Gut, wenn durch Interposer und TSV der Aufwand, modulare Lösungen zu bauen, dramatisch abnehmen sollte, wäre das eine Möglichkeit. Wie sehr kann man eine GPU modularisieren? Gibt es dann nicht auch ein Redundanzproblem bei bestimmten Einheiten aus dem Uncorebereich?


Gegenfrage: waere der obrige hypothetische 2020 Aldi Rechner nicht um zich Male schneller und effizienter als ein heutiger Aldi Rechner? Als ob Du erstmal so ein Ding kaufen wuerdest und nicht dass der Ottonormalverbraucher einen besonderen Unterschied sehen wird.


Äh, da 8 Jahre dazwischen liegen, natürlich. ;)
Das mit Aldi war ein blödes Beispiel - nimm einen von einem richtigen Computerladen, Arlt oder K&M, was weiß ich. Hauptsächlich interessiert mich hierbei, wie weit die zukünftigen Konzepte skalieren können. Können sie wirklich in dem Bereich Wildern, den wir heute Performance und Highend nennen oder wird das aufgrund von Kosten und Verbrauch/Hitzeentwicklung auf immer versagt bleiben?


Ob Du GeForce Grid vielleicht doch nicht richtig verstanden hast? Fuer was genau soll eine Art cloud gaming genau gut sein wenn es sich eventuell nicht auch auf Tegra bzw. auch Denver Projekte der Zukunft beziehen wuerde? In welcher Richtung erhofft sich NVIDIA selber ihre groessere Zukunft und wieso genau?


Du hast die Konsolen angesprochen, ich meinte dazu, dass es die klassischen Konsolen als dedizierte Hardware im Wohnzimmer möglicherweise nicht mehr geben wird. Du hast einen Fernseher, das Spiel wird im Rechenzentrum berechnet und zu dir gestreamt. Es könnte doch durchaus sein, dass man mit so einem Modell der Stagnation der Spieleentwicklung entgegenwirken kann. Darum gings ja, um die Frage, ob man die Leistung braucht. Die Kunden werden gemolken und zahlen 10 Euro mehr im Monat wie für eine schnellere Internetverbindung - in dem Fall für bessere Grafik.

Skysnake
2012-05-28, 19:59:30
Hä? Wieso jetzt irgendwelche Geheimnistuerei?
Dazu werde ich nichts sagen.


Natürlich hab ich die Funktionsweise verstanden. Der Punkt ist: Wenn du keine Grafikleistung/parallele Rechenleistung brauchst, in Zukunft aber jeder "Prozessor" sowas drin hat, zahlst du das mit. Mit schnellem teuren Speicher, dem großen Die usw.

Der MemoryCube des MemoryCubeKonsortiums hat als Grundlage eine Point-to-Point Verbindung. Du kannst damit also trivial ein breiteres Interface bauen, indem du einfach mehr Anschlüsse realisierst. Damit lässt sich der Memory-Cube sehr einfach realisieren, da er eben nur auf wenigen Datenleitungen basiert.

Nimm einfach den Schritt von PCI/AGP hin zu PCI-E als Vergleich zum Schritt von DDR3/GDDR5 hin zum MemoryCube oder jedweder anderen Point-to-Point Speicheranbindung.

Zudem solltest du bedenken, dass der MemoryCube einen LogicLayer hat. Damit lassen sich viele Schweinereien anstellen.


Das Gegenteil? Gut, säg ich von dem Die, wo sich alle die Mühe gemacht haben, die Integration voranzutreiben, die Hälfte ab und zahle auch nur die Hälfte. Passt doch :freak:
Aus Sicht des wählenden Kunden wird Flexibilität verlorengehen, das ist nur logisch.

Der MemoryCube ist apriori nicht als Teil eines DIEs konzipiert. Denk einfach an den LogicLayer. Mehr sag ich dazu nicht.


So ein Smartphone hat völlig andere Anwendungsbereiche als ein Desktop-PC, das kannst du doch gar nicht vergleichen, dass sich da niemand beschwert. Es wird immer Leute geben, die aussuchen wollen, was in ihrer Kiste verbaut ist. Eine große Stärke des PC ist es imo, dass er schön konfigurierbar ist, weil es so viele unterschiedliche Anforderungen an das Gerät gibt. Das sollte nicht verlorengehen. So wie du das beschreibst, wandert die Komponentenauswahl vom Kunden zum Hersteller, und das kann ich einfach nicht gutheißen.

Ja, der Hersteller wird die Komponentenauswahl übernehmen, aber das macht er heute auch schon. Du kannst ja auch nicht zu Intel/AMD/nVidia hin gehen und sagen, ich hätte gern ein breiteres SI, oder mehr Cache, oder mehr Cores, oder weniger usw. usw.

Heute wird dir nur die Möglichkeit für exotische/mehr oder weniger Unsinnige Kombinationen eingeräumt. Das würde dann halt wegfallen. Ist aber heute auch nicht anders. Bei Intels 1155ern kaufste die iGPU auch mit, egal ob du Sie haben willst oder nicht. Genau wie bei SB-E i-cores du die QPI-Links mit kaufst, die halt abgeschaltet sind usw. usw.

Wie Ailuros schon sagt. Die Hersteller werden dir schon eine ausreichend breite Auswahl anbieten. Man wird sich nur anschauen müssen, ob AMD/Intel/nVidia alles aus einer Hand liefern wollen, oder wie AMD mit HT anderen Herstellern einen Interconnect anbieten, um eigene Erweiterungen an zu bieten, womit dann Eigenkreationen möglich werden. Sprich AMD/Intel/nVidia liefern dann auch wie heute an OEMs usw. eben Teile und die kombinieren das dann eventuell mit eigenen Teilen.

So könnten auch die ganzen MB-Hersteller usw usw. überleben, indem Sie das Drum herum weiterhin bauen wie bisher, oder eben Erweiterungen wie besondere NICs usw usw anbieten.

Sozusagen das was Dell, HP, IBM, Spermicro usw usw schon heute machen wird dann halt Standard und die Randgruppe der PC-Schrauber, die sich halt in Foren wie diesen Rumtreibt wird eben aussterben. Früher hat man sein Transistorradio auch selbst gebaut. Heute nicht mehr. Früher hat man noch selbst den Kundendienst am Auto gemacht, genau wie Reperaturen. Heute kannste oft nicht mal mehr die Zündkerzen selbst wechseln. Das Gleiche wird auch im PC-Bereich passieren, und bzgl. deinen Kopfschmerzen diesbezüglich. Im Automobilbereich wars doch auch kein Genickbruch oder?


Sag doch mal, wie du dir die Zukunft eines Rechners vorstellst. Ein Board und da werden nebeneinander CPUs und GPUs aufgesteckt und nach Belieben kombiniert, benutzen einen gemeinsamen RAM. Braucht man mehr Bandbreite oder mehr Kapazität, steckt man einen anderen Cube drauf?
Na das sind doch schon mal ganz interessante Ideen.

Ailuros
2012-05-29, 11:21:17
Dieser hypothetische GK104 dürfte GK110 nicht wirklich angreifen können, wenn du selbst 40+% für GK110 schätzt (also ggü. GK104).

Moment; damit wir uns nicht weiterhin gegenseitig verwurschteln, dieser hypothetische GK104 war nur eine These im Fall wo ein GK110 im HPC seine Kosten schon decken wuerde und ein Riesen-die nicht mehr notwendig ist fuer desktop.

Der volle GK110 wird in der Mehrzahl der Faelle um die 50% schneller sein als ein GK104 und dieses hauptsaechlich dank seiner Bandbreite. Der 680 fehlt es offensichtlich nicht an Einheiten (1536SPs, 128TMUs, 32 ROPs) ueberhaupt im Vergleich zu Tahiti sondern hauptaechlich an Bandbreite.

Nochmal die obrige These ist HEUTE nicht realistisch; es war lediglich ein theoretisches Beispiel fuer den Fall wo in der Zukunft HPC so viel Quantitaet bringt, dass NV nur einen spezial-chip fuer diesen entwickeln kann. In solch einem Fall ist der groesste Gewinner so oder so der enthusiast End-verbraucher da er nicht fuer N% HPC Transistoren blechen muss die unter 3D hauptsaechlich flach liegen.

Möglich ja, aber wirtschaftlich sinnvoll? Gut, wenn durch Interposer und TSV der Aufwand, modulare Lösungen zu bauen, dramatisch abnehmen sollte, wäre das eine Möglichkeit. Wie sehr kann man eine GPU modularisieren? Gibt es dann nicht auch ein Redundanzproblem bei bestimmten Einheiten aus dem Uncorebereich?

Laecherlich vereinfacht: entwickelt sich hw nicht konstant weiter? Solche Kopfschmerzen ueberlasse ich eher den eigentlichen engineers selber und obwohl es interessante Fragen sind, geht es mir hauptsaechlich um eher um eine moegliche Tendenz der Zukunft (SoCs). Es ist uebrigens ja auch nicht so dass IHVs momentan nicht an eine tiefere "Verschmelzung" der jeweiligen CPU und GPU Einheiten in zukuenftigen SoCs schon gedacht haben.

Kleine Aenderungen stets Schritt fuer Schritt: http://semiaccurate.com/2012/05/28/trinity-has-a-brain-and-a-queue/

Äh, da 8 Jahre dazwischen liegen, natürlich. ;)
Das mit Aldi war ein blödes Beispiel - nimm einen von einem richtigen Computerladen, Arlt oder K&M, was weiß ich. Hauptsächlich interessiert mich hierbei, wie weit die zukünftigen Konzepte skalieren können. Können sie wirklich in dem Bereich Wildern, den wir heute Performance und Highend nennen oder wird das aufgrund von Kosten und Verbrauch/Hitzeentwicklung auf immer versagt bleiben?

Mein bestes Beispiel fuer GPU Skalierung bleibt momentan PowerVR Rogue. Offiziell sind heute zwischen 100GFLOPs bis zu 1 TFLOPs von skalierenden Einheiten moeglich; Designs die spaeter angekuendigt werden koennen eine maximale Latenz von etlichen TFLOPs theoretisch erreichen. Natuerlich wird der Stromverbrauch nie so bescheiden sein bei N TFLOPs wie bei ein paar hundert GFLOPs fuer smart-phones; der einzige Meilenstein fuer GPU IP in diesem Fall ist dass sich kein SoC Hersteller in die Felder von Intel bzw. AMD mit so etwas wagen wuerde, eben weil das Risiko zu gross ist.

Und nein dass soll jetzt nicht heissen dass ich mir fuer IMG irgend etwas in der Richtung erhoffe. Es ist und bleibt lediglich eine handfeste Indizie dass solche Designs ziemlich gut skalieren koennen. Fehlen tut der Architektur (DX11.1) momentan auch nichts was Faehigkeiten betrifft.

NVIDIA selber wird hoechstwahrscheinlich ab Wayne mit sogenannten "skalaren" ALUs in Tegras ankommen; ab 20nm/Maxwell dann bzw. Denver CPU geht das Ganze dann in eine ganz andere Richtung. Dumme Frage: angenommen die Intel SoCs ab 2014 greifen auch NV's hypothetische low end/budget GPUs an, ist es nicht innerhalb logischer Moeglichkeit dass sobald NV PC/notebook SoCs auf dem Laufband hat, dass NV dementsprechend mit einem konkurrierenden SoC angreift?


Du hast die Konsolen angesprochen, ich meinte dazu, dass es die klassischen Konsolen als dedizierte Hardware im Wohnzimmer möglicherweise nicht mehr geben wird. Du hast einen Fernseher, das Spiel wird im Rechenzentrum berechnet und zu dir gestreamt. Es könnte doch durchaus sein, dass man mit so einem Modell der Stagnation der Spieleentwicklung entgegenwirken kann. Darum gings ja, um die Frage, ob man die Leistung braucht. Die Kunden werden gemolken und zahlen 10 Euro mehr im Monat wie für eine schnellere Internetverbindung - in dem Fall für bessere Grafik.

Langfristig wird es auch so weit kommen und Hersteller werden sich bis dann schon an Alternativen orientiert haben. Ein weiterer Gedanke fuer die Zukunft: http://www.xbitlabs.com/news/multimedia/display/20120525151754_Microsoft_Develops_80_Wall_Mounted_Tablet_for_Offices.html

Momentan nur Resultate von Forschung bzw. internem Gebrauch, aber wenn sich irgend ein relevanter Trend in der Zukunft zeigen sollte, haben die Hersteller schon damit herumgefummelt.

Skysnake
2012-05-29, 12:44:37
Boxleitnerb, das MemoryCube Consortium hat auf ihren Seiten doch das eine oder andere ganz interessante inzwischen gepostet.

Die Seite hier ist ganz interessant, und sollt einige deinr Fragen beantworten. Besonders interessant ist das Video bei 2:30

http://hybridmemorycube.org/technology.html

mboeller
2012-05-29, 16:22:31
Man kann auf absehbare Zeit kein 200+ mm2 Die in eine APU packen. Ein Pitcairn z.B. ist 212mm2 groß und braucht ca. 125W im Vollausbau, wie will man das kostengünstig integrieren, mit Bandbreite versorgen und kühlen?


Ist zwar hier OT; aber ein hypothetischer Ausweg könnte IMHO folgendermaßen Aussehen:

APU mit 3 HT3 links oder was äquivalentem (wie bei den Server-CPUs von AMD)
2-4 APUs auf ein Board packen (ziemlich dicht gepackt)
max. 65W pro APU

Am Beispiel Trinity A10-4600M (hat aber kein HT3):

up to 8 Module/16 Cores auf einem Board
up to 1536 Shader @ 685MHz (= ~2,1TFlops)
up to 120GB/sec Bandbreite (DDR3-1866)
up to 32GB Speicher (4 x 8GB)

Gesamtverbrauch: up to 140W für die APU's

Da die 4 APUs gleichwertig sind, sollte man vielleicht(?) sogar das Mikroruckeln in den Griff bekommen können.

Ein Vorteil könnte sogar sein, das man das System je nach Geldbeutel peu à peu aufrüsten könnte.

boxleitnerb
2012-05-29, 16:29:06
228mm2 x4=900mm2. Autsch :D
Da nimmst ne Ivy und packst den besagten Pitcairn dazu und bist um Welten billiger. Klar, dass das ein hypothetisches Beispiel war, aber das müsste man schon irgendwie anders angehen, wenn es bezahlbar bleiben soll.

mboeller
2012-05-30, 09:40:52
228mm2 x4=900mm2. Autsch :D


die mm² sind doch eigentlich unwichtig. Einen Llano 3870K bekommst du für <100 Euro (Trinity-Preise gibt es ja noch nicht). Macht für den Vollausbau also weniger als 400,- Euro. Das Board wird allerdings nicht billig. :)

Skysnake
2012-05-30, 10:34:14
Zumal boxleitnerb ganz vergessen hat, dass man dann eine 8 Moduler hat, was aktuell nur Server-CPUs liefern, und sogar 8!, in Worten Acht, Speichercontroller hätte. Das haben gerade mal Dual-Sockel-Server-Systeme bei AMD und Intel....

Das frisst auch einiges an Platz und eben auch Kosten.

Man sollte also aus den 900 wohl eher mal 700-800 machen, und aus dem Octa-Channel SI mal ein Quad-Channel zusammen mit einem 128MB Puffer per Interposer oder what ever direkt bei der APU.

Vernünftig anbinden kannste das aber meiner Meinung nach nur mittels Interposer. Auf nem PCB würde das meiner MEinung nach zu teuer werden.

Am Ende wirste aber wohl, wenn es in Serienproduktion mit vernünftigen Yealds ist, weniger bezahlen, als heute mit einem MB, einer CPU und einer dedizierten GPU der entsprechenden Preisklasse, und selbst wenn du etwas mehr zahlst, wird der Stromverbrauch deutlich! niedriger sein.

Hübie
2012-05-30, 11:11:47
Abgesehen davon dass ihr mittlerweile derbe OT seit ist es interessant zu lesen. HMC kannte ich noch nicht mal ;D
Im Prinzip machen es Smartphones und Tables bereits vor. SoC ist halt die Zukunft. Ich frage mich gerade ob die GPUs in smartphones eigenen RAM haben. Afaik nicht.

Um mal eben auf Kepler zurück zu kommen: Ich checke noch net ganz wie das mit vGPU funzt. Die GPU rendert in der Ferne eine Szene (ich spiele auf das Video der GTC an). Nun muss aber sehr viel Bandbreite vorhanden sein um dass auch in angemessener Qualität (f-HD, 32 bit ohne Kompression des Todes) per Internet/Intranet/Netzwerk zu transportieren oder? Das müssen ja mindestens 30-40 MBit (komprimiert) sein. Oder irre ich? Gibts dazu Specs/Vermutungen?

LG Hübie

Ailuros
2012-05-30, 11:14:24
Normalerweise muesste ich die ganze SoC Debatte in einen neuen Thread schleussen, aber da es so oder so momentan nichts Neues zu GK110 gibt, lass ich es mal voruebergehend stehen.

Sonst erlaube ich mir noch hinzuzufuegen dass auf einem SoC IMHO generell heterogeneous computing mehr Sinn macht als wo anders. Alle hw relevanten Debatten sind zwar stets schoen und gut, aber ich bezweifle dass jemand nicht zustimmen wuerde dass es generell auch im software Bereich egal wo immer noch so einiges gibt was man ausnutzen koennte.

Ergo werden hoechstwahrscheinlich zukuenftige Tendenzen wohl nicht nur auf hw-level begrenzen. Wie schon oft erwaehnt wenn jemand sagt wir haben Flaschenhals X, es wird aber in der naechsten Generation besser weil staerkere hw ankommt dann handelt es sich wohl eher um schlampiges engineering als alles andere.

Am Rand sind die mm2 Milchmaedchen-Rechnungen ausser den vorerwaehnten Punkten total nutzlos. Nicht nur weil in N Jahren sich hw RADIKAL weiterentwickelt, aber auch weil eben NICHT heutige Herstellungsprozesse als Massstab genommen werden koennen. Haette jemand vor sagen wir mal 5 Jahren erzaehlt dass N GPU processing power in ein Trinity SoC passt unter den heutigen Vorraussetzungen haetten wir ihn wohl platt ausgelacht. Ueberhaupt unter dem Licht was damals selbst high end GPUs an Leistung lieferten und bei N mm2 und Watts.

Skysnake
2012-05-30, 17:13:10
boxleitnerb, haste dir jetzt eigentlich mal meinen Link angeschaut, und was sagste dazu?

boxleitnerb
2012-05-30, 17:37:38
Jo hab ich, schönes Werbevideo. Es bleibt jedoch weiterhin die Frage, wie man sich bei so einem System einig wird bzgl. Stromversorgung, Kosten, Kühlung.

Mal angenommen, du hast wirklich nur noch eine Platine mit Sockeln, in die man CPUs, GPUs und HMCs steckt - sei es direkt neben CPU/GPU/APU oder weiter weg wie im Video gezeigt - gibt es weiterhin unterschiedliche Anforderungen. Du hast dann APUs mit unterschiedlichen TDPs von Intel, AMD, Nvidia, für deren Unterbau ein Standard wie bei ATX heute wünschenswert ist.

Oder bietet dann jeder IHV sein eigenes abgeschlossenes System mit GPU und CPU (ARM oder x86) an? Bei aller Ersparnis durch die fortschreitende Integration - wie soll das funktionieren? Hat man ein "Mainboard", das für N APUs ausgelegt ist bzgl. Stromversorgung und Kühlung und will dann mal aufrüsten, muss man dann alles entsorgen und komplett neu kaufen? Natürlich kann man die Platine gleich für Erweiterung fit machen, aber das wird dann wieder unnötig teuer.

Das sind die Fragen, die mich beschäftigen und ich weiß ehrlich nicht, wie du darauf kommst, dass so ein neues System nicht weniger flexibel ist als das, was wir heute haben. Wir haben heute standardisierte Schnittstellen und ab da kann der IHV machen was er will. Ich kann mir ein kostengünstiges Board und eine Highend-GPU kaufen oder ein Dual-Socket Board und eine Mickerkarte für mehr Displays. Die getrennte Lösung gibt mir Flexibilität bei Performance, Kosten, Kühlung, Features etc.
Erklär mir mal, wie du das alles übertragen willst. Und komm mir jetzt nicht mit "der Kunde will eh nicht entscheiden" ;)

Skysnake
2012-05-30, 17:56:43
Jo hab ich, schönes Werbevideo. Es bleibt jedoch weiterhin die Frage, wie man sich bei so einem System einig wird bzgl. Stromversorgung, Kosten, Kühlung.

Dafür ist der Zuständig, der die Platine baut, wie bei den GPUs und Mainboards auch heute schon.


Mal angenommen, du hast wirklich nur noch eine Platine mit Sockeln, in die man CPUs, GPUs und HMCs steckt - sei es direkt neben CPU/GPU/APU oder weiter weg wie im Video gezeigt - gibt es weiterhin unterschiedliche Anforderungen. Du hast dann APUs mit unterschiedlichen TDPs von Intel, AMD, Nvidia, für deren Unterbau ein Standard wie bei ATX heute wünschenswert ist.

Vergiss die Sockel. Sockel sterben aus.

Sockel bedeuten Steckverbindungen.

Steckverbindungen bedeuten eine schlechte Signalqualität

Eine schlechte Signalqualität beudeutet mehr Spannung und/oder geringere Taktraten

Höhere Spannungen beuden mehr Stromverbrauch
Geringere Taktraten bedeuten weniger Leistung

Weniger Leistung oder mehr Stromverbrauch bedeuten schlechtere Perf/W

schlechtere Perf/W bedeuten mehr Kosten für den Betrieb.

Soweit alles klar? ;)

Du kannst Sockel einfach nicht mehr lange am Leben halten. GDDR5 z.B. wäre mit Sockeln nicht zu machen.

PCI-E 4 wird entweder weniger weit entfernte Slots zulassen, oder aktive Signalverstärker erfordern, was die Kosten explodieren lässt, wenn man auf 32GB/S bei 16x hoch will. usw usw usw.

Man kann sich Sockel schlicht nicht mehr erlauben. Wir kommen an Grenzen, wo uns die Sockel das Genick brechen. Du hast also die Wahl zwischen Stillstand, Fortschritt mit explodierenden PCB Preisen oder eben Fortschritt mit dem Verzicht auf Sockel und gleichzeitig noch Kostenersparnis.


Oder bietet dann jeder IHV sein eigenes abgeschlossenes System mit GPU und CPU (ARM oder x86) an?

Ja das ist durchaus eine gute Frage. Hier bedürfte es schlichtweg offener Standards wie HT, durch die viele unterschiedliche Hersteller ihre Chips miteinander verbinden können.


Bei aller Ersparnis durch die fortschreitende Integration - wie soll das funktionieren? Hat man ein "Mainboard", das für N APUs ausgelegt ist bzgl. Stromversorgung und Kühlung und will dann mal aufrüsten, muss man dann alles entsorgen und komplett neu kaufen? Natürlich kann man die Platine gleich für Erweiterung fit machen, aber das wird dann wieder unnötig teuer.

Wird so laufen wie heute schon bei den Servern. Du hast halt ne gewisse Auswahl aus vorkonfigurierten Systemen und kannst dann daraus auswählen. Bei Dell werden die PCs ja z.B. auch erst nach der Bestellung gebaut, wenn ich das richtig im Kopf habe.

Aufrüsten ist dann nicht, wobei das den Herstellern durchaus in den Kram passen würde. Ist dann halt wie bei Fernsehern, Radios usw usw heute schon. Ist was kaputt, kaufste das Ding einfach komplett neu, weil die Reperatur teurer wäre als einfach neu zu kaufen. Ist halt so. Dafür bekommste auch mehr für dein Geld.


Das sind die Fragen, die mich beschäftigen und ich weiß ehrlich nicht, wie du darauf kommst, dass so ein neues System nicht weniger flexibel ist als das, was wir heute haben.

Apriori ist das nicht weniger Flexibel. Man muss sich nur vor dem Kauf entscheiden, was man will. Das Aufrüsten fällt sozusagen weg. Genau wie das selbst am PC schrauben und dieses hinzufügen oder jenes. Das übernimmt dann halt ein Fachhändler, welcher eventuell auch einen neuen Chip drauf löten kann. Hier wird sich eventuell was ergeben, aber ich glaube eher nicht.

Du solltest allerdings auch an die Update-Gutscheine von Intel denken. ;)

Damit hättest du deine Aufrüstbarkeit in einem gewissen Rahmen erhalten. Muss halt nen Code eingeben und gut ist. Haste nen besseren Rechner dastehen ;)


Wir haben heute standardisierte Schnittstellen und ab da kann der IHV machen was er will. Ich kann mir ein kostengünstiges Board und eine Highend-GPU kaufen oder ein Dual-Socket Board und eine Mickerkarte für mehr Displays. Die getrennte Lösung gibt mir Flexibilität bei Performance, Kosten, Kühlung, Features etc.
Erklär mir mal, wie du das alles übertragen willst. Und komm mir jetzt nicht mit "der Kunde will eh nicht entscheiden" ;)
Es gibt ja nicht nur einen Hersteller mit einem Angebot. Firmen wie Dell, HP usw. werden dann halt deine Ansprechpartner/Verkäufer sein statt Gigabyte, ASUS, XFX usw. Du gehst dann halt zu Dell, HP usw. hin, schaust dir an was Sie haben, und was dir am Besten zusagt. Aus die Maus. So ist es heute doch praktisch auch, nur das du ein paar Firmen mehr hast, und eben selbst schrauben musst/darfst. Das fällt dann halt weg.

Die Welt dreht sich weiter, also verändert sich. Man muss sich daran anpassen, oder aber man bleibt auf der Strecke.

boxleitnerb
2012-05-30, 18:10:20
Dafür ist der Zuständig, der die Platine baut, wie bei den GPUs und Mainboards auch heute schon.


Vergiss die Sockel. Sockel sterben aus.

Sockel bedeuten Steckverbindungen.

Steckverbindungen bedeuten eine schlechte Signalqualität

Eine schlechte Signalqualität beudeutet mehr Spannung und/oder geringere Taktraten

Höhere Spannungen beuden mehr Stromverbrauch
Geringere Taktraten bedeuten weniger Leistung

Weniger Leistung oder mehr Stromverbrauch bedeuten schlechtere Perf/W

schlechtere Perf/W bedeuten mehr Kosten für den Betrieb.

Soweit alles klar? ;)

Du kannst Sockel einfach nicht mehr lange am Leben halten. GDDR5 z.B. wäre mit Sockeln nicht zu machen.

PCI-E 4 wird entweder weniger weit entfernte Slots zulassen, oder aktive Signalverstärker erfordern, was die Kosten explodieren lässt, wenn man auf 32GB/S bei 16x hoch will. usw usw usw.

Man kann sich Sockel schlicht nicht mehr erlauben. Wir kommen an Grenzen, wo uns die Sockel das Genick brechen. Du hast also die Wahl zwischen Stillstand, Fortschritt mit explodierenden PCB Preisen oder eben Fortschritt mit dem Verzicht auf Sockel und gleichzeitig noch Kostenersparnis.


Dann sag doch mal konkret, wie die Chips aufs Board kommen. Du schreibst:
durch stackedChips/TSV, Interposer und davor eben verlötete Systeme die noch auf ein PCB zurückgreifen

Also kein Sockel, kein Löten in letzter Konsequenz - was dann?


Ja das ist durchaus eine gute Frage. Hier bedürfte es schlichtweg offener Standards wie HT, durch die viele unterschiedliche Hersteller ihre Chips miteinander verbinden können.


Wird so laufen wie heute schon bei den Servern. Du hast halt ne gewisse Auswahl aus vorkonfigurierten Systemen und kannst dann daraus auswählen. Bei Dell werden die PCs ja z.B. auch erst nach der Bestellung gebaut, wenn ich das richtig im Kopf habe.

Aufrüsten ist dann nicht, wobei das den Herstellern durchaus in den Kram passen würde. Ist dann halt wie bei Fernsehern, Radios usw usw heute schon. Ist was kaputt, kaufste das Ding einfach komplett neu, weil die Reperatur teurer wäre als einfach neu zu kaufen. Ist halt so. Dafür bekommste auch mehr für dein Geld.


Apriori ist das nicht weniger Flexibel. Man muss sich nur vor dem Kauf entscheiden, was man will. Das Aufrüsten fällt sozusagen weg. Genau wie das selbst am PC schrauben und dieses hinzufügen oder jenes. Das übernimmt dann halt ein Fachhändler, welcher eventuell auch einen neuen Chip drauf löten kann. Hier wird sich eventuell was ergeben, aber ich glaube eher nicht.

Du solltest allerdings auch an die Update-Gutscheine von Intel denken. ;)

Damit hättest du deine Aufrüstbarkeit in einem gewissen Rahmen erhalten. Muss halt nen Code eingeben und gut ist. Haste nen besseren Rechner dastehen ;)


Es gibt ja nicht nur einen Hersteller mit einem Angebot. Firmen wie Dell, HP usw. werden dann halt deine Ansprechpartner/Verkäufer sein statt Gigabyte, ASUS, XFX usw. Du gehst dann halt zu Dell, HP usw. hin, schaust dir an was Sie haben, und was dir am Besten zusagt. Aus die Maus. So ist es heute doch praktisch auch, nur das du ein paar Firmen mehr hast, und eben selbst schrauben musst/darfst. Das fällt dann halt weg.

Die Welt dreht sich weiter, also verändert sich. Man muss sich daran anpassen, oder aber man bleibt auf der Strecke.

Also da widersprichst du dir doch grad ziemlich. Wenn ich mich vor dem Kauf dauerhaft festlegen und Einschränkungen in Kauf nehmen muss, ist es eben NICHT so flexibel wie heute. Da gibt es doch gar nichts zu diskutieren, das ist völlig logisch.

Und der Fachhändler...genau. Ich bring meinen PC zum Fachhändler oder schicke ihn ein, wenn ich ein Upgrade will. In der Zwischenzeit habe ich kein System. Sehr sinnvoll.
Und das mit dem Code kannste auch vergessen außer in sehr kleinem Umfang:
Rechner wird dem Sohnemann weitergegeben, vorher wurde daran nicht gespielt, jetzt will er BF5 in 3D spielen. Ups, das "Board" ist nur für 150W ausgelegt? Will Nvidia haben, aber es passt vielleicht nur AMD drauf, weil es ein Komplettpaket war? Sehr flexibel, muss schon sagen.

Du magst damit Recht haben, dass so Geschichten einen Großteil der Kunden nicht interessiert/interessieren wird. Aber dass die schöne neue Welt nicht weniger flexibel ist, wenn sie in etwa so kommt, ist schlicht und ergreifend falsch.

Skysnake
2012-05-30, 18:37:57
Dann sag doch mal konkret, wie die Chips aufs Board kommen. Du schreibst:


Also kein Sockel, kein Löten in letzter Konsequenz - was dann?


Ähm du bringst hier zwei Sachen durcheinander. Auf ein PCB wirst du wohl nie ganz verzichten könnten. Es geht aber darum, wie die Chips untereinander angebunden werden.

Bei nem SOC ists einfach, da haste halt alles wesentliche auf nem einzelnen Chip. Anbindungsproblem trivial gelöst.

Bei nem Multi-DIE-"SOC" ist das schon schwieriger. Es geht eigentlich praktisch nur darum, die einzelnen Teile näher zusammen zu bringen. Bei gewissen Leistungsklassen passt das halt nicht mehr auf einen DIE, weil alles >500mm² eben irrsinn ist zu fertigen. Du hast also folgende Möglichkeiten:


Die einzelnen Chips sind auf EINEM! gemeinsamen PCB mit Sockeln: Schlechte Idee, da wir ja schon gesehen haben, das Sockel auf Dauer scheise sind, und wenn wir ein komplett neues System/Standard machen, dann doch bitte gleich richtig
Die einzelnen Chips auf EINEM! gemeinsamen PCB mit Lötverbindungen: Naja, wir haben noch ein PCB, aber die ollen Sockel sind schon mal weg. Für den Übergang ist das wohl sogar vertretbar, da man relativ ähnliche MBs wie heute verwenden könnte.
Chips werden per TSV gestapelt: Ja das ist mal ne gute Idee. Man kann z.B. kleine "RAM"s direkt an der CPU/GPU anfügen, um größere Puffer zu haben, was die Bandbreitenanforderungen oft abfedert. Man könnte auch CPU und GPU zusammen packen. Problem: Naja, sooo viele Lagen kannste da auch nicht machen, und man muss mit der Verlustleistung aufpassen
Chips per Interposer verbinden: Ja DAS ist jetzt wirklich schon geschickt. Man alles, was man mit TSV kann, hat aber mehr Fläche für die Kühlung. Dafür brauch man halt den Interposer, welcher leider auch Geld kostet. Sollte aber besser skalieren als TSV.
TSV+Interposer: JUP DAS ist es. Wir können praktisch sehr sehr sehr große Chips bauen, können aber auch die Wärme abführen usw usw usw. Halt alle Vorteile der einzelnen Techniken mit fast keinen Nachteilen, auser halt den Fertigungsproblemen/Investitionskosten bis man das alles mal am laufen hat.


Das war jetzt die Verbdingung zwischen den Chips dieses "SOC"s.

Dieses ganze gebilde kannste/musste dann aber wiederum mit einem PCB/Mainboard verbinden, um die Anschlüsse für USB, Monitor, Festplatten usw usw zur Verfügung zu stellen. Das kann dann entweder per Sockel, oder Lötverbindung realisiert werden, da hier die Anforderungen deutlich geringer sind, als zwischen dein einzelnen Chips des "SOC"s. Nur dort wird auf mittlere Frist auch die Lötverbindung aussterben. Also Quasi wie bei GPUs, wo die GPU und der RAM auf einem PCB verlötet ist. Das geht halt in Zukunft dann nicht mehr. Nen 1024 Bit Interface bauste halt nicht auf nen PCB. zudem sind da die Wege länger usw usw usw..

Auf dem "Mainboard" könnte man dann auch noch zusätzliche Netzwerkkarten oder so anbringen, was aber wenig Sinn macht. Da würde eigentlich nur noch I/O Zeugs sitzen, einfach weil man die Sachen besser in den SOC integrieren kann. Es würde aber auch gar keinen Sinn machen dort Sockel what ever für Sachen wie ne GPU oder so an zu bringen, weil man da sehr ineffizient arbeiten würde. Da die Industrie dann gefragt, einen Standard ähnlich HT zu finden, der es den einzelnen Chips ermöglicht miteinander zu kommunizieren, und so direkt in den Multi-DIE"SOC" integriert zu werden per TSV und/oder Interposer und ganz am Anfang halt auf nem eigenen PCB für diesen "SOC"

Du musst da die zeitliche Entwicklung mit rein nehmen. Die Sache mit dem verlöten auf einem PCB wäre nur als Übergangslösung zu sehen.



Also da widersprichst du dir doch grad ziemlich. Wenn ich mich vor dem Kauf dauerhaft festlegen und Einschränkungen in Kauf nehmen muss, ist es eben NICHT so flexibel wie heute. Da gibt es doch gar nichts zu diskutieren, das ist völlig logisch.


Wie gesagt, du könntest ja durchaus eventuell CPU/GPU/RAM als eine Komponenten zusammen tauschen, wobei ich bezweifle, das sich das wirklich rechnet. Ist halt wie wenn man heute ne GPU wechselt, da muss man halt auch das komplette Ding tauschen. Da kannste auch nicht die eigentliche GPU tauschen, und den Rest behalten. So wirds halt auch mit dem CPU/GPU/RAM Verbund passieren. Eine zusammenhängende Komponente und fertig. Die Leute können sich dann eventuell noch an Kühlern, Netzteilen und Gehäusen austoben.


Und der Fachhändler...genau. Ich bring meinen PC zum Fachhändler oder schicke ihn ein, wenn ich ein Upgrade will. In der Zwischenzeit habe ich kein System. Sehr sinnvoll.
Und das mit dem Code kannste auch vergessen außer in sehr kleinem Umfang:

Eine mögliche Leistungssteigerung von 20% ist absolut ausreichend. Das sollte auch mit den Yealds verträglich sein. Zumal man ja eben auch einfach von vorne Weg etwas von der gewonnen Leistung durch die Integration beschneiden kann, um sie dem Kunden dann in einem zweiten Schritt zu verkaufen.


Rechner wird dem Sohnemann weitergegeben, vorher wurde daran nicht gespielt, jetzt will er BF5 in 3D spielen. Ups, das "Board" ist nur für 150W ausgelegt? Will Nvidia haben, aber es passt vielleicht nur AMD drauf, weil es ein Komplettpaket war? Sehr flexibel, muss schon sagen.

Und so ist das Problem? Der "Sohnemann" will auch oft nicht das alte Gammelhandy vom Papa, sondern sein eigenes.


Du magst damit Recht haben, dass so Geschichten einen Großteil der Kunden nicht interessiert/interessieren wird. Aber dass die schöne neue Welt nicht weniger flexibel ist, wenn sie in etwa so kommt, ist schlicht und ergreifend falsch.
Ich hab doch gesasgt, man verliert die Möglichkeit des Aufrüstens und bastelns. Das wars aber. Das ist nur eine vermeintliche Flexibilität NACH dem Kauf, Denn sind wir doch mal ehrlich, kaum jemand tauscht seine CPU nach dem Kauf gegen ein stärkeres Modell. Bei der GPU ist das schon wahrscheinlicher, aber im Großen und Ganzen bleiben die Rechner so wie Sie sind.

Die paar Hansel, wie wir, die sich halt in Foren wie diesen Rumtreiben müssen sich damit halt abfinden, das ihr Hobby halt teilweise ausstirbt. Pech gehabt. Darauf wird sicherlich keine Rücksicht genommen, und das ist auch gut so, auch wenn ich selbst das Schrauben vermissen werde.

Am Auto würde ich auch gern rumschrauben, aber das geht halt heutzutage auch nicht mehr. So ist halt der Gang der Dinge. Wenn ich rumschrauben will, muss ich mir halt ne alte Kiste holen, mit all ihren Nachteilen. Da verzichte ich am Ende doch gern darauf schrauben zu können und freu mich über <=50% Spritverbrauch usw usw usw.

OgrEGT
2012-05-30, 20:25:45
Angesichts der Diskussion hier müsste wohl auch unterschieden werden von welchen Marktsegmenten ihr sprecht. Wohl nicht vom Enthusiast 3D Gaming. Heute ist es doch bereits so, dass die Spieleperformance weder von der RAM Anbindung oder dem Datendurchsatz von PCIe abhängt, noch nicht mal großartig von der Leistungsfähigkeit der CPU.

Somit hängt die 3D Gaming Leistung hauptsächlich an der verwendeten Grafikkarte, sodass all die Diskussion um die Verbindung von CPU, GPU, RAM per Sockelsystem (heute) oder durch direkte Point-to-Point Verbindungen sinnlos ist.

Modularer Aufbau macht nur bei der GPU Sinn, wobei einfach n Chips per Interposer zusammengeschaltet werden, um die Fertigung von monolithischen Dies in Zukunft zu vermeiden.

Skysnake
2012-05-30, 20:47:06
Ach und bei welchen SI-Breiten sind wir trotz GDDR5 wieder angelangt, und wo limitiert beim GK104 das SI nicht, bzw ist am Limit?

Ganz abgesehen davon haben bereits heute so manche Spiele einen geringen Vorteil von PCI-E 3.0.

Ganz abgesehen davon, das du so ein neue Systemkonzept für >=10 Jahre baust. Da entwickelt sich die Technik extrem weiter.

Ganz zu schweigen davon, das mit solch einem reavolutionär anderem System eben Probleme angegangen werden könnten, die heute gar nicht auf die dedizierte GPU gebracht werden können, weil die Latenzen zu hoch sind.

Und auch ansonsten ist das halt heterogen computing, und dass das klare Vorteile bringt für den Programmierer, weil er sich um viele Sachen nicht mehr kümmern muss, wie Speichertransfers, die halt erstmal Leistung fressen.

G3cko
2012-05-31, 10:02:14
Bei den "enormen" Leistungssteigerungen die wir zur Zeit haben reicht PCI-E 3.0 locker 10 Jahre. :freak:

OgrEGT
2012-05-31, 23:08:05
Ach und bei welchen SI-Breiten sind wir trotz GDDR5 wieder angelangt, und wo limitiert beim GK104 das SI nicht, bzw ist am Limit?
Ich bin kein Entwickler bei NV. Ich bin mir aber ziemlich sicher, dass man den leistungsmäßig besten Kompromiss aus GPU+SI bei vorgegebener maximaler Verlustleistung und optimierten Fertigungskosten gewählt hat.

Die derzeit erhältlichen Speicherbandbreiten der Speicherinterfaces sind aktuell einfach ausreichend für die gebotene GPU Leistung. Nix besonderes. Und, es ist noch Luft nach oben á la 512bit@7Gbps GDDR5 = 448Gb/s

Ganz abgesehen davon haben bereits heute so manche Spiele einen geringen Vorteil von PCI-E 3.0.
Sag ich doch.

Ganz abgesehen davon, das du so ein neue Systemkonzept für >=10 Jahre baust. Da entwickelt sich die Technik extrem weiter.
So wie Du es versuchst zu präsentieren hört sich das nicht sehr überzeugend an.

Ganz zu schweigen davon, das mit solch einem reavolutionär anderem System eben Probleme angegangen werden könnten, die heute gar nicht auf die dedizierte GPU gebracht werden können, weil die Latenzen zu hoch sind.

Und auch ansonsten ist das halt heterogen computing, und dass das klare Vorteile bringt für den Programmierer, weil er sich um viele Sachen nicht mehr kümmern muss, wie Speichertransfers, die halt erstmal Leistung fressen.
Ich sagte schon, dass ihr beiden an einander vorbei geredet habt. Du redest wohl immer von GPGPU GPU's.

boxleitnerb
2012-05-31, 23:10:16
Jo, ich bin Spieler und da interessieren mich ausschließlich Geforce-Produkte und 3D-Grafik. Hier sehe ich kein Skalierungsproblem.

Skysnake
2012-05-31, 23:42:54
Für GPGPU reichts es aber bei weitem nicht, und da MUSS sich vieles ändern. Für Gameing und GPGPU haste aber nicht zwei komplette Speichertechnologien. Vor allem weil du die bessere ja eh für GPGPU brauchst. Für die kleine Gamerkiste kannste dann halt einfach nach unten skalieren und so Geld sparen.

Die Technik orientiert sich da immer an den maximal erforderlichen Leistungsansprüchen.

Oder meinter nicht ma würde das einfach mitnehmen, statt nem 256Bit Interface nur noch ein 64 Bit Interface verbauen zu müssen, und durch die Massenproduktion die Preise auch für die GPGPU Karten zu senken?

Du musst bei sowas immer mit der kompletten Palette dran, ansonsten bekommste die Kosten für die Forschung, Entwicklung usw. nicht rein. Da ist Massenproduktion angesagt, und zwar so viel wie möglich.

AffenJack
2012-05-31, 23:58:19
Für GPGPU reichts es aber bei weitem nicht, und da MUSS sich vieles ändern. ...
Die Technik orientiert sich da immer an den maximal erforderlichen Leistungsansprüchen.


Der 2te Satz ist sehr schön, er zeigt nämlich, dass der Gpgpu Markt anscheinend nicht mehr Bandbreite als 384Bit bei Kepler braucht, sonst wäre man sicher auf 512Bit gegangen und hätte paar Shadercluster gestrichen.
Nvidia wird 384Bit gegen 512Bit sicherlich sehr genau bei ihrem auf HPC optimierten Chip abgewogen haben, aber anscheinend braucht HPC dann doch nicht soviel Bandbreite in der Regel, wie du uns immer weissmachen willst.

Hübie
2012-06-01, 01:52:40
Man muss halt Kompromisse eingehen. Und Bandbreite kann man auf verschiedene Art und Weise nutzen. Schau dir doch bspw. mal PCI-E 2.0 vs. 3.0 an (als lapidares Beispiel).
Auch beiu GPGPU kommts halt darauf an was du damit berechnest. Schnöde Primzahlen brauchen sicher nicht die Bandbreite wie Milliarden von Koordinaten...

G3cko
2012-06-01, 08:53:57
Wahrscheinlicher ist doch, dass man die 384Bit deswegen bevorzugt, weil der 28nm Prozess deutlich länger genutzt werden muss. So kann man am Ende mit der letzten Generation wieder ein noch etwas größeres Monster auf den Markt werfen.

Ailuros
2012-06-01, 11:53:47
Wahrscheinlicher ist doch, dass man die 384Bit deswegen bevorzugt, weil der 28nm Prozess deutlich länger genutzt werden muss. So kann man am Ende mit der letzten Generation wieder ein noch etwas größeres Monster auf den Markt werfen.

Hmmm da GK110 ohnehin schon 550mm2 gross sein wird anscheinend, sehe ich unter dem gleichen Prozess keine besonderen Chancen dass NV noch etwas drauf stecken kann. 550 ist ohnehin schon viel zu nahe am theoretischen maximalen Rand von 600mm2 fuer 28nm.

Man muss halt Kompromisse eingehen. Und Bandbreite kann man auf verschiedene Art und Weise nutzen. Schau dir doch bspw. mal PCI-E 2.0 vs. 3.0 an (als lapidares Beispiel).
Auch beiu GPGPU kommts halt darauf an was du damit berechnest. Schnöde Primzahlen brauchen sicher nicht die Bandbreite wie Milliarden von Koordinaten...

Genau. Noch dazu kommt dass eben unter 28nm fuer GK110 nicht mehr moeglich war (deshalb wohl auch die relativ "krumme" Anzahl der Einheiten). In Randfaellen wuerde ich schon sagen dass ein 512bit bzw. mehr Bandbreite etwas bringen wuerde fuer HPC. Die Frage ist dann nicht wie oft man etwas wirklich braucht (wie z.B. in Randfaellen) sondern wie dringend man es wirklich braucht. Und natuerlich ist in solchen Faellen jeglicher "Drang" auch relativ zu dem was ein jegliches engineering team wirklich als "dringend" empfindet unter gegebenen Voraussetzungen und ja natuerlich dieses beinhaltet auch jederlei Kompromisse.

Hübie
2012-06-01, 13:45:32
Wahrscheinlicher ist doch, dass man die 384Bit deswegen bevorzugt, weil der 28nm Prozess deutlich länger genutzt werden muss. So kann man am Ende mit der letzten Generation wieder ein noch etwas größeres Monster auf den Markt werfen.

Die yields will dann sehen :rolleyes: Halte ich für unwahrscheinlich. Ich wette das GK110 sich so oder so schon quälen muss. Steht mittlerweile fest wieviel Cluster die nun "aktivieren"??

Ph0b0ss
2012-06-01, 14:09:04
Wahrscheinlicher ist doch, dass man die 384Bit deswegen bevorzugt, weil der 28nm Prozess deutlich länger genutzt werden muss. So kann man am Ende mit der letzten Generation wieder ein noch etwas größeres Monster auf den Markt werfen.

Da wird man wohl bei 384bit bleiben und einfach 20-30% Speichertakt drauflegen.

AnarchX
2012-06-01, 16:53:59
Sofern so schneller GDDR5 verfügbar sein wird. 7Gbps GDDR5 wurde schon lange angekündigt, aber als verfügbar listet ihn noch kein Hersteller.

Ph0b0ss
2012-06-01, 17:49:28
Sofern so schneller GDDR5 verfügbar sein wird. 7Gbps GDDR5 wurde schon lange angekündigt, aber als verfügbar listet ihn noch kein Hersteller.

Der Refresh bzw. Nachfolger vom GK110 in 28nm wird ja frühestens 2014 kommen. Bis dahin wird es doch sicher 7-8Gbps Speicher geben?

Gipsel
2012-06-01, 17:55:54
Der Refresh bzw. Nachfolger vom GK110 in 28nm wird ja frühestens 2014 kommen. Bis dahin wird es doch sicher 7-8Gbps Speicher geben?
Wie AnarchX schon schrieb, gibt es 7 GBps GDDR5 angeblich auch schon seit 3 Jahren oder so. Allein, niemand kann den kaufen (der existiert schlicht nicht abseits von ein paar Prototypen). Mal Dir also aus, wann 8 GBps kommt, der noch nicht einmal angekündigt wurde. Wahrscheinlich in etwa zeitgleich mit GDDR6 oder XDR3 ;)

Duplex
2012-06-01, 17:57:41
Es wird 2014 kein GK110 Refresh kommen, 2014 gibt es bereits 20nm. (5000-6000 Shader)

AnarchX
2012-06-01, 18:01:08
Der Refresh bzw. Nachfolger vom GK110 in 28nm wird ja frühestens 2014 kommen. Bis dahin wird es doch sicher 7-8Gbps Speicher geben?
Für 2014 ist Maxwell geplant, der unter 20nm gefertigt werden soll, auch wenn die Transistoren/Wafer laut aktuellen Projektionen relativ teuer sein könnten.
Vielleicht kann man 2014 schon auf erste Ergebnisse der Hybrid Memory Cube Entwicklung zurückgreifen.

Skysnake
2012-06-02, 11:10:26
Der 2te Satz ist sehr schön, er zeigt nämlich, dass der Gpgpu Markt anscheinend nicht mehr Bandbreite als 384Bit bei Kepler braucht, sonst wäre man sicher auf 512Bit gegangen und hätte paar Shadercluster gestrichen.
Nvidia wird 384Bit gegen 512Bit sicherlich sehr genau bei ihrem auf HPC optimierten Chip abgewogen haben, aber anscheinend braucht HPC dann doch nicht soviel Bandbreite in der Regel, wie du uns immer weissmachen willst.
Und wo hätte man das zusätzliche 128 Bit Interface unterbingen sollen bei einem GF1x0 der ~520mm² groß ist? Und weiß du auch wieviel teurer das PCB geworden wäre mit den zusätzlichen 128 Bit Interface?

Gebrauchen könnte man das auf jeden Fall, nur wäre es die Mehrkosten nicht wert gewesen. Bzw. man hätte wohl Shader opfern müssen für ein breiteres SI, womit der Gamer-Bereich null hätte anfangen können, und eben im HPC Bereich auch die Maximalleistung runter gegangen wäre, aber die Min/Durchschnittsleistung hoch gegangen wäre.

Unterm Strich waren die 384 Bit der bessere Kompromiss. Die Karte muss sich zur Deckung der R&D Kosten ja auch gut im Gamerbereich verkaufen, und im HPC-Bereich hatte man zu dem Zeitpunkt keinen Gegner.

Mit MIC und der kommenden FirePro Serie ändert sich das aber grundlegend.

Was noch gegangen wäre, wäre schnellerer GDDR5 Speicher, aber da hats bei nVidia wohl am Speichercontroller gelegen, was mit Kepler aber anscheinend behoben wurde.

Hmmm da GK110 ohnehin schon 550mm2 gross sein wird anscheinend, sehe ich unter dem gleichen Prozess keine besonderen Chancen dass NV noch etwas drauf stecken kann. 550 ist ohnehin schon viel zu nahe am theoretischen maximalen Rand von 600mm2 fuer 28nm.



Genau. Noch dazu kommt dass eben unter 28nm fuer GK110 nicht mehr moeglich war (deshalb wohl auch die relativ "krumme" Anzahl der Einheiten). In Randfaellen wuerde ich schon sagen dass ein 512bit bzw. mehr Bandbreite etwas bringen wuerde fuer HPC. Die Frage ist dann nicht wie oft man etwas wirklich braucht (wie z.B. in Randfaellen) sondern wie dringend man es wirklich braucht. Und natuerlich ist in solchen Faellen jeglicher "Drang" auch relativ zu dem was ein jegliches engineering team wirklich als "dringend" empfindet unter gegebenen Voraussetzungen und ja natuerlich dieses beinhaltet auch jederlei Kompromisse.
Es würden sich definitiv viele Leute darüber freuen, wenn Sie mehr Speicherbandbreite hätte, einfach weil die Optimierung der Software damit einfach wird, da man mehr Spielraum hat und nicht jede kleinste nicht optimale Ausnutzung des SI einem direkt einen entsprechenden Performanceverlust einbringt. Das ist einfach ätzend, wenn man praktisch nur ums SI herum programmiert, und sich den Kopf zermartert, wie man denn nicht hier noch einen Speicherzugriff einsparen könnte...

OgrEGT
2012-06-03, 13:58:24
Was mir bei den 15SMX immer in den Sinn kommt, sind die damals 15/16 aktiven SM's bei GF100. Obwohl ich den vermeintlichen Dieshot des GK110 vor mir sehe, und ebenfalls 15SMX zähle, kann es theoretisch sein, dass 1 SMX in GK110 nicht aktiv ist?

Captain Future
2012-06-03, 14:01:17
KLar, aber dann hat er eben 14 aktive SMs

Skysnake
2012-06-03, 14:03:28
jup.

Man sollte nicht denken, dass da jetzt noch ein Cluster fehlt. Das Design ist halt asymmetrisch, weil halt die DIE-Size ausgegangen ist. Da konnte man keinen mehr unter bringen. Aus die Maus.

OgrEGT
2012-06-03, 14:09:35
Klar. Ich meinte, ob von Anfang an gleich der Vollausbau launchen wird, weil ich mich frage, wie der Chip dann später auf dem gleichen Herstellprozess noch groß skalieren kann (außer Taktschraube)... Bis 20nm dauerts noch eine ganze Weile...

Skysnake
2012-06-03, 14:13:24
Es wurde doch schon gesagt, dass der K20 zunächst als teildeaktivierter Chip mit nur 13 oder 14 SMX kommen wird.

Ich meine mich zumindest daran erinnern zu können, dass das im LiveStream gesagt wurde.

EDIT:

Btw.: Da wir es vom MemoryCube vorher hatten, hier noch was:
http://youtu.be/tO6yLunfdjA?hd=1&t=18m47s

Als Kurzfassung. Mit einem einzelnen Channel 128 GB an Daten :biggrin:

Jetzt überlegt mal, was das an Kostenersparnis bedeutet. Da kommt selbst der GK110 Nachfolger mit nem relativ schmalen Speicherinterface aus. Wenn ich mich nämlich richtig erinnere bezieht sich der Channel hier nämlich auf gerade einmal 2 differenzielle Leitungen und das wars. Nagelt mich darauf aber bitte nicht fest.

Ich denke, das verdeutlich ganz gut, welche Möglichkeiten sich damit ergeben.

Der Rest vom Video ist auch ganz nett. Kann man sich mal anschauen. Der Schluss hat zwar meiner Meinung nach nichts in so einem Vortrag zu suchen, weil das jeder wissen sollte, der in so nem Vortrag sitzt, aber hier wirds sicherlich der eine oder andere interessant finden ;)

Ailuros
2012-06-04, 12:02:32
Was mir bei den 15SMX immer in den Sinn kommt, sind die damals 15/16 aktiven SM's bei GF100. Obwohl ich den vermeintlichen Dieshot des GK110 vor mir sehe, und ebenfalls 15SMX zähle, kann es theoretisch sein, dass 1 SMX in GK110 nicht aktiv ist?

Wenn es tatsaechlich nur 5 GPCs sind und 3 SMXs/GPC dann wohl definitiv nein.


Es würden sich definitiv viele Leute darüber freuen, wenn Sie mehr Speicherbandbreite hätte, einfach weil die Optimierung der Software damit einfach wird, da man mehr Spielraum hat und nicht jede kleinste nicht optimale Ausnutzung des SI einem direkt einen entsprechenden Performanceverlust einbringt. Das ist einfach ätzend, wenn man praktisch nur ums SI herum programmiert, und sich den Kopf zermartert, wie man denn nicht hier noch einen Speicherzugriff einsparen könnte...

Bei einem 550mm2/28nm chip wie GK110 und hypothetischem 512bit bus, kann ich mir nur vorstellen dass NV andere Einheiten haette opfern koennen um einen breiteren Bus unterzubringen und nicht die 550mm2 zu sprengen.

Die brennende Frage ist dann ob das Endresultat im absoluten Durchschnitt fuer HPC besser aussieht als mit den heutigen Spezifikationen, denn fuer 3D zumindest wuerde so ein Ding mit Sicherheit weniger Leistung liefern trotz dem 512bit bus.

Skysnake
2012-06-04, 14:55:29
Overall wuerde die Leistung wohl zurueck gehen, und gerade fur DGEMM soll das 384Bit Interface ausreichend sein, was wohl am wichtigsten ist. Da schlaegt der groessere L2 halt zu.

Es ist halt das geringere Uebel anstatt Einheiten zu opfern.

Ailuros
2012-06-04, 15:58:25
Es ist halt das geringere Uebel anstatt Einheiten zu opfern.

Eben ;)

Dimon
2012-06-04, 17:23:16
Schon bekannt?

http://www.expreview.com/19619.html

mfg
Dimon

boxleitnerb
2012-06-04, 17:25:57
Nette Balken, da sie das "simuliert" haben, leider völlig nutzlos, was die da gemacht haben. 1GHz Boost Clock? Bissl viel...

AnarchX
2012-06-04, 17:27:54
Die Chinesische Rezeption eines deutschen Artikels (http://www.ocaholic.ch/xoops/html/modules/smartsection/item.php?itemid=747&page=0) verlinkt. ;D ;)

Ist aber nur eine grobe Schätzung/Simulation Seitens ocaholic und ziemlich sinnlos.

Skysnake
2012-06-04, 18:39:02
was haben die bitte vor dem Artikel geraucht? :ugly:

Sorry, aber das ist doch total banane... Schneller als ei GTX680 SLI bei so viel weniger ALUs usw :ugly:

Duplex
2012-06-04, 19:46:15
Bei 2880 Shader & weniger GPU Takt sollte sich die Karte ca. 20% hinter der GTX690 einordnen, alles andere wäre zu optimistisch.
Ursprünglich (2011) ist man bei BigK mit Hotclocks von 1024-1D Shader & 80% mehr Leistung als GF110 ausgegangen...

Ailuros
2012-06-05, 13:48:11
Bei 2880 Shader & weniger GPU Takt sollte sich die Karte ca. 20% hinter der GTX690 einordnen, alles andere wäre zu optimistisch.
Ursprünglich (2011) ist man bei BigK mit Hotclocks von 1024-1D Shader & 80% mehr Leistung als GF110 ausgegangen...

Anfang 2011 hatten wohl wenige Sterbliche von uns eine Ahnung dass die hotclocks weg sind; trotz allem hab ich persoenlich auch so viel mehr als nur 1024SPs + hotclock fuer Kepler high end erwartet.

AnarchX
2012-06-08, 14:05:10
Eric Klein from NVIDIA talks about Kepler (http://www.youtube.com/watch?v=GHEmnjd2zDM)

Ab der 10. Minute wird über GK110 gesprochen.

Screemer
2012-06-08, 14:10:20
und für alle die derzeit nur 56k haben, gibts was neues? :)

Iruwen
2012-06-08, 14:17:05
DSL

scnr

Ailuros
2012-06-08, 14:53:58
DSL

scnr

ROFL :D (normalerweise sollte ich den Post dank OT loeschen, aber da der Witz zu gut war bleibt es stehen).

boxleitnerb
2012-06-08, 15:09:06
Er wusste nicht, ob 15 oder 16 SMs hardwaremäßig verbaut sind. Ist 15/16 also eine Möglichkeit, die eine GTX785 offenlässt?

Skysnake
2012-06-08, 15:31:47
Das wird wohl kaum kommen, einfach weil der Paltz ausgeht.

Frag sich, was der Type überhaupt macht. So was sollte man eigentlich sicher wissen, so lange man kein Marketingmensch ist.

Ganz abgesehen davon kann das auch daran liegen, das man relativ spät so Sachen wie HyperQ usw. dazu genommen hat und dafür eben einen SMX-Block geopfert hat.

Coda
2012-06-08, 18:01:22
Mit MIC und der kommenden FirePro Serie ändert sich das aber grundlegend.
Dafür braucht AMD erstmal eine brauchbare Entwicklungsumgebung.

Sonst hat da außer in einem Nischenmarkt keiner Bock drauf.

Skysnake
2012-06-08, 20:29:05
Also ich entwickle lieber in OpenCL als in CUDA, nur manchmal bin ich dazu gezwungen CUDA zu nutzen. Bei normalem CUDA gehts auch noch, allerdings suckt es schon ganz gut, wenn man die Treiberapi dann nutzen muss.

Vor allem suckt es aber, wenn man ständig schauen muss, ob diese Karte denn auch jene CUDA-Version unterstützt, oder nicht. Dann muss man halt auch ne CUDA-Karte haben um vernünftig entwickeln zu können mit der entsprechenden CUDA-Version usw.

Bei OpenCL setz ich einmal ätzend das Inviroment auf, dazu hab ich mir aber portable funktionen geschrieben und fang dann halt einfach an zu entwickeln und kack drauf, was erstmal bei mir drin steckt im großen und Ganzen.

Erst dann wenn alles läuft und die letzten Optimierungen angegangen werden setz ich mich dann an die entsprechende Maschine mit der entsprechenden GPU.

Das ist schon ein gewaltiger Vorteil für mich, einfach weil ich überall programmieren kann. Da kann ich genau so gut daheim arbeiten, wie am Lehrstuhl. Zudem blockier ich keinen Rechner, den ich teils auch noch zum Abschmieren bringe. Sprich kein anderer sollte auf dem Rechner rumhantieren.

Also ganz im Ernst, ich bevorzuge echt OpenCL.

Hugo78
2012-06-08, 21:08:24
Frag sich, was der Type überhaupt macht.

Der Gedanke kam mir zuerst auch.

Dann aber dann schaut man sich den rest an und es wird klar, dass die Klasse zu der er spricht,
sich auch gar keine Gedanken um den detailierten Aufbau der HW machen soll.
Das ist für den Lehrgang dort auch Geek Zeug => Zeitverschwendung.
Die sollen die Vorteile von CUDA erkennen und damit effektiv & produktiv werden. :devil:

Duplex
2012-06-17, 13:59:59
Anfang 2011 hatten wohl wenige Sterbliche von uns eine Ahnung dass die hotclocks weg sind; trotz allem hab ich persoenlich auch so viel mehr als nur 1024SPs + hotclock fuer Kepler high end erwartet.
Mit Hotclock wären 1024 ALUs vollkommen ausreichend gewesen, damit hätte man eine ähnliche skalierung wie damals GT200 240-1D > GF100 480-1D Shader erreichen können.

Ailuros
2012-06-18, 11:57:23
Mit Hotclock wären 1024 ALUs vollkommen ausreichend gewesen, damit hätte man eine ähnliche skalierung wie damals GT200 240-1D > GF100 480-1D Shader erreichen können.

Wahrscheinlich aber mit um einiges hoeherem Stromverbrauch als GK104/performance und nicht einen unbedingt grossen Leistungs-unterschied gleichzeitig.

GF110 war uebrigens anfangs nie geplant; als 32nm noch existierte lag im Plan eine GPU mit Kepler ALUs mit einem Fermi uncore. Du wolltest sagen? ;)

john carmack
2012-06-18, 12:31:40
Mit Hotclock wären 1024 ALUs vollkommen ausreichend gewesen, damit hätte man eine ähnliche skalierung wie damals GT200 240-1D > GF100 480-1D Shader erreichen können.


Du hast also mehr Ahnung als die Entwicklungs Abteilung von Nvidia oder auch AMD?
Respekt!

Verstehe nicht warum hier viele denken das der Chip so wie sie es sich vorstellen besser wäre!

Die haben schon Ihre Gründe warum der Chip so ist wie er ist!

HOT
2012-06-18, 13:45:29
Da man die Shadereinheit dicker gemacht hat, hätten sich die Hotclocks wahrscheinlich einfach nicht mehr gelohnt. Wenn man nur 200MHz über den Basistakt gehen kann oder so ist der Aufwand dafür unwirtschaftlich. Dem aufmerksamen Beobachter wird ja nicht entgangen sein, dass die Packdichte erheblich besser geworden ist als bei den Hotclock-Chips.
Zudem wird ja auch der Basistakt immer höher. Für Hotclocks muss man ja dann schon in Richtung 2GHz und mehr aufbrechen. Ob das mit dem TSMC-Prozess so einfach ist lässt sich schwer abschätzen, aber es wär sicherlich teurer gewesen als diese Lösung jetzt. Man fing ja damit an, als Grafikchips um die 500MHz hatten. Da war es effizienter, die Shadercores hochzutakten. Bei 1GHz ist das vllt. einfach unnötig. Wie schon gesagt wurde, Nv hat sich sicher etwas dabei gedacht und denkbar ist vieles.

Hades11
2012-06-18, 17:56:14
wie hoch ist eigentlich die warscheinlichkeit dass bei GK110 die Schwäche bei SS/DS und Hohen Auflösungen verbessert wird? Im vergleich zu AMD GPU´s verlieren die bisherigen keppler ja unter den erwähnten setting weit mehr leistung.

AnarchX
2012-06-18, 18:09:31
Es ist keine Schwäche, sondern der Rohleistungsvorteil von Tahiti, der dort ausgespielt werden kann, da hier nicht mehr die Hauptlast auf dem Front-End liegt.

Aber nach aktuellen Infos dürfte GK110 (2880SPs, 240 TMUs) wohl ein deutlichen Rohleistungsvorteil gegenüber Tahiti haben.

Gipsel
2012-06-18, 18:25:57
Ich denke ja, Kepler (oder nV) hat gar keine Schwäche bei hohen Auflösungen, sondern AMD eine bei niedrigen. ;)

Mal eine Milchmädchenrechnung zur Verdeutlichung:

1920*1080 => ~2,1 MPixel
Es herrscht ein Performancegleichstand zwischen AMD und nV, beide erreichen die Leistung x.
AMD liegt allerdings bei diesem Workload bei einer Einheitenauslastung von 80%. NVidia ist effizienter und liegt bei 90%. Erreichen also diesen Anteil der theoretisch verfügbaren Rohleistung (die Zahlen sind fiktiv, für ein reales Problem dürften die genannten Zahlen zu hoch sein, dient ja aber nur zur Demonstration).
Damit ergibt sich der bekannte (inzwischen nur noch leichte) Vorsprung von AMD bei der Rohleistung.

Erhöhen wir jetzt die Auflösung: 2560*1440 => ~3,7 MPixel
Geometrie etc. bleibt alles gleich, nur die Pixel(shader)last skaliert um +76%, im Schnitt besteht also jedes Dreieck aus 76% mehr Pixeln. Nehmen wir an, daß die Ineffizienzen bei der Einheitenauslastung genau in diesem Maß abnehmen, kommen wir für AMD auf eine Effizienz von 88,6%, nVidia auf 94,3%.
Die Renderzeit pro Frame nimmt also bei AMD um 0,76 * 0,8 / 0,886 = 68,6% zu, bei nVidia aber um 0,76 * 0,9 / 0,943 = 72,5% zu. Aus einem Gleichstand in 1080p wird ein 2,3% (in fps) Rückstand in 1440p.
Und der Grund dafür ist kein überproportionaler Einbruch der nV-Karten in hohen Auflösungen, sondern daß die AMD-Karten es bei niedrigen Auflösungen nicht schaffen, ihren Rohleistungsvorsprung in einen echten Performancevorsprung umzusetzen. Bei hohen Auflösungen (wenn die Auslastung der Vektoreinheiten der GPUs beinahe zwangsläufig steigen) schaffen sie es dagegen und kommen näher an die Auslastungsgrade der nV-GPUs heran (in diesem Zusammenhang ist erwähnenswert, daß AMD im Vergleich zu nV die doppelte Vektorlänge verwendet [64 statt 32], Larrabee/MIC/Xeon Phi übrigens nur 16).

Edit: Zu lange geschrieben. :rolleyes:

Hübie
2012-06-18, 18:33:36
Dafür ausführlicher, Gipsel ;D
Ist ja auch davon abhängig wie gut man die ROPs beschäftigen kann. Afaik werden die 48 meiner GF110 nicht sehr effizient ausgelastet. GK110 wird da sicher deutlich mehr Bandbreite schaffen. GK104 geht mir diesbezüglich auch am Arsch vorbei. Ich warte mal aufs echte highend-Gerät.

Meiner Meinung nach muss als nächstes die Monitorindustrie stark anziehen und die Software erst mal hinterher kommen. Vorher lohnt es ja nicht großflächig dicke Chips zu etablieren. Eric Klein war übrigens sehr ehrlich als er sagte, dass erst mal gut zahlende Kundschaft bedient wird (Tesla) und dann die Würmer/Maden dran kommen (GeForce). Deutlich unter 700€ wird GK110 wohl auch nicht zu erwarten sein; was dennoch ein Bruchteil der "Tesla-Bezahler" ist.

Gipsel
2012-06-18, 18:43:48
Ist ja auch davon abhängig wie gut man die ROPs beschäftigen kann. Afaik werden die 48 meiner GF110 nicht sehr effizient ausgelastet.Man könnte auch sagen, daß es praktisch beinahe unmöglich ist, die ROPs bei Fermis auszulasten (Exportbeschränkung der SMs). Die GF100/110 (bei den kleineren war das Verhältnis ja noch abstruser) kam nur mit 48 ROPs, weil bei nV die ROPs fest an einen Speicherkanal gekoppelt sind, pro 64 Bit-Interface gibt es immer genau 8 ROPs. AMD hat da jetzt noch eine etwas vereinfachte Crossbar (nicht voll verdrahtet, eine ROP-Partition kann nur jeweils die Hälfte der Speichercontroller ansprechen) zwischen ROPs und Speichercontroller gepackt. Ist eben ein Mehraufwand, wo man sich überlegen muß, ob so eine Crossbar nicht fast genau so viel Platz und Stromverbrauch kostet, wie einfach mehr ROPs zu verbauen (mit denen man in irgend einem Zweifelsfall vielleicht noch ein paar wenige Prozent Mehrperformance mitnehmen könnte).

Nightspider
2012-06-19, 00:36:25
Wie stehen denn die Chancen, das beim GK110 höher getaktete Speicherchips verbaut werden?

Gibt es offizielle Preislisten, welche die aktuellen Preise der unterschiedlich schnellen VRAM Chips listen?
Da sich die VRAM Größe mit 3GB im Rahmen halten wird und die Karten so oder so teuer durch die 28nm GPU werden wäre es ja nicht verkehrt wenigstens etwas schnelleren VRAM zu verbauen.

Skysnake
2012-06-19, 01:10:44
Eher schlecht.

mczak
2012-06-19, 01:23:29
Das schnellste das irgend ein gddr5-Speicherhersteller mal versprochen hat waren glaube ich 7gbps (müsste so etwa vor 5 Jahren gewesen sein...). Vielleicht kriegen sie das ja noch hin das wären dann 17% mehr. So ganz glaube ich aber nicht daran.

Skysnake
2012-06-19, 01:28:06
Aber nicht bei GK110. Das kannste eigentlich schon abhacken. Das wäre eine ECHTE Überraschung

Dural
2012-06-19, 09:24:49
Wie so? NV hat bei ihrem Top Modell eigentlich fast immer den schnellsten lieferbaren Speicher verbaut.

Wenn der Speicher in diesem Zeitraum zum Vernüftigen Preis Lieferbar ist kann ich mir das schon Vorstellen.

Zudem werden wir 2013 in der Mittel Klasse beim "GK114" so wie so schnelleren Speicher sehen, da der GK104 mit seinen 1500MHz am Maximum läuft.

Neurosphere
2012-06-19, 10:37:54
Wie so? NV hat bei ihrem Top Modell eigentlich fast immer den schnellsten lieferbaren Speicher verbaut.

Es hat bisher noch nie ein Hersteller den schnellsten lieferbaren Speicher verbaut, es wäre ganz einfach unbezahlbar.