Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GK110 - High-End-Kepler - Q1 2013


Seiten : 1 2 3 4 5 6 7 8 [9] 10 11 12 13 14 15 16

Hübie
2013-01-15, 22:15:46
Ich dachte, die 48 ROPs waeren gesetzt. Die 60 kamen ja nur von der Exportbeschraenkung. Dass die nicht verbaut werden, ist ja klar.

Nö. Ist noch nicht bestätigt. Sagen wirs mal so: Nachdem was ich auf dieshots zählen konnten sinds 48. Aber was du am Ende in der Hand hälst ist ja n anderer Schnack. 32, wären absurd. 40 denkbar und 48 realistisch ;D

Godmode
2013-01-15, 22:48:55
Crysis 3 Launch = GK110 Desktop Launch? Würde sich gegenseitig sehr gut puschen, was meint ihr?

Timbaloo
2013-01-15, 23:09:15
ROP Exportbeschränkung? Bitte klärt mich auf... :eek:

Gipsel
2013-01-16, 01:26:23
Und wie oft kamen diese Füllratenlimits in der Praxis so vor? Ich mein, die 560 Ti hatte demnach immer mehr Füllrate als 570 oder 580 und war nie schneller, nichtmal annähernd gleichschnell.Welche 560Ti hatte denn mehr Pixel-Fuellrate als eine 570 oder 580? Wir reden hier ja nicht von den TMUs, sondern von dem Rausschreiben an die ROPs. :confused:

kruemelmonster
2013-01-16, 02:45:33
Wobei es hin und wieder Settings gibt, die extrem viel kosten und nicht so viel mehr BQ bringen. Das muss man je nach Spiel herausfinden.


Das Advanced DoF bei Metro hätte man gut weglassen können, zieht heftig Performance für so'n blöden Unschärfefilter.

http://www.abload.de/img/metro2033_5870_dx118drlj.gif (http://www.abload.de/image.php?img=metro2033_5870_dx118drlj.gif)http://www.abload.de/img/metro2033_480_dx11oqrmt.gif (http://www.abload.de/image.php?img=metro2033_480_dx11oqrmt.gif)

Hübie
2013-01-16, 03:24:21
ROP Exportbeschränkung? Bitte klärt mich auf... :eek:

Ist beim Fermi ja n alter Hut. Bei Kepler deutlich nach oben korrigiert existiert ein selbige dennoch. Blätter zwei Seiten vor und ignoriere die unsinnige 4k-Diskussion. Da haben AlphaTier und Gipsel ihr wissen zum besten gegeben ;)

boxleitnerb
2013-01-16, 11:41:38
Welche 560Ti hatte denn mehr Pixel-Fuellrate als eine 570 oder 580? Wir reden hier ja nicht von den TMUs, sondern von dem Rausschreiben an die ROPs. :confused:

32 Pixel * 822 MHz vs. 32 Pixel * 772 MHz im Falle der 580.

AnarchX
2013-01-16, 11:55:36
GF114 konnte auch nur 2 Pixel pro SM.

Hübie
2013-01-16, 12:28:07
Ich glaub er redet von der Texelfüllrate, welche in der Diskussion keine Relevanz hat. Da gabs eine 560 Ti wo die tatsächlich höher war als bei der 570/580. Wozu das gut sein soll frag ich mich auch gerade :| 64 TMUs gepaart mit dem hohem Takt ergab halt Schwachsinn.
Edit: Es gab/gibt drei 560 Ti also bitte nächstes Mal genauer spezifizieren welche gemeint ist ;)

Ailuros
2013-01-16, 12:33:30
32 Pixel * 822 MHz vs. 32 Pixel * 772 MHz im Falle der 580.

Er sagte doch rausschreiben an die ROPs; wie AnarchX oben schon sagt sind es bei GF1x4 2 pixels/SM oder 8 pixel/raster ergo insgesamt 16 pixels/clock.

boxleitnerb
2013-01-16, 12:35:07
Nene, schon die Pixelfüllrate. Gut, ich hab mich an der Computerbase Spec-Tabelle orientiert, da war die Angabe für GF114 32 pixels/Takt, eben mehr als bei GF110. Wieder was gelernt, danke :)

Ailuros
2013-01-16, 12:42:45
Ich glaub er redet von der Texelfüllrate, welche in der Diskussion keine Relevanz hat. Da gabs eine 560 Ti wo die tatsächlich höher war als bei der 570/580. Wozu das gut sein soll frag ich mich auch gerade :| 64 TMUs gepaart mit dem hohem Takt ergab halt Schwachsinn.
Edit: Es gab/gibt drei 560 Ti also bitte nächstes Mal genauer spezifizieren welche gemeint ist ;)

Also ich denke schon dass wir Laien zustande sind Pixel von Texel-fuellraten zu unterscheiden. Schwachsinn waren die 64 TMUs bei GF114 nicht; der chip hatte eine Reihe an tradeoffs um sich so gut wie moeglich im performance Bereich zu behaupten. Wenn die TMUs quasi ueberfluessig waren dann war es auch die Anzahl der ALUs, denn der chip koennte unter der vorhandenen Bandbreite u.a. nie weder seine GFLOPs noch GTexels voll auf die Strasse bringen.

Nene, schon die Pixelfüllrate. Gut, ich hab mich an der Computerbase Spec-Tabelle orientiert, da war die Angabe für GF114 32 pixels/Takt, eben mehr als bei GF110. Wieder was gelernt, danke :)

GF114 = 2 GPCs = 2 raster units = 8 pixels/clock/raster = 16 pixels/clock
GF110 = 4 GPCs = 4 raster units = 8 pixels/clock/raster = 32 pixels/clock
GK104 = 32 pixels/clock
GK110 = 40 pixels/clock

Hübie
2013-01-16, 12:53:54
Gibt ja auch eine 560 Ti mit GF110 salvage-part, aber halt wieder geringerem Takt. Die erste 560 Ti hatte nur 256 bit Bubandbreite, 64 TMUs plus hohem Takt und nur 32 ROPs. Und genau wie du sagst:der chip koennte unter der vorhandenen Bandbreite u.a. nie weder seine GFLOPs noch GTexels voll auf die Strasse bringen
Dann kam die mit mehr ROPs, mehr Bandbreite, weniger ALUs und Takt (glaube die war für OEM). Diese konnte vom Potenzial her besser skalieren. Vor allem wenn man an der Taktschraube drehte, welche von nVidia künstlich gedrückt wurden um nicht zu dicht aufzuschließen. Diese ist von der Konstellation sinnvoller. Was bringts mir wenn ich vorn ne Menge reinschütten kann aber hinten nur Tropfen rauskommen? ;)

Edit: die 448 war dann ja noch mal salvage-part um alle Chips los zu werden.

boxleitnerb
2013-01-16, 13:07:46
GF114 = 2 GPCs = 2 raster units = 8 pixels/clock/raster = 16 pixels/clock
GF110 = 4 GPCs = 4 raster units = 8 pixels/clock/raster = 32 pixels/clock
GK104 = 32 pixels/clock
GK110 = 40 pixels/clock

Wird die Beschränkung auf 40 pixel/clock bei vermutlich 48 ROPs voraussichtlich irgendwelche Performanceeinbußen mit sich bringen? Und falls dem so wäre, wieso hat Nvidia hier nicht 48 draus gemacht? Zuviel Verbrauch/Die Area?

Ailuros
2013-01-16, 14:51:17
Wird die Beschränkung auf 40 pixel/clock bei vermutlich 48 ROPs voraussichtlich irgendwelche Performanceeinbußen mit sich bringen? Und falls dem so wäre, wieso hat Nvidia hier nicht 48 draus gemacht? Zuviel Verbrauch/Die Area?

Zu 100% sicher bin ich mir nicht ob GK110 jetzt 5 oder 6 GPCs hat, aber die meisten tippen auf 5. Ich lass mich gerne eines besseren belehren aber bei 15 SMXs duerfte es keinen besonderen Unterschied mehr machen ob es 5 oder 6 GPCs sind (da in beiden Faellen irgendwo eine krumme Anzahl bei der SMX/GPC Relation vorkommt).

Natuerlich steckt eine hw-budget Begrenzung dahinter aber dann wohl eher fuer die SMX Anzahl als die Anzahl der raster/trisetups selber. Dass die Leistung irgendwo bei einer 40 pixels/clock - 48 ROPs irgendwo stockt kann ich mir nicht vorstellen. Der einzige Vorteil ist dann eben dass die 8 ROPs bei hoher MSAA sample Anzahl besser leisten koennten. Bei Fermi waren es sogar 16 ROPs aber der Hintergedanke war vielleicht das 32xCSAA Zeug welches man theoretisch auch auf 32xTMAA haette erweitern koennen, es aber NV's Treiberteam nie eingeschaltet hat.

PCGH_Carsten
2013-01-16, 15:36:42
5. Steht in der offiziellen Dokumentation. :)

Gaestle
2013-01-16, 16:26:20
Von GK oder von M?

Skysnake
2013-01-16, 16:29:11
Von was?

Ailuros
2013-01-16, 16:50:56
5. Steht in der offiziellen Dokumentation. :)

Ich hab beide Kepler's whitepapers nochmal durchgelesen. Entweder ueberlese ich es konstant oder es steht tatsaechlich nichts relevantes drin.

PCGH_Carsten
2013-01-16, 21:54:58
Im Cuda Programming Guide.

Hübie
2013-01-17, 14:46:41
Das bezieht sich ausschließlich auf K20 (x). Am Desktop könnte es anders kommen. Daher auch immer noch Spekulationen. ;)

boxleitnerb
2013-01-17, 14:55:10
Das ist doch sehr unwahrscheinlich. Man würde dann nicht nur weniger GK110 verkaufen, auf die man die Entwicklungskosten verteilen könnte, sondern müsste obendrein noch einen neuen Chip entwickeln und zur Massenfertigung bringen. Das wäre doppelt rausgeworfenes Geld mMn.

Das ist so frustrierend, jedesmal, wenn hier jemand was postet, denke ich jetzt gibt es endlich Leaks oder konkrete Infos - und dann doch nix :D

Hübie
2013-01-17, 15:25:20
Ich meinte die Anzahl der SMx/ROPs/TMUs etc. Das könnte im Gegensatz zu Tesla anders kommen. Ich meinte keinen neuen Chip. Obwohl das nicht so unwahrscheinlich ist.
Wie einfach/umständlich wäre es denn einen GK204 zu designen welcher bis auf HyperQ/DynP einem GK110 entspräche? Stell mir das jetzt nicht sonderlich aufwändig vor. Lasse mich da aber belehren.

Ailuros
2013-01-17, 15:31:24
Ich meinte die Anzahl der SMx/ROPs/TMUs etc. Das könnte im Gegensatz zu Tesla anders kommen. Ich meinte keinen neuen Chip. Obwohl das nicht so unwahrscheinlich ist.
Wie einfach/umständlich wäre es denn einen GK204 zu designen welcher bis auf HyperQ/DynP einem GK110 entspräche? Stell mir das jetzt nicht sonderlich aufwändig vor. Lasse mich da aber belehren.


Und hier komm ich schnell mit der dummen Frage an wieso so ein chip ausgerechnet GK2-0-4 heissen soll und nicht gleich GK2-1-4 :P Und ja es ist verdammt aufwaendig.

Skysnake
2013-01-17, 15:31:56
Mehr oder weniger genau so aufwändig wie aus nem GK104 nen GK106 zu designen, eher sogar noch aufwändiger, da du die Cores direkt anfassen musst.

Am Ende haste nicht viel an Aufwand gespart, im Vergleich dazu, dass du direkt von vorne anfängst.

boxleitnerb
2013-01-17, 15:32:46
Ich meinte die Anzahl der SMx/ROPs/TMUs etc. Das könnte im Gegensatz zu Tesla anders kommen. Ich meinte keinen neuen Chip. Obwohl das nicht so unwahrscheinlich ist.
Wie einfach/umständlich wäre es denn einen GK204 zu designen welcher bis auf HyperQ/DynP einem GK110 entspräche? Stell mir das jetzt nicht sonderlich aufwändig vor. Lasse mich da aber belehren.

Aber lohnt sich das? Die Transistoren für den HPC-Kram fressen hauptsächlich Platz und beschränken vielleicht die Taktbarkeit ein bisschen.

Ailuros
2013-01-17, 17:13:21
Aber lohnt sich das? Die Transistoren für den HPC-Kram fressen hauptsächlich Platz und beschränken vielleicht die Taktbarkeit ein bisschen.

Ich hab keine Ahnung wie der GK104 Nachfolger heisst oder aussehen wird. Angenommen der Nachfolger faehrt auf der gleichen Schiene wie GK104 und ist etwas groesser als dieser ist es vielleicht irgendwo im =/>350mm2 Bereich. Je nachdem wie viel man von dem exklusivem Schnickschnack theoretisch draufsteckt desto groesser wird der core, welches insgesamt gegen die gesamte bisherige Kepler-Philosophie spricht.

Hübie
2013-01-17, 19:55:29
Und hier komm ich schnell mit der dummen Frage an wieso so ein chip ausgerechnet GK2-0-4 heissen soll und nicht gleich GK2-1-4 :P Und ja es ist verdammt aufwaendig.

Weil ich ja schrieb dass der HPC-Kram draussen bleibt :P Ich habe nur keine Ahnung wie aufwändig das nun am Ende für nV wäre.
Man kommt an keinerlei Zahlen von nV oder TSMC heran. Ätzend. Man müsste dort mal Spione installieren :freak:

Da "unser" Projekt vorläufig fertig ist komme ich auch nicht mehr (über die üblichen Umwege) an K20x ran.

@boxleitnerb: Genau diese Frage stelle ich mir ja auch :freak:

Ailuros
2013-01-17, 20:06:07
Wenn etwas aufwaendig ist zu entwickeln (wie HyperQ, dynamic parallelism etc.) dann kostet es auch nicht gerade wenig Transistoren oder?

Hübie
2013-01-17, 20:36:17
Dem stimme ich zu. Aber wer sagt denn dass GK110 nicht der Zweig einer Entwicklung ist. Möglich ist alles und ich will möglichst viel umreißen.
Gedankenspiel: Kepler2 alias GK204 war schon lange in der Entwicklung und GK110 entstammt dem Kepler1 und Kepler2 design wo dann noch nette Features hinzugefügt wurden. Wenn ich mich recht erinnere hat nVidia drei GPU-Designteams, welche ab einer bestimmten Phase größtenteils zusammengelegt werden und danach wieder gesplittet werden. Jedoch habe ich einfach zu wenig Zahlen um ansatzweise herauszufinden wie kostenintensiv so etwas dann am Ende ist. Bisher geht GK110 ja gut weg. Gab ja nun etliche events auf denen der promoted wurde ;D

In etwa so:
http://www.abload.de/img/entwicklungnkji9.png (http://www.abload.de/image.php?img=entwicklungnkji9.png)

Wobei GK110 natürlich am meisten der ersten Serie entspringt. Also mal reinste Spekulation - das ist hier ja erlaubt ;D

Ailuros
2013-01-17, 20:42:04
Kepler und dessen refreshes sind ein einziges (grosses) design team.

Sonst nach NV engineers selber kam die "1" in die Mitte von GK110 um es dank seiner exklusiven Faehigkeiten vom Rest zu trennen.

Hübie
2013-01-17, 20:47:28
Jen-Hsun Huang sagte das bei irgend einer Präsentation. Drei Teams fangen jeweils mit einer neuen Architektur an. Die mit dem vielversprechendsten Design erhalten Zuwachs der anderen beiden Teams und es gibt ein BBQ. Wenn die soweit sind werden da wieder Leute herausgeholt und an ein neues Projekt gesetzt. Bitte frage micht jetzt nich nach einer Quelle ;D Ist noch gar nicht so lange her. :|

Ich benannte GK204 ja gerade ohne 1 in der Mitte ;)

Ailuros
2013-01-18, 10:40:33
Kepler und seine refreshes sind eine Architektur. Momentan hast Du Kepler, Maxwell und Einstein.

PCGH_Carsten
2013-01-18, 12:27:02
Das bezieht sich ausschließlich auf K20 (x). Am Desktop könnte es anders kommen. Daher auch immer noch Spekulationen. ;)
Nach dem, was ich da lese, bezieht es sich auf „Compute Capability 3.x“.

edit:
Auch wenn ein GPC vielleicht nicht so ein Transistoren-Eiland ist, wie das Blockdiagramm vermitteln will, änderst du nicht mal einfach die Aufteilung aus Basis desselben ASIC.

Hübie
2013-01-18, 17:35:11
Kepler und seine refreshes sind eine Architektur. Momentan hast Du Kepler, Maxwell und Einstein.

Da Kepler ja so weit fertig ist hat man auch wieder die Resourcen für die drei. Aber ich ziehe als Fazit dass es also unsinnig (vom Kostenfaktor her) ist Kepler so zu würfeln wie es in meinem Gedankenspiel geschehen war.
Gut. Nächste Idee? GK110 kommt nur mit verändertem Takt und vielleicht einigen deaktivierten features (treiberseitig) daher. Also alles wie gehabt. Man ist das langweilig hier :freak: :biggrin:

Gestern fiel mir ein dass ich mal eben Devicequery hätte laufen lassen können um an mehr Infos zu GK110 zu kommen :rolleyes:

Ailuros
2013-01-18, 18:01:19
Gott ein Kreidetafel design fuer die ueber-ueber naechste Generation braucht noch kein volles team. Es gibt auch zufaelligerweise das Tegra und Denver Zeug u.a. :P

Hübie
2013-01-18, 18:05:21
Maxwell ist sicher schon im Simulator weit vorangeschritten. Über Einstein weiß ich zu wenig. Hab mich da noch nicht wirklich informiert. Ist mir auch erst mal Schnuppe :P
Tegra ist afaik ein eigenständiges Team.

Skysnake
2013-01-18, 18:50:07
Da Kepler ja so weit fertig ist hat man auch wieder die Resourcen für die drei. Aber ich ziehe als Fazit dass es also unsinnig (vom Kostenfaktor her) ist Kepler so zu würfeln wie es in meinem Gedankenspiel geschehen war.
Gut. Nächste Idee? GK110 kommt nur mit verändertem Takt und vielleicht einigen deaktivierten features (treiberseitig) daher. Also alles wie gehabt. Man ist das langweilig hier :freak: :biggrin:

Gestern fiel mir ein dass ich mal eben Devicequery hätte laufen lassen können um an mehr Infos zu GK110 zu kommen :rolleyes:
Was willste denn wissen?

Ailuros
2013-01-20, 13:05:49
Maxwell ist sicher schon im Simulator weit vorangeschritten. Über Einstein weiß ich zu wenig. Hab mich da noch nicht wirklich informiert. Ist mir auch erst mal Schnuppe :P
Tegra ist afaik ein eigenständiges Team.

Eigenstaendig ist so eine Affaere fuer sich; fuer die T3 Entwicklung nahm Jensen die meisten engineers aus der Tegra GPU Abteilung und schickte sie zu Fermi, 28nm test und Kepler teams. So brutal dass nur 2 Leute im team uebrig blieben; sobald Kepler quasi "fertig" war wurde eine Anzahl wieder zurueckgeschleusst zum Tegra team. Genau das gleiche hin und her gilt auch fuer Project Denver und andere aehnliche CPU relevante Turnereien wobei webseiten nicht rein zufaellig erwaehnt haben dass die CPU Entwicklung bei Nv irgendwo in den GPU design teams versteckt ist. Klar ist es z.B. fuer Denver ein dediziertes team fuer N Zeitspanne, es sind aber auch nicht waschreine CPU only engineers die sonst nichts anderes anstellen als CPUs zu entwickeln.

Maxwell wird in 2014 wohl ankommen und ich schlage mal spekulativ Einstein fuer 2016 an. Jetzt ueberzeug mich dass fuer den Einstein Nachfolger in 5 Jahren von heute im allerbesten Fall, NV diesem team schon ueber 300 engineers mehr oder weniger dediziert hat. Im besten Fall sind es ein paar hingekritzelte Ideen aber nichts handfestes dass sich nicht in der Zukunft aendern koennte. Die engineering teams sind auch nie stets gleich gross eben weil konstant engineers auf andere zukuenftige Projekte verschoben werden bzw. auch auf GPU irrelevante Projekte seit Denver.

Skysnake
2013-01-20, 13:34:53
Eigenstaendig ist so eine Affaere fuer sich; fuer die T3 Entwicklung nahm Jensen die meisten engineers aus der Tegra GPU Abteilung und schickte sie zu Fermi, 28nm test und Kepler teams. So brutal dass nur 2 Leute im team uebrig blieben; sobald Kepler quasi "fertig" war wurde eine Anzahl wieder zurueckgeschleusst zum Tegra team. Genau das gleiche hin und her gilt auch fuer Project Denver und andere aehnliche CPU relevante Turnereien wobei webseiten nicht rein zufaellig erwaehnt haben dass die CPU Entwicklung bei Nv irgendwo in den GPU design teams versteckt ist. Klar ist es z.B. fuer Denver ein dediziertes team fuer N Zeitspanne, es sind aber auch nicht waschreine CPU only engineers die sonst nichts anderes anstellen als CPUs zu entwickeln.
Mit so einem halbgare vorgehen wird man aber nie was vernünftiges auf CPU-Seite hin bekommen, was einem wirklich richtig nach vorne bringt. Ok, man hat noch den GPU-Part, wo man wirklich richtig punkten kann, aber da muss man eben dann auch mal in die Pushen kommen. Vorallem bei Project Denver, ansonsten fährt man das Ding vor die Wand. Die Konkurrenz in dem Bereich ist echt übel.


Maxwell wird in 2014 wohl ankommen und ich schlage mal spekulativ Einstein fuer 2016 an. Jetzt ueberzeug mich dass fuer den Einstein Nachfolger in 5 Jahren von heute im allerbesten Fall, NV diesem team schon ueber 300 engineers mehr oder weniger dediziert hat. Im besten Fall sind es ein paar hingekritzelte Ideen aber nichts handfestes dass sich nicht in der Zukunft aendern koennte. Die engineering teams sind auch nie stets gleich gross eben weil konstant engineers auf andere zukuenftige Projekte verschoben werden bzw. auch auf GPU irrelevante Projekte seit Denver.
Solche "tunereien" kann man sich aber auf Dauer nicht leisten, allein was da schon wieder für ein Overhead anfällt, bis man sich eingearbeitet hat...

gnahr
2013-01-20, 14:02:13
der markt verlangt einfach noch verdammt viel flexibilität.
lieber 2 mal rumturnen als sich auf etwas festlegen und dabei die maximale fehlentscheidung treffen.

Hübie
2013-01-20, 15:35:31
Eigenstaendig ist so eine Affaere fuer sich; fuer die T3 Entwicklung nahm Jensen die meisten engineers aus der Tegra GPU Abteilung und schickte sie zu Fermi, 28nm test und Kepler teams. So brutal dass nur 2 Leute im team uebrig blieben; sobald Kepler quasi "fertig" war wurde eine Anzahl wieder zurueckgeschleusst zum Tegra team. Genau das gleiche hin und her gilt auch fuer Project Denver und andere aehnliche CPU relevante Turnereien wobei webseiten nicht rein zufaellig erwaehnt haben dass die CPU Entwicklung bei Nv irgendwo in den GPU design teams versteckt ist. Klar ist es z.B. fuer Denver ein dediziertes team fuer N Zeitspanne, es sind aber auch nicht waschreine CPU only engineers die sonst nichts anderes anstellen als CPUs zu entwickeln.

Maxwell wird in 2014 wohl ankommen und ich schlage mal spekulativ Einstein fuer 2016 an. Jetzt ueberzeug mich dass fuer den Einstein Nachfolger in 5 Jahren von heute im allerbesten Fall, NV diesem team schon ueber 300 engineers mehr oder weniger dediziert hat. Im besten Fall sind es ein paar hingekritzelte Ideen aber nichts handfestes dass sich nicht in der Zukunft aendern koennte. Die engineering teams sind auch nie stets gleich gross eben weil konstant engineers auf andere zukuenftige Projekte verschoben werden bzw. auch auf GPU irrelevante Projekte seit Denver.

Bis zum tapeout von Maxwell dauert es wohl noch ein wenig und so lang wird der Hauptteil der Leute auch noch daran und an Kepler (weiter-)entwickeln. Ich denke dass du jedoch besser informiert bist als ich ;) Ich weiß ja nicht mal wieviel Designer die wirklich haben (also CPU, GPU und PCB). Dem PCB wird ja mittlerweile größere Aufmerksamkeit gewidmet wie ich einigen Stellenanzeigen entnehmen konnte. Das zeigt ja schon wo wir progressiv stehen.

Ailuros
2013-01-20, 18:06:33
Mit so einem halbgare vorgehen wird man aber nie was vernünftiges auf CPU-Seite hin bekommen, was einem wirklich richtig nach vorne bringt. Ok, man hat noch den GPU-Part, wo man wirklich richtig punkten kann, aber da muss man eben dann auch mal in die Pushen kommen. Vorallem bei Project Denver, ansonsten fährt man das Ding vor die Wand. Die Konkurrenz in dem Bereich ist echt übel.

Denver ist nach wie vor ein custom core basierend auf ARM instruction sets. Den Vorteil den Apple hat den design ihrem eigenen OS anzupassen hat wohl keiner, aber sonst wenn es zu allem windows kommt haben ARM cores so oder so das nachsehen wie es aussieht zu allem x86 wenn es zu PC/notebook SoCs kommt. Ich hab nichtmal eine Ahnung ob NV vorhat Denver auch im SFF Markt einzusetzen oder nur ausschliesslich ab PC/notebook SoCs. NV zwitschert etwas von "secret sauce" fuer den design selber, aber bis sich herausstellt ueber was es sich bei der angeblichen "Wundertuete" handeln koennte leg ich keinen besonderen Wert drauf. Denver fuer sich ist ja eine ziemlich lange Horror-Saga wo sie anfangs vorhatten x86 zu emulieren; als man endlich einsah dass es nutzlos ist (mich wundert nur warum es von Anfang an nicht offensichtlich war da auch etliche andere damit auf die Nase gefallen sind u.a. auch MIPS...) hatte man schon zu viel Zeit und resourcen in Entwicklung verballert denn man hat natuerlich alles eingestampft und mit einer tabula rasa von Null angefangen...

Solche "tunereien" kann man sich aber auf Dauer nicht leisten, allein was da schon wieder für ein Overhead anfällt, bis man sich eingearbeitet hat...

NV hat keine andere Wahl; grosse IHVs muessen dafuer sorgen dass sie konstant dazuwachsen bzw. ihr Umsatz durch die Jahre steigt. Woher soll das alles kommen mit nur PC/HPC GPUs genau? PC/notebooks werden nicht besonders stark in den naechsten Jahren dazuwachsen wenn ueberhaupt, Konsolen kommen auch irgendwann zum Ausklang und das einzige welches dazuwaechst und skaliert ist SFF mobile. Intel und AMD haben PC/notebook SoCs die auch mit den Jahren zunehmend dazuwachsen werden ergo was soll NV langfristig genau bedienen? Einen kleinen Anteil des PC Markts mit nur mainstream und high end GPUs und etwas Quadro bzw. Tesla?

Konsolen egal wie lange sie noch leben werden sind nur noch eine AMD Angelegenheit und genau hier ist der groesste FLOP in der ganzen Geschichte NVIDIA's denn sie haben aus eigener obrigen Management Dummheit diesen Zug brutal verpasst.

NV wird es schon meistern weiterhin dazuzuwachsen langfristig, aber bis es zum groesseren Aufschwung durch ihre eigenen SoCs in N Jahren kommt muessen sie eben mit den resourcen auskommen die sie momentan haben. Es ist eben auch nicht so dass AMD oder sonst irgendwelche Firmen von quasi NV's Kaliber tonnenweise engineers einstellen oder mit Geld nur so herumschmeissen.

Botcruscher
2013-01-20, 19:49:12
Konsolen egal wie lange sie noch leben werden sind nur noch eine AMD Angelegenheit und genau hier ist der groesste FLOP in der ganzen Geschichte NVIDIA's denn sie haben aus eigener obrigen Management Dummheit diesen Zug brutal verpasst.


Ich freu mich da schon auf die Leaks wie/was da gelaufen ist. AMD profitiert hier eben zum ersten mal massiv vom ATI Deal. NV steht mit ARM hier allein nicht gut da.

boxleitnerb
2013-01-20, 19:51:58
Ich denke, Nvidias Management ist seine Stärke und gleichzeitig die größte Schwäche. Man liest desöfteren, dass man dort ziemlich arrogant agiert, auch bei der Arbeitgeberbewertung bei glassdoor.com. Denke, damit könnte es durchaus was zu tun haben. Eine Zusammenarbeit auf Augenhöhe ist bei so einem Deal schon wichtig.

Hugo78
2013-01-20, 19:55:55
Konsolen egal wie lange sie noch leben werden sind nur noch eine AMD Angelegenheit und genau hier ist der groesste FLOP in der ganzen Geschichte NVIDIA's denn sie haben aus eigener obrigen Management Dummheit diesen Zug brutal verpasst.

Wie soll man ohne CPU Part der stark genug für Next Gen. Konsolen anno 2013 ist ggü. AMD oder Intel punkten?
Wenn hier jemand was verpasst hat weil er realistische Chancen gehabt hätte, dann wäre das Intel.

Ailuros
2013-01-20, 20:07:38
Wie soll man ohne CPU Part der stark genug für Next Gen. Konsolen anno 2013 ist ggü. AMD oder Intel punkten?
Wenn hier jemand was verpasst hat weil er realistische Chancen gehabt hätte, dann wäre das Intel.

Dann lies nochmal meine vorigen Posts durch. Wenn Du wuesstest um wie viel sich Denver genau dank daemlichen re-designs ueberhaupt verspaetet hat wuerdest Du auch einsehen koennen dass NV zeitlich einen potentiellen SoC fuer Konsolen haette fertig haben koennen.

Von Intel wollen die Konsolen-Hersteller offensichtlich nichts wissen. Sie wollten SoCs um die Herstellungskosten zu reduzieren und nicht ein hoeheres Loch in ihre Rechnung brennen lassen :P

***edit: irgendwann ist es mir so bunt geworden darueber off the record nachzufragen dass ich nicht mehr wusste was sie genau vorhaben mit der SoC GPU. Der erste "wir werden effektiv x86 emulieren Brei" war ein Konzept dass nicht nur ein Jahr unter Entwicklung lag und das ist eben verschwendete resourcen und vor allem Zeit. Und sag mir jetzt bloss nicht dass Du nie von dem Emulations-Scheiss je etwas gelesen hast.

Hugo78
2013-01-20, 21:04:48
Realistisch betrachtet wäre Denver aber auch nicht im Rennen um die aktuell kommenden Sony/MS Konsolen aufgetaucht, auch wenn man vom Start weg zielstrebig mit einem reinen ARM Design gearbeitet hätte.

Dafür bauen Intel/AMD schon zulang x86 CPUs, ARM selber bietet auch kein gaming taugliches Design und selbst wenn man das allein stemmen wollte,
Nvidia hatte bis vor wenigen Jahren grad mal 25% der Belegschaft von AMD, von Intel ganz zuschweigen.

Und dann schau dir mal rückblickend die Perspektive an, die man ARM Designs noch vor 5 Jahren zugestanden hat.
Da hat keine Sau auch nur im Traum daran gedacht, dass selbst Größen wie Apple heute ganz offen und zuversichtlich davon reden,
irgendwann auch auf Intel komplett verzichten zukönnen.

Und das hätte auch Nvidia nicht ändern können.

DavChrFen
2013-01-20, 21:15:55
Wo wir gerade bei Off-Topic sind: Wenn man gewollt hätte, hätte man ja auch eine GPU als Konsole-CPU verkaufen können. Die aktuelle CPU der PS3 kann ja schon x Threads parallel verarbeiten. Dann sind das bei einer GPU halt eben noch ein "bischen" mehr. Aber ich glaube, so innovativ ist der Konsolen-Markt dann doch nicht, dass so eine Überlegung fruchten könnte.

Dural
2013-01-20, 21:21:28
denver war doch schon immer mit maxwell geplant, in verbindung mit kepler hab ich davon noch nie was gehört. sprich NV hatte für diese konsolen generation halt nie was auf der hand. für sony und ms war AMD die logische, einfachste und vorallem günstigste entscheidung. selbst wenn NV denver in diesem jahr hätte liefern können, wer wäre so verückt und wäre darauf eingestigen? die entscheidung hätte man schlisslich schon vor 2-3 jahren entscheiden müssen.

Ailuros
2013-01-20, 21:24:38
Realistisch betrachtet wäre Denver aber auch nicht im Rennen um die aktuell kommenden Sony/MS Konsolen aufgetaucht, auch wenn man vom Start weg zielstrebig mit einem reinen ARM Design gearbeitet hätte.

1 oder 2 verschwendeten Jahren nicht, bei um einiges mehr dann schon.

Dafür bauen Intel/AMD schon zulang x86 CPUs, ARM selber bietet auch kein gaming taugliches Design und selbst wenn man das allein stemmen wollte,
Nvidia hatte bis vor wenigen Jahren grad mal 25% der Belegschaft von AMD, von Intel ganz zuscheigen.

Hingegen ist aber heute NV zuversichtlich dass ihre custom core ARM designs sogar fuer Servers ausreichen werden? Ueber Intel keine Debatte, aber das was bald in Konsolen kommen wird sind im Vergleich zu Intel's CPUs auch nicht gerade die super-effizienten Alternativen. Zumindest haette man die Chance gehabt wenigstens fuer 1 von den 3 designs zu kaempfen. Mit den Hosen herunter gezogen kann man eben nichts anderes als Null anbieten.

Und dann schau dir mal rückblickend die Perspektive an, die man ARM Designs noch vor 5 Jahren zugestanden hat.
Da hat keine Sau auch nur im Traum daran gedacht, dass selbst Größen wie Apple heute ganz offen und zuversichtlich davon reden,
irgendwann auch auf Intel komplett verzichten zukönnen.

Du unterschaetzt den Markt bzw. Microsoft und Sony. Vor einigen Jahren evaluierten sie hw fuer die naechste Konsolen Generation und NV war fast fest im Rennen mit einer IBM CPU und NV GPU IP, haetten Sony und auch Microsoft ihre damaligen Plaene je realisiert. Beide kamen zur Ernuechterung dass es keinen Sinn mehr macht und sie wohl besser auf SoCs setzen sollten und das Ganze IP/Technologie Theater fing von Null an.

Da weder Microsoft noch SONY gestern mit der IP Evaluierung angefangen haben, noch ihre finale Entscheidung fuer die finale hw erst gestern getroffen haben wusste NVIDIA und jeder Industrie insider von jeglichem 0815 Firmchen schon vor etlichen Jahren was beide Hersteller genau vorhaben und ja DAFUER GAB ES GENUG ZEIT unter den richtigen Vorraussetzungen.

Und das hätte auch Nvidia nicht ändern können.

NVIDIA macht sicher nie Fehler und schon gar nicht der Papst aller CEOs Jensen dearest.

Ich hab ein Schiff das bald sinken koennte auf dem Visier und nein es ist weder NV noch irgend eine der erwaehnten hier Firmen. Woher? Na irgendwo irgendwann zwitschert immer jemand ;)

Hauwech
2013-01-20, 22:25:31
Naja, selbst AMD und Intel sind dabei entweder ARMs oder Atoms in Server zu stecken. Warum sollte nVidia das also nicht auch tun? Die Anforderungen an Konsole und Server sind ja wohl leicht unterschiedlich. :)

Aber klar, wenn sie nicht Jahre mit x86-Emulation verschwendet hätten wie du es beschreibst, dann wäre es vielleicht doch was mit einer Konsole geworden.

Hugo78
2013-01-21, 00:19:27
NVIDIA macht sicher nie Fehler und schon gar nicht der Papst aller CEOs Jensen dearest.

*lol* Na ja, du steckst sicher tiefer in der Materie als andere, aber strategische Entscheidungen sind auch für einen CEO ein Lernprozess. ;)

Nimm zb. den NV1.
NURBS statt Polygone, dass hat Nvidia damals (fast) runiert ehe die Firma überhaupt einen Fuß auf den Boden bekam.
Rein vom Effizienzdenken her, waren NURBS die bessere Entscheidung damals, nur Microsoft sah das ebend anderes mit Blick auf die (ihre) Zukunft.

Und so läuft das halt überall, wie du selber sagt, haben MS und Sony irgendwann eingesehen, dass es wirtschaftlicher ist ein günstiges SoC zunehmen,
statt Technologie in Eigenregie einzukaufen und dann selber was draus zubasteln.

So sorry für OT, GK110 war ja das Thema ... :redface:

Ailuros
2013-01-21, 11:46:00
NV1 kam auch zu Zeiten wo 3D noch ziemlich in Windeln lag und ein paar Kerle in einer Garage ein Firmchen aufstellen konnten. Man koennte auch sagen dass es zu dieser Zeit auch an Erfahrung fehlte.

Aber heutzutage nach all dem was NV durchgemacht hat und deren Erfahrung an x86 Emulation zu denken ist von Grund auf eine Schnappsidee; und da wo es natuerlich am laecherlichsten wird ist (genauso wie bei LRB/Intel) dass hw engineers zwar klip und klar darauf bestehen dass es nichts bringen wird aber irgend jemand im obrigen Management einfach mit dem Kopf durch die Wand will. Selbst wenn Du vor Jahren jeglichen sw Entwickler ueber x86 Emulation gefragt haettest, haette keiner etwas anstaendiges davon erwartet.

Engineers wissen in allen IHVs heutzutage wo es mehr oder weniger langgeht, es sind leider eben die Idioten in Marketing bzw. im obrigen Management die meistens nicht die blasseste Ahnung haben von was sie quatschen aber dank ihrer Position schwer aus dem Klugscheisser-modus schwanken koennen. Jensen gehoert zwar nicht in die Kategorie, trifft leider auch nicht immer alle Entscheidungen selber und ist wie jeder Mensch einfach auch nicht fehlerfrei.

Fazit und vielleicht das Ende dieses OTs: jedesmal wenn ein 3dfx eingeht, ein AMD auf wackeligen Beinen steht oder zich andere Beispiele sind selten bis nie die eigentlichen engineers dafuer schuld. Entweder hockt irgend ein Idiot am Lenkrad oder einfach jemand der fleissig seine persoenliche Taschen fuellt egal ob die Firma dann am Ende bankrott geht.

Sonst ist die Tatsache dass NVIDIA keinen Konsolen-Deal diesmal gelandet hat eigentlich halb so schlimm da es auch nicht gerade ein Markt ist der glohreiche Bluete bzw. Wachstum sehen wird. Und damit ich es endlich etwas auf eine klare Basis lege: ich hoerte von den ersten CPU Entwicklung Geruechten noch zum Zeitpunkt als ich in der focus group war.

BigKid
2013-01-21, 13:45:28
Fazit und vielleicht das Ende dieses OTs:

Und damit zurück zu GK110 und der Frage ob er überhaupt noch fürn Desktop kommt und wenn, dann wann und wie er dann aussieht und was er kann - und wie schnell...

Aktuell scheinen die Glaskugeln alle im Trüben zu fischen - oder so...

Coda
2013-01-21, 14:55:39
Engineers wissen in allen IHVs heutzutage wo es mehr oder weniger langgeht, es sind leider eben die Idioten in Marketing bzw. im obrigen Management die meistens nicht die blasseste Ahnung haben von was sie quatschen aber dank ihrer Position schwer aus dem Klugscheisser-modus schwanken koennen. Jensen gehoert zwar nicht in die Kategorie, trifft leider auch nicht immer alle Entscheidungen selber und ist wie jeder Mensch einfach auch nicht fehlerfrei.
Du glaubst doch wohl selber nicht, dass Jensen in solchen Entscheidungen nicht beteiligt gewesen wäre.

Ailuros
2013-01-21, 15:09:39
Und damit zurück zu GK110 und der Frage ob er überhaupt noch fürn Desktop kommt und wenn, dann wann und wie er dann aussieht und was er kann - und wie schnell...

Aktuell scheinen die Glaskugeln alle im Trüben zu fischen - oder so...

Ich darf nur sagen dass es kommen wird und momentan mehr nicht.

Ronny145
2013-01-21, 15:09:55
Multiple independent sources say the SweClockers to GK110 appears in Geforce Titan - an upcoming graphics cards in high-end class.

According SweClockers sources the launch of the GeForce Titanium to resemble that of the GeForce GTX 690th Partner Manufacturers must follow Nvidia's reference design to the letter and can not even put their own stickers on graphics cards. The performance is estimated at about 85 percent of a Geforce GTX 690 .

The same sources claim that Geforce Titanium released in late February and has a suggested retail price of 899 USD.
http://www.sweclockers.com/nyhet/16402-nvidia-gor-geforce-titan-med-kepler-gk110


Ein stolzer Preis.

Ailuros
2013-01-21, 15:14:03
Du glaubst doch wohl selber nicht, dass Jensen in solchen Entscheidungen nicht beteiligt gewesen wäre.

Ich glaube es zwar nicht aber ich weiss auch nicht bis zu welchem Grad er genau die Verantwortung traegt fuer den Fall.

Dural
2013-01-21, 15:17:08
hier noch auf Deutsch

http://www.computerbase.de/news/2013-01/kommt-nvidias-gk110-gpu-als-geforce-titan-in-den-handel/

Preis ist im rahmen des erwarteten würde ich jetzt mal sagen. ich hoffe aber auf einen vollausbau, sonst wird das nichts für meinen rechner.

Nightspider
2013-01-21, 15:18:10
85% einer 690 wären 70% über einer 680. Vielleicht sogar nur bei 50-60% falls Nvidia nicht von der doppelten Leistung der 690 zur 680 bei der Berechnung ausgeht.
Wenn die Karte nicht gleich mit 6GB VRAM kommt wären 900 Euro dafür total überteuert, wenn ne GTX680 jetzt teilweise schon ab 375 Euro zu haben ist.

boxleitnerb
2013-01-21, 15:19:46
Sehr stolz, ja. Der Name hat was :D
85% der GTX690 ist krass, dazu müsste der Chip zu recht hohen Taktraten noch sehr verbessert worden sein.

Wobei natürlich auch die Frage ist, auf welcher Basis man rechnet. Geht man von 80% Skalierung bei der 690 aus, so landet man bei den schon mehrfach erwähnten 50-55%, die die Titan dann schneller als die 680 ist.

Nightspider
2013-01-21, 15:23:51
Bitte löschen

Dural
2013-01-21, 15:24:04
na die 8800Ultra hat auch etwa so viel gekostet und die war keine 50% vor der GTX ;)

boxleitnerb
2013-01-21, 15:29:04
Wir erinnern uns an den 7970 Launch:

30% mehr Performance zum Vorgänger bei 50% höherem Launch-Preis (MSRP). 150%/130%=1.15

Titan:
60% mehr Performance zum Vorgänger bei 80% höherem Launch-Preis (MSRP). 180%/160%=1.12

Nvidia macht also genau das, was AMD vorgemacht hat, eben nur auf einem höheren Preisniveau. Solange der Preis dann um 100-200 Dollar sinkt, sobald die HD8970 antanzt, sehe ich das nicht sooo wild. Absolut gesehen und angesichts der aktuellen Marktsituation ist es natürlich sehr unschön und macht die Hoffnung auf endlich erschwingliche 28nm Karten von Nvidia zunichte. Das muss man klipp und klar sagen.

Ailuros
2013-01-21, 15:38:48
Begrenzte Verfuegbarkeit einfacher ausgedrueckt.

aufkrawall
2013-01-21, 15:42:59
Wenn man dann mit OC die Leistung einer 690 erreicht, wär das schon sehr ordentlich.
Wobei der Takt dafür ja schon recht hoch sein müsste, denke nicht, dass daraus was wird.

Zergra
2013-01-21, 15:43:29
Lol :D also kommt der GK110 nicht als 780GTX auf dem Markt ? ;) :D

boxleitnerb
2013-01-21, 15:44:44
Ich gehe mit an Sicherheit grenzender Wahrscheinlichkeit davon aus, dass da volle GK110 drauf sind, denn irgendwas müssen die ja damit machen. Da ist die Verfügbarkeit bei 600 Dollar natürlich ein Problem, das könnte man nicht befriedigen.

Jetzt brauchen wir nur noch TDP, Speichermenge und ob man endlich die Spannung erhöhen kann. Vermutlich wieder nicht...

Schaffe89
2013-01-21, 15:46:15
Ihr solltet mal den Rechenschieber benutzen.

Die gtx 680 leistet 65 prozent einer gtx 690, die hd 7970 ghz 70 % einer gtx 690 die titan soll 85% einer gtx 690 leisten, das sind grade mal um den dreh 30 % mehrleistung zur gtx 680 und knapp ueber 20 zur hd 7970 ghz.

boxleitnerb
2013-01-21, 15:47:44
Das kommt doch sehr stark auf den Parcour an. Wenn SLI gescheit funktioniert und man wirklich volle Kanne im GPU-Limit hockt, leistet die 690 schon 80-85% mehr.
Wenn du schon Ratings anschaust, dann bitte die richtigen: http://ht4u.net/reviews/2012/nvidia_geforce_gtx_690_im_test/index43.php

180%*0,85 macht 153% relativ zur 680. Das passt doch wie die Faust auf die bisherigen Spekus (ca. 50% mehr Rechenleistung und Bandbreite, um einiges mehr Abstand zur 680 als GF110 zu GF114).

aufkrawall
2013-01-21, 15:52:00
Das kommt doch sehr stark auf den Parcour an. Wenn SLI gescheit funktioniert und man wirklich volle Kanne im GPU-Limit hockt, leistet die 690 schon 80-85% mehr.

Wenns nicht ein gaanz böser Deferred Renderer ist, sinds mit SSAA eher +90%.
mGPU wird einfach kacke gebencht.

Ailuros
2013-01-21, 15:53:13
Ihr solltet mal den Rechenschieber benutzen.

Die gtx 680 leistet 65 prozent einer gtx 690, die hd 7970 ghz 70 % einer gtx 690 die titan soll 85% einer gtx 690 leisten, das sind grade mal um den dreh 30 % mehrleistung zur gtx 680 und knapp ueber 20 zur hd 7970 ghz.

Ich hab es mit Absicht ueberflogen weil man aus der Aussage keine Schlussfolgerung ziehen kann wie man es auch verdreht. Vielleicht hilft es nachzudenken auf welchen sinnlosen Fall meistens sich solche Aussagen vor jeglichem launch beziehen ;)

Wenns nicht ein gaanz böser Deferred Renderer ist, sinds mit SSAA eher +90%.
mGPU wird einfach kacke gebencht.

Den Duenschiss dass NV je einen DR entwickeln wird koennten wir so langsam ein fuer alle mal begraben.

boxleitnerb
2013-01-21, 15:53:41
Wenns nicht ein gaanz böser Deferred Renderer ist, sinds mit SSAA eher +90%.
mGPU wird einfach kacke gebencht.

So schauts aus. Nicht auf die Schlechtreder hören :)

Ailuros
2013-01-21, 15:54:53
So schauts aus. Nicht auf die Schlechtreder hören :)

http://www.legitreviews.com/article/1921/11/

:rolleyes:

boxleitnerb
2013-01-21, 15:56:12
Was willst du damit jetzt sagen?
Es gibt solche Reviews und solche. Nur weil ein Review teilweise im CPU-Limit bencht, macht das die Karte nicht langsamer, nur weniger ausgelastet ;)

aufkrawall
2013-01-21, 16:12:02
So schauts aus. Nicht auf die Schlechtreder hören :)
Bei den meisten Spielen kann man halt, spätestens mit Gefrickel, die fps wirklich nahezu verdoppeln.
Die Bench-Leute testen aber nicht nur leider oft im CPU-Limit, sondern blenden diese Möglichkeiten auch noch aus.

Ich bin mal gespannt, ob man mit GK110 etwa Mirror's Edge oder die meisten anderen UE3-Spiele bei 1080p 8xSGSSAA auch +90% der Zeit mit konstanten 60fps zocken kann.
Mit GTX 690 ziemlich problemlos möglich.

Ailuros
2013-01-21, 16:13:50
Was willst du damit jetzt sagen?
Es gibt solche Reviews und solche. Nur weil ein Review teilweise im CPU-Limit bencht, macht das die Karte nicht langsamer, nur weniger ausgelastet ;)

Pre launch Leistungsquotes sind meistens leider auf 3dfurz basiert; ob es wirklich aussagekraeftig sein koennte fuer die eigentliche durchschnittliche Leistung der GPU selber unter Spielen ist wohl ein anderes Bier.

Bleibt abzusehen ob sich techpowerup bzw. ihre "Quelle" verzettelt hat denn eine 14 SMX Variante ist gar nicht so absurd bei 235W TDP und auch nicht einem <15k 3dfurz11 score. Die eigentliche Unverschaemtheit in dem Fall waere der MSRP fuer das Ding.

***edit: die 3dfurz Leistung passt auf jeden Fall besser zu einem salvage part stets IMHO.

boxleitnerb
2013-01-21, 16:18:00
Ach das meinst du. Was macht Nvidia dann mit den 15 SMX Teilen? Einen abgespeckten GK110 Titan nennen, ich weiß ja nicht...

Ich glaub nach wie vor, dass sie das mit K20X verwechselt haben. Dazu passt die SMX-Zahl, die TDP und die Speichermenge. Dass Nvidia bei 235W aufhört und nicht 250W nimmt bei so einer teuren und monströsen Karte, kann ich mir nicht vorstellen.

Ailuros
2013-01-21, 16:39:21
Ach das meinst du. Was macht Nvidia dann mit den 15 SMX Teilen? Einen abgespeckten GK110 Titan nennen, ich weiß ja nicht...

Ich glaub nach wie vor, dass sie das mit K20X verwechselt haben. Dazu passt die SMX-Zahl, die TDP und die Speichermenge. Dass Nvidia bei 235W aufhört und nicht 250W nimmt bei so einer teuren und monströsen Karte, kann ich mir nicht vorstellen.

Kann durchaus sein; das daemliche ist lediglich dass der 3dfurz score sehr schoen in die 85% von GTX690 passt.

Timbaloo
2013-01-21, 16:50:50
Theorie: NV haut GK110 für das lukrative Großrechnergeschäft schnell, aber nur mit 14 SMX raus, weil für HPC die Bandbreite gerne kriegsentscheidend ist und die zusätzliche SMX nicht viel reissen würde. Die über die Zeit gesammelten Chips mit 15 guten SMX werden als Über-GTX veröffentlicht.

Klingt das total schwachsinnig?

PS: Unterstellt mir kein Wunschdenken, GK110 ist so oder so zu groß für mich ;)

Ailuros
2013-01-21, 17:16:39
Schwachsinnig durchaus nicht; in dem Fall macht auch ein $899 MSRP fuer die 15 SMX Variante mehr Sinn; nur wuerde ich die 85% GTX690 Leistungs-Behauptung dann eher dem 14 SMX salvage part zustecken, egal wie krumm sie ausgesucht sein mag.

VooDoo7mx
2013-01-21, 17:29:40
Also für $899 will ich schon die volle Dröhnung. Also wenn da was abgespeckt wird, verzichte ich und warte auf den vollen Refresh. ;)

Zergra
2013-01-21, 17:42:46
Also für $899 will ich schon die volle Dröhnung. Also wenn da was abgespeckt wird, verzichte ich und warte auf den vollen Refresh. ;)
Den es vllt. nie geben wird ? ;) :D

Godmode
2013-01-21, 18:22:25
Endlich sickert mal was durch, das wäre dann ziemlich genau der Termin den wir hier die letzten Wochen ins Auge gefasst haben, also irgendwo Ende Februar bis März.

boxleitnerb
2013-01-21, 18:33:36
Es wird ganz sicher noch eine 780 auf einem GK204 o.ä. kommen. Denn bei dem Preis könnte die Titan genausogut nicht existieren, sie ist für Nvidias Lineup mehr oder weniger irrelevant und nur ein Prestigeprodukt. Man muss auch was im Preisbereich 400-500 Euro anbieten können.

fondness
2013-01-21, 18:52:26
Es wird ganz sicher noch eine 780 auf einem GK204 o.ä. kommen. Denn bei dem Preis könnte die Titan genausogut nicht existieren, sie ist für Nvidias Lineup mehr oder weniger irrelevant und nur ein Prestigeprodukt. Man muss auch was im Preisbereich 400-500 Euro anbieten können.

Naja es wird sicher auch mehr oder weniger stark teildeaktivierte GK110-Produkte geben.

boxleitnerb
2013-01-21, 18:58:19
Naja es wird sicher auch mehr oder weniger stark teildeaktivierte GK110-Produkte geben.

Diesmal wäre ich da nicht so sicher. Ich denke, wir sind an einem Wendepunkt GK110 kommt diesmal im Desktop...grad so. Schon der Name deutet an, dass man sich vom normalen Namenschema entfernt.

Duplex
2013-01-21, 18:59:04
Wenn die HD8970 "Sea Islands" 30% schneller als die GTX680 wird, dann wird Nvidia keine Mondpreise für ihren GK110 verlangen können, ist besser wenn Sie die Chips dann im Profi Markt verkaufen.

Blaire
2013-01-21, 19:07:27
na die 8800Ultra hat auch etwa so viel gekostet und die war keine 50% vor der GTX ;)

700€ kostete die. :)

Wie auch immer, das Schnellste war schon immer etwas teurer, zumal keine Konkurrenz vorhanden, so wohl auch hier.

Schaffe89
2013-01-21, 19:14:35
Ich habe das Gefühl, dass der Preis nicht zu halten sein wird.

Selbst wenn man AMD diesmal um ganze 15% schlägt, dürfte die Karten doch fast niemand kaufen bei dem Preis.
AMD kann mit einem kleineren Chip viel flexibler die Preise anpassen, ergo muss auch noch ein Update der GTX 680 ala GTX 780 kommen, mit 10 bis 15% Mehrleistung.

Godmode
2013-01-21, 19:16:05
PCGH: "Sweclockers schreibt darüber hinaus, dass Nvidia Herstellern von Karten auf GK110-Basis strenge Richtlinien auferlegen wird - ähnlich dem Verfahren bei der Geforce GTX 690. Boardpartner sollen GK110-Karten also lediglich mit Referenzvorgaben von Nvidia bauen dürfen. "
http://www.pcgameshardware.de/Nvidia-Geforce-Hardware-255598/News/Nvidia-Geforce-Titan-anstatt-GTX-780-1044936/

Das würde mir irgendwie gefallen, da das bei der 690 schon zu einen sehr sauber verarbeiteten Produkt geführt hat im Gegensatz zu den Plastikbombern darunter.

Blediator16
2013-01-21, 19:24:32
PCGH: "Sweclockers schreibt darüber hinaus, dass Nvidia Herstellern von Karten auf GK110-Basis strenge Richtlinien auferlegen wird - ähnlich dem Verfahren bei der Geforce GTX 690. Boardpartner sollen GK110-Karten also lediglich mit Referenzvorgaben von Nvidia bauen dürfen. "
http://www.pcgameshardware.de/Nvidia-Geforce-Hardware-255598/News/Nvidia-Geforce-Titan-anstatt-GTX-780-1044936/

Das würde mir irgendwie gefallen, da das bei der 690 schon zu einen sehr sauber verarbeiteten Produkt geführt hat im Gegensatz zu den Plastikbombern darunter.

Hast recht. Die Haptik bei Grafikkarten ist unheimlich wichtig:freak:

Zergra
2013-01-21, 19:25:22
PCGH: "Sweclockers schreibt darüber hinaus, dass Nvidia Herstellern von Karten auf GK110-Basis strenge Richtlinien auferlegen wird - ähnlich dem Verfahren bei der Geforce GTX 690. Boardpartner sollen GK110-Karten also lediglich mit Referenzvorgaben von Nvidia bauen dürfen. "
http://www.pcgameshardware.de/Nvidia-Geforce-Hardware-255598/News/Nvidia-Geforce-Titan-anstatt-GTX-780-1044936/

Das würde mir irgendwie gefallen, da das bei der 690 schon zu einen sehr sauber verarbeiteten Produkt geführt hat im Gegensatz zu den Plastikbombern darunter.
Mit schlechten Referenzkühlern ? ;)

fondness
2013-01-21, 19:26:28
Mit schlechten Referenzkühlern ? ;)

Also NV fertigt eigentlich so ziemlich die besten Kühler die der Markt her gibt.

aufkrawall
2013-01-21, 19:27:23
Also NV fertigt eigentlich so ziemlich die besten Kühler die der Markt her gibt.
Tatsächlich? Das der 670er ist purer Schrott.

y33H@
2013-01-21, 19:27:42
Der wird sicherlich nicht von Nvidia gefertigt ... vor Jahren war es mal Coolermaster - wer baut den der GTX 690?

Das der 670er ist purer Schrott.Nein, nur sehr günstig ;-)

Skysnake
2013-01-21, 19:28:39
Ich hab es mit Absicht ueberflogen weil man aus der Aussage keine Schlussfolgerung ziehen kann wie man es auch verdreht. Vielleicht hilft es nachzudenken auf welchen sinnlosen Fall meistens sich solche Aussagen vor jeglichem launch beziehen ;)

Cherry-Picking ahoi...

Was soll man sonst erwarten, man sucht sich eben den Fall raus, wo die GTX690 möglichst schlecht und die neue Karte zum Vergleich besonders gut performt.

Wenn man schon mit mGPU vs sGPU Vergleichen Anfängt, sollte man nicht zu viel von den Zahlen erwarten

Bei den meisten Spielen kann man halt, spätestens mit Gefrickel, die fps wirklich nahezu verdoppeln.
Die Bench-Leute testen aber nicht nur leider oft im CPU-Limit, sondern blenden diese Möglichkeiten auch noch aus.

Ich bin mal gespannt, ob man mit GK110 etwa Mirror's Edge oder die meisten anderen UE3-Spiele bei 1080p 8xSGSSAA auch +90% der Zeit mit konstanten 60fps zocken kann.
Mit GTX 690 ziemlich problemlos möglich.
Dir ist schon klar, dass das nVidia in diesem Fall voll rein laufen würde?

Ach das meinst du. Was macht Nvidia dann mit den 15 SMX Teilen? Einen abgespeckten GK110 Titan nennen, ich weiß ja nicht...

Ich glaub nach wie vor, dass sie das mit K20X verwechselt haben. Dazu passt die SMX-Zahl, die TDP und die Speichermenge. Dass Nvidia bei 235W aufhört und nicht 250W nimmt bei so einer teuren und monströsen Karte, kann ich mir nicht vorstellen.
Wer sagt denn ob es überhaupt funktionsfähige 15SMX Chips gibt, die nicht in der Leistungsaufnahme explodieren?

Ich finde es schwachsinn, zu erwarten, das ne 15SMX Version zuerst für den Desktop kommt. Bevor das passiert, wird man ne K25x auflegen oder what ever, und nen richtigen Mondpreis verlangen...

Wenn man nicht mal gebacken bekommt, ne 14SMX Version für den HPC Markt für mehrere tausend € raus zu bringen, wird man garantiert keine 15SMX Version für nen paar hundert € sehen...

Theorie: NV haut GK110 für das lukrative Großrechnergeschäft schnell, aber nur mit 14 SMX raus, weil für HPC die Bandbreite gerne kriegsentscheidend ist und die zusätzliche SMX nicht viel reissen würde. Die über die Zeit gesammelten Chips mit 15 guten SMX werden als Über-GTX veröffentlicht.

Klingt das total schwachsinnig?

PS: Unterstellt mir kein Wunschdenken, GK110 ist so oder so zu groß für mich ;)
Ja, da es für diesen Markt eben abseits von den wenigen Auserwählten Kunden nur die 13SMX Version mit beschnittenem Speicherinterface gibt :-_-:

boxleitnerb
2013-01-21, 19:32:50
Wer sagt denn ob es überhaupt funktionsfähige 15SMX Chips gibt, die nicht in der Leistungsaufnahme explodieren?


Ein gutes Jahr nach ersten 28nm Produkten? Find ich jetzt nicht so unwahrscheinlich. Laut Ailuros sind es auch die Frequenzen, die den Verbrauch maßgeblich beeinflussen, ein SMX mehr oder weniger kaum.

Godmode
2013-01-21, 19:32:51
Hast recht. Die Haptik bei Grafikkarten ist unheimlich wichtig:freak:

Das ist ein netter Nebeneffekt, der natürlich im geschlossenen Gehäuse unnütz ist. Das Posting war aber, wie die meisten anderen verstanden haben, auf die Kühlleistung/Lautstärke bezogen und die ist bei der 690 eben wirklich gut.

Blediator16
2013-01-21, 19:40:53
Das ist ein netter Nebeneffekt, der natürlich im geschlossenen Gehäuse unnütz ist. Das Posting war aber, wie die meisten anderen verstanden haben, auf die Kühlleistung/Lautstärke bezogen und die ist bei der 690 eben wirklich gut.

Solange unter der Plastikhaube gute Kühlung sitzt, sollte dem dann nichts im Wege stehen.

Skysnake
2013-01-21, 19:54:06
Ein gutes Jahr nach ersten 28nm Produkten? Find ich jetzt nicht so unwahrscheinlich. Laut Ailuros sind es auch die Frequenzen, die den Verbrauch maßgeblich beeinflussen, ein SMX mehr oder weniger kaum.
Das kann dir nur nVidia und TSMC beantworten, was Sie sicherlich nicht tun werden. Das man allerdings selbst im HPC-Markt zwei Produkte bringt, wobei der "top-bin" noch immer beschnitten ist, und das obwohl nur an handverlesene Kunden verteilt wird, spricht eigentlich Bände.

Es ist doch total Banane, ne 15SMX version für vielleicht 1k€ zu verkaufen, wenn man Sie auch für 3k+ € als Tesla verkaufen könnte.

boxleitnerb
2013-01-21, 19:57:47
Außer der 480 - wann hatte Nvidia zuletzt eine Karte, wo sie was teildeaktivieren mussten und keinen vollen Part rausbrachten? Du siehst das immer viel zu negativ mMn. Geforce GK110 ist noch nicht draußen, das zählt also noch nicht, da muss man abwarten und nicht voreilig Schlüsse ziehen.

Genauso Banane, wie dies bei GF100, GF110, GT200(b) usw. zu tun? Du tust ja gerade so, als wäre sowas noch nie vorgekommen...was aber völliger Unsinn ist. Deiner Logik zufolge hätte es nie eine 8800 Ultra/GTX, eine GTX280, GTX285, GTX480 und GTX580 geben dürfen, weil Nvidia die vollen Chips viel gewinnbringender im Profimarkt hätte verkaufen können.

Schaffe89
2013-01-21, 20:04:20
enauso Banane, wie dies bei GF100, GF110, GT200(b) usw. zu tun? Du tust ja gerade so, als wäre sowas noch nie vorgekommen...was aber völliger Unsinn ist.

Eigentlich tut er das nicht. Er hat das nicht unter diesem Aspekt gesehen.
Wenn es den Vollausbau im HPC Markt gibt, dann ist es wahrscheinlich dass er nach einiger Zeit auch im Gaming Bereich kommt, umgekehrt doch eher nicht, oder siehst du das anders?

Negativ sieht er das aus meiner Warte ganz und gar nicht.

Godmode
2013-01-21, 20:08:06
Es ist doch total Banane, ne 15SMX version für vielleicht 1k€ zu verkaufen, wenn man Sie auch für 3k+ € als Tesla verkaufen könnte.

Könnte es nicht, dass sie dann im Serversegment weit nicht soviele 15 SMX Karten liefern könnten und somit viele Kunden verunsichern würden? Im Desktop Bereich kauft eh fast niemand einen 800-900 Euro Karte, somit könnte man dort das dann auch anbieten?

boxleitnerb
2013-01-21, 20:09:19
Ja ich sehe das anders, na und? Skysnake malt immer gern den Teufel bei Nvidia an die Wand, ich sollte seine Posts gar nicht mehr lesen.

Sowas wie das von Godmode wollte ich auch schreiben. Die Nachfrage nach K20(X) ist ja anscheinend ziemlich groß. Die Yields für den vollen Chip mögen noch nicht gut genug sein, um ein paar Verrückte zufrieden zu machen, wird es aber wohl reichen.

Schaffe89
2013-01-21, 20:12:35
Das Argument von Godmode kann man sicherlich so akzeptieren.
Nvidia könnte mit dem "über" Chip, auch wenn sie fast keine haben, immerhin gute Werbung erzielen.

Godmode
2013-01-21, 20:14:43
Ja ich sehe das anders, na und? Skysnake malt immer gern den Teufel bei Nvidia an die Wand, ich sollte seine Posts gar nicht mehr lesen.

:up:


Sowas wie das von Godmode wollte ich auch schreiben. Die Nachfrage nach K20(X) ist ja anscheinend ziemlich groß. Die Yields für den vollen Chip mögen noch nicht gut genug sein, um ein paar Verrückte zufrieden zu machen, wird es aber wohl reichen.

Vor allem würde man somit wieder das schnellste Pferd im Desktop-Stall haben, was auch viel Prestigewert hat.

Dural
2013-01-21, 20:25:31
zudem der GK110 chip beim GTX780 start schon rund ein halbes jahr in produktion ist, da müssen schon per zufall 15er chips anfallen, also an der nicht herstellbarkeit dürfte es sicher nicht liegen ;)

ich könnte mir aber noch gut vorstellen das mit der GeForce karten gar ein neues stepping auf den markt kommt, so ein A3 das noch etwas auf takt optimiert wurde wäre sicher nicht die dümmste idee ;) also quasi ein G80 A3 wie auf der Ultra

Timbaloo
2013-01-21, 20:27:46
Also:

780 Ultra/Titan = GK110 Vollausbau (für 'n Arsch voll Kohle)
780 = GK110 14SMX / 384Bit (für 'n Haufen Knete)
770 = GK110 13SMX / 320Bit (Hartz4 Modell)

?

Dural
2013-01-21, 20:32:36
eventuell ja

Timbaloo
2013-01-21, 20:35:41
Nix eventuell, wir legen das jetzt fest :freak:

boxleitnerb
2013-01-21, 20:36:27
Der Titan hat aber glaub keine Nummer. Vielleicht gibts echt nur ein Modell und der Rest wird mit GK204 bedient?

Zergra
2013-01-21, 20:37:10
Ich denke eher:

Titan = GK110 14/15SMX
780GTX = Gk114
etc so wie wir es jetzt haben.

AffenJack
2013-01-21, 20:40:07
Das glaube ich nicht, da wäre die lücke viel zu groß. Gk114 wird man kaum mehr als 15% hochzüchten können. Da wird mindestens nochn zweiter GK110 mit ~30% mehr Leistung kommen, der sich mit Amds Vollausbau batteln kann.

LSSJBroly
2013-01-21, 20:43:35
Das glaube ich nicht, da wäre die lücke viel zu groß. Gk114 wird man kaum mehr als 15% hochzüchten können. Da wird mindestens nochn zweiter GK110 mit ~30% mehr Leistung kommen, der sich mit Amds Vollausbau batteln kann.

Genau, und AMDs Vollausbau kostet dann "nur" rund 450-500€ -> also rund 80% Preisaufschlag gegenüber dem Topmodell?:freak:
Ich weiß ja nicht...

Skysnake
2013-01-21, 23:24:30
Außer der 480 - wann hatte Nvidia zuletzt eine Karte, wo sie was teildeaktivieren mussten und keinen vollen Part rausbrachten? Du siehst das immer viel zu negativ mMn. Geforce GK110 ist noch nicht draußen, das zählt also noch nicht, da muss man abwarten und nicht voreilig Schlüsse ziehen.

Wann hat denn nVidia das letzte mal in 28nm nen >500mm² Chip gebracht?

Es sollte einem schon SEHR zu denken geben, das man zuerst die Teslas launched, und dann erst die GeForce. Normal kommen die Teslas deutlich später, da man eben noch die Validierung usw usw betreiben muss. Zuvor kann man schon die GeForce raushauen.

Dieses mal ist es aber genau umgekehrt. Man hatte also genug Zeit, die Validierung für Teslas vor zu nehmen, die Karte zu launchen, und dabei dann auch noch zwei Versionen raus zu bringen, wobei eine Version gar nicht kaufbar ist, und dann soll man so einfach die 15 SMX Chips als GeForce für nen Apfel und nen Ei verschachern?

Wenn die Tesla noch nicht kaufbar wäre, würde ich dir ja durchaus zustimmen, die Validierung usw ist aber schon gelaufen. Es gibt absolut keinen Grund die wertvollen Chips für nen Low-cost/-profit Produkt raus zu hauen.

Vor allem nicht, wenn man selbst mit ner 14 oder auch 13SMX Version durchaus gut dastehen würde. Man muss halt etwas den Takt hoch ziehen, aber man hat eh recht viele ALUs im Chip. Von der Konkurrenz aus, scheint es auch keinen ernsten Druck zu geben. Warum sollte man also sich selbst überbieten und die eigenen Preise kaputt machen???


Genauso Banane, wie dies bei GF100, GF110, GT200(b) usw. zu tun? Du tust ja gerade so, als wäre sowas noch nie vorgekommen...was aber völliger Unsinn ist. Deiner Logik zufolge hätte es nie eine 8800 Ultra/GTX, eine GTX280, GTX285, GTX480 und GTX580 geben dürfen, weil Nvidia die vollen Chips viel gewinnbringender im Profimarkt hätte verkaufen können.
Woah Moment mal...

1. Kamen die Teslas IMMER deutlich später bisher
2. Kamen die Teslas bei gleichem Chip auch im gleichen "Maximalausbau" daher

Bei den M20x0 muss man halt bedenken, das man da Anfangs auch nur den GF100 eingesetzt hat, der eben auch in der GeForce nur beschnitten kam, und sobald es eine Tesla auf Basis von GF110 gab, gab es auch den Vollausbau.

Da war also nichts mit "die hätten da auch die Chips im Profimarkt verkaufen können"....

Das haben Sie nämlich! Aber halt sobald die Validierung usw fertig war... Und genau das ist dieses mal eben schon durch...

Könnte es nicht, dass sie dann im Serversegment weit nicht soviele 15 SMX Karten liefern könnten und somit viele Kunden verunsichern würden? Im Desktop Bereich kauft eh fast niemand einen 800-900 Euro Karte, somit könnte man dort das dann auch anbieten?
Wieviel Chips braucht du denn für den HPC Markt mit 15 SMX?

Brauchst du da 20k Chips?

jo, wenn du sowas wie Titan hinstellen willst ja.

Musst du gleich sowas wie Titan hinstellen?

NÖ!

Wieviel braucht man dann?

Also nVidia ist mit ganzen 2! (In Worten ZWEI) K20(x) Systemen in der Green/Top500 vertreten.

Das K20x System hat ~19.000 GPUs, und das K20 System hat 272! (ja ihr lest richtig 272) GPUs verbaut.

Das sind die absoluten Prestige-Projekte, aber scheinbar hats ja nichtmal gelangt 272 zusätzliche K20x raus zu hauen. Und ihr erwartet ernsthaft das man ne 15 SMX Version FÜR DEN LOWCOST DESKTOP bringt? Man darf sich das wünschen, aber ich wünsche mir auch jede Woche im Lotto zu gewinnen, obwohl ich nicht spiele.... :rolleyes:

Wenn die als GeForce ne 15 SMX Version bringen könnten, dann hätten Sie auch die popeligen 272 GPUs für das kleine System bringen können und sich damit nicht die Blöse geben müssen in der Effizienz hinter AMD und Intel zurück zu fallen...

Oder schätzt ihr etwa den Markt für ne GeForce Titan geringer als 272 GPUs ein?

Wenn ja, ist eh jedwede Diskussion über einer derartige "GeForce" lächerlich



Ja ich sehe das anders, na und? Skysnake malt immer gern den Teufel bei Nvidia an die Wand, ich sollte seine Posts gar nicht mehr lesen.

Du ignorierst einfach einfach alle Vorzeichen, die eben dagegen sprechen, und hälst an deinen Wunschvorstellungen fest, ohne dich mal ernsthaft zu fragen, wie groß die Chancen dafür wirklich stehen. Es gibt nichts, aber auch wirklich rein gar NICHTS was dafür spricht, das GeForce Titan ne 15SMX Version wird/ist, außer das man nochmal ein paar Monate ins Land hat ziehen lassen.

Das bringt aber auch nicht viel, da K20x noch immer nicht verfügbar ist. nVidia verteilt die, und verkauft Sie nicht... Und das ist nur die 14 SMX Version, mit der man das Zichfache an Gewinn einer GeForce Titan machen kann.... nVidia wäre strunz dumm, die besten Chips für so zu verschleudern....


Sowas wie das von Godmode wollte ich auch schreiben. Die Nachfrage nach K20(X) ist ja anscheinend ziemlich groß. Die Yields für den vollen Chip mögen noch nicht gut genug sein, um ein paar Verrückte zufrieden zu machen, wird es aber wohl reichen.
Ach, wie groß ist denn die Nachfrage bei K20x?

Und vor allem wie wird diese Nachfrage bedient?

Ach stimmt.... GAR NICHT....

Aber bei ner 15 SMX Version soll nVidia plötzlich Gewissensbisse haben.... Sorry, aber das ist doch lächerlich...

zudem der GK110 chip beim GTX780 start schon rund ein halbes jahr in produktion ist, da müssen schon per zufall 15er chips anfallen, also an der nicht herstellbarkeit dürfte es sicher nicht liegen ;)

Ob es an der Herstellbarkeit liegt oder nicht kann keiner sagen außer nVidia und TSMC, und von denen wirst du keine Aussage dazu bekommen. Da aber, wie schon mehrfach gesagt, selbst die K20x nicht für alles Geld der Welt käuflich zu erwerben sind, würde ich keinen müden Pfenning darauf setzen...


ich könnte mir aber noch gut vorstellen das mit der GeForce karten gar ein neues stepping auf den markt kommt, so ein A3 das noch etwas auf takt optimiert wurde wäre sicher nicht die dümmste idee ;) also quasi ein G80 A3 wie auf der Ultra
DAS wäre sogar durchaus möglich, wobei ich es mir kaum vorstellen kann. Wenn sich ein derartig schneller Refresh wirklich lohnen würde, dann hätte im "Orginal-Stepping" wirklich was ziemlich daneben geganen sein müssen. Ansonsten lohnt sich die Investition niemals, bzw man hat halt am Anfang zu früh gelaunched, und damit ne Menge Geld verbrannt...

Da ich nicht davon ausgehe, das an GK110 irgendwas kaputt oder nicht richtig ist, halte ich die Möglichkeit aber für sehr sehr sehr unwahrscheinlich, auch wenn nicht für völlig unmöglich. Auf jeden Fall aber realistischer als ne 15SMX Version ohne Refresh.

Also:

780 Ultra/Titan = GK110 Vollausbau (für 'n Arsch voll Kohle)
780 = GK110 14SMX / 384Bit (für 'n Haufen Knete)
770 = GK110 13SMX / 320Bit (Hartz4 Modell)

?
Wenn du aus der 770 ne 780 machst, und den Vollausbau weg lässt, dann ein vielleicht.

Wahrscheinlicher ist aber wohl, das man als "Titan" ne 13/12 SMX Version mit 384 Bit Interface, oder ne 14/13/12 SMX Version mit 320 Bit Interface bekommt. Ich tendiere aber eher zu 12SMX & 320 Bit SI

Ich denke eher:

Titan = GK110 14/15SMX
780GTX = Gk114
etc so wie wir es jetzt haben.
Streich das GK114....

Ailuros hat doch schon oft genug gesagt, dass die mittlere Zahl in Verbindung mit den HPC-Features steht, und das Ding GK204 lauten wird. Gab dazu ja auch schon genug Diskussionen und Gerüchte hier...

Godmode
2013-01-22, 00:00:54
Wieviel braucht man dann?

Also nVidia ist mit ganzen 2! (In Worten ZWEI) K20(x) Systemen in der Green/Top500 vertreten.

Das K20x System hat ~19.000 GPUs, und das K20 System hat 272! (ja ihr lest richtig 272) GPUs verbaut.


Das wären dann nur ca. 65 Mio. Euro bei 3500 € Verkaufspreis? Warum macht man das dann überhaupt, ich meine ja die Entwicklung des Topdogs verschlingt doch hunderte Mio? Was ist der Sinn solch einer Strategie?



Da ich nicht davon ausgehe, das an GK110 irgendwas kaputt oder nicht richtig ist, halte ich die Möglichkeit aber für sehr sehr sehr unwahrscheinlich, auch wenn nicht für völlig unmöglich. Auf jeden Fall aber realistischer als ne 15SMX Version ohne Refresh.


Aber was siehst du dann als Hauptgrund für ein nicht erscheinen einer 15 SMX Version im Desktop? Liegt es vielleicht an der Ausbeute? Oder ist der Chip vielleicht so designed, das man nur 14 SMX nutzen kann und der 15. quasi nur Redundanz darstellt aber im gesamten Chip maximal 14 gleichzeitig verwendet werden können? Ist sowas denkbar?

Skysnake
2013-01-22, 00:18:32
Wie immer halt.

Ausbeute, wie du schon richtig gesagt hast. Die Chips werden aus welchen Gründen auch immer halt nicht die entsprechenden Qualitätsansprüche erreichen.

Zudem ist GK110 halt ein echter Monsterchip, und das auf 28nm, welcher eh problematisch und vor allem teuer ist.

Du kannst GK110 auch nicht einfach in Massen raus hauen, und die kleinen Chips dann in mehreren Stufen als Salvage-Part verkaufen, nur um die nötige Anzahl an 15SMX Chips zu erhalten bei schlechten Binning-Yields. Du hast einfach nur eine sehr begrenzte Anzahl an Wafern, die auch noch viel kosten.

Da ist es einfach ne wirtschaftliche Überlegung, wie man am meiten Geld pro Wafer macht, und das ist scheinbar nicht den GK110 im Desktop-Markt zu bringen als Vollausbau, aus den oben genannten Gründen.

Ansonsten darfst du ein nicht vergessen, es gibt zwar nur ein K20x System, aber die K20 kann man ja auch als Ottonormaluser kaufen. Wir im Institut haben auch zwei K20 rumliegen, aber eben keine K20x.

Die kannst du halt einfach nicht kaufen, und deswegen weigere ich mich auch die Möglichkeit eines GeForce Vollausbaus für voll zu nehmen. nVidia hat auch ncihts zu verschenken, und damit würden Sie die Chips einfach verramschen....

Selbst wenn Sie die "nur" als K20x bringen, und keinen eigenen Bin auflegen, machen sie damit noch immer ein Zichfaches des Geldes, das Sie mit einer GeForce Version machen. Vor allem werden ihnen die HPC-Leuts die KArten aus den Händen reisen...

Hauwech
2013-01-22, 00:56:22
War das nur ein Gerücht oder hat nVidia tatsächlich nur so viele Wafer für GK110 aufgelegt wie sie für die Verträge brauchten?

Sollte die Massenproduktion von GK110 entsprechend später mit erhofft besseren Yields und sogar schon als A2/A3 (ziemlich unwahrscheinlich) gestartet sein, dann könnten wir ja durchaus 15er Chips bei offizieller Vorstellung als GeForce und vielleicht später auch als Tesla sehen. Wobei, keine Ahnung ob bei einem gleichen aber "fetteren" Chip der Validierungszyklus neu gestartet werden müsste.

Zum Refresh: Da 20nm noch schlechter als 28nm sein soll, erscheint ein Refresh (B1/B2?) vielleicht gar nicht so unwahrscheinlich.

Skysnake
2013-01-22, 01:35:44
Also K20 scheint a1 Silicon zu sein.

Genau deswegen aber jetzt noch nicht.

Man muss sich ja noch was aufheben, 2013 kommt 20nm definitiv nicht, und 2014 glaub ich auch nicht so recht dran. Da wäre so ein Midlifekicker gegen Ende 2013/Anfang 2014 ne gute Sache.

OgrEGT
2013-01-22, 06:40:14
Man muss aber auch bei HPC bedenken dass nicht alle Karten kopflos und nur für große Cluster gekauft werden. Wie hoch ist die Mehrleistung von 14 auf 15 SMX genau? Zudem stellt sich dort nicht die Prestigefrage sondern knallhart Preis/Leistung und Leistung/Watt.
Deshalb halte ich 15SMX Geforces in homöopathischer Dosierung nicht für unmöglich.

boxleitnerb
2013-01-22, 06:51:54
@Skysnake:
Du siehst, was du sehen willst und ignorierst dabei völlig logische Zusammenhänge:

Nvidia kam mit Tesla zuerst, weil man

a) GK104 wunderbar für 500 Euro an den Mann bringen konnte. Da wäre man sehr dämlich, sich das Geschäft kaputtzumachen mit GK110 und einen Preisrutsch auszulösen. Oder, falls man die Karte eben so teuer angeboten hätte wie jetzt, sich die 690 direkt nach Launch praktisch überflüssig zu machen. Eine Karte hat inzwischen eine Lebensdauer von 12-18 Monaten, bis ein Nachfolger kommt, es sei denn, man hat Mist gebaut und muss es schnell fixen (480). Man will schließlich schön in Ruhe verkaufen und nicht neue Produkte mit Eile auf den Markt werfen, nur damit deine kruden Thesen stimmen.

b) Diesmal Intel mit Macht in den Markt drängt und auch AMD endlich eine brauchbare Lösung hat. Geforce ist noch gut bedient, s.o., bei HPC musste man handeln.

Und gerade WEIL Geforce später kommt, sind verbesserte Yields, ein neues Stepping und dementsprechend eine 15 SMX Version nicht auszuschließen. Der Prozess ist teuer und es gab/gibt Kapazitätsprobleme. Daraus kann man aber doch nicht auf die Yields eines bestimmten Produkts schließen, da stehen einem ja die Haare zu Berge!

Finch
2013-01-22, 07:08:23
7 Mrd. Transistoren? Heidewitzka, ich bin verliebt.

boxleitnerb
2013-01-22, 07:30:37
Sorry, war wohl ein Fake von Edgecrusher :D
Ohne Quelle nicht postwürdig, mein Fehler.

OgrEGT
2013-01-22, 07:41:25
Sorry, war wohl ein Fake von Edgecrusher :D
Ohne Quelle nicht postwürdig, mein Fehler.

*Flüster* schnell noch einen 15-er Fake nachschieben.

Godmode
2013-01-22, 09:16:33
Sorry, war wohl ein Fake von Edgecrusher :D
Ohne Quelle nicht postwürdig, mein Fehler.

Immer diese Tölpel mit ihren Fakes. :facepalm:
Hab mich schon immer gefragt was das so nem Forenuser bringt?

Skysnake
2013-01-22, 09:28:25
Boxleitnerb, wenn du dir sooo sicher bist, was hälst du von nem Kasten Bier?

Ich schick dir gern einen zu, wenn du Recht hast. Du mir auch, wenn ich Recht habe und es keine 15 SMX Version gibt?

boxleitnerb
2013-01-22, 09:29:59
Ich bin mir nicht sicher. Ich halte es eben nicht für so kategorisch ausgeschlossen wie du. Pack dich mal an der eigenen Nase ;)

Skysnake
2013-01-22, 09:40:11
Naja, was soll man dazu sagen...

Wenn man ne Überzeugung hat, und so dermaßen gegen die Überzeugung eines anderen wettern kann, der, zumindest meiner Auffassung nach, eine vielzahl an nachvollziehbaren Gründen liefert, dann sollte man schon die Cochones haben, auch dazu zu stehen. Ich habe aber ganz ehrlich nichts anderes erwartet.

So muss man ja keine Konsequenze fürchten, wenn man doch daneben haut. Man muss ja nichtmal noch irgendwas dazu sagen, sondern kann die ganze Sache klamm heimlich unter dem Teppich verschwinden lassen, und sich an nichts mehr erinnern.

Aber keine Sorge, ich werde dich daran erinnern, egal wie es ausgeht. Ich steh nämlich dazu, wenn ich Unrecht habe. Passiert nur recht selten.

ndrs
2013-01-22, 09:57:23
Zudem stellt sich dort nicht die Prestigefrage sondern knallhart Preis/Leistung und Leistung/Watt.
Deshalb halte ich 15SMX Geforces in homöopathischer Dosierung nicht für unmöglich.
Preis/Leistung würde ich mal eher hinten anstellen. Energieeffizienz ist das Stichwort. Und gerade hier ist ein breiterer Chip immer effizienter als ein kleinerer mit höheren Taktraten, was wieder dafür spricht, die 15SMX-Version erst als Tesla zu bringen. Einem Enthusiasten kann man eher einen Stromschlucker andrehen. Ich bin bei dem Thema ganz Skysnakes Meinung

Übrigens mal kurz mit den 85% GTX690 rumgerechnet:
Wenn man einfach die Rohleistung ins Verhältnis setzt, kommt man bei 14SMX auf ziemlich genau 835 MHz (ausgehend vom Baseclock der 690), was ich bei um die 300W für doch recht realistisch halte.

Spasstiger
2013-01-22, 10:14:56
Als reine Enthusiastenkarte kann man "GeForce Titan" doch auch mit 375 Watt TDP (2*8-Pin) anbieten und dafür den Takt auf 1 GHz hochschrauben. Dann reichts auch für GTX-690-Niveau und darüber hinaus.

Godmode
2013-01-22, 10:15:37
Als reine Enthusiastenkarte kann man "GeForce Titan" doch auch mit 375 Watt TDP (2*8-Pin) anbieten und dafür den Takt auf 1 GHz hochschrauben. Dann reichts auch für GTX-690-Niveau und darüber hinaus.

Von mir aus gerne, dann kann man auch zwei nehmen hat mehr als Quad 690 Leistung.

boxleitnerb
2013-01-22, 11:09:41
Naja, was soll man dazu sagen...

Wenn man ne Überzeugung hat, und so dermaßen gegen die Überzeugung eines anderen wettern kann, der, zumindest meiner Auffassung nach, eine vielzahl an nachvollziehbaren Gründen liefert, dann sollte man schon die Cochones haben, auch dazu zu stehen. Ich habe aber ganz ehrlich nichts anderes erwartet.

So muss man ja keine Konsequenze fürchten, wenn man doch daneben haut. Man muss ja nichtmal noch irgendwas dazu sagen, sondern kann die ganze Sache klamm heimlich unter dem Teppich verschwinden lassen, und sich an nichts mehr erinnern.

Aber keine Sorge, ich werde dich daran erinnern, egal wie es ausgeht. Ich steh nämlich dazu, wenn ich Unrecht habe. Passiert nur recht selten.

Werd mal nicht frech. Ich habe genauso nachvollziehbare Gründe geliefert. Charlie kannst du solche Vorwürfe machen, mir nicht. Fakt ist, ich halte beides für möglich, du nicht.

Skysnake
2013-01-22, 12:16:34
Davon merkt man aber nichts, wenn man deine Beiträge liest. Da läuft ja alles Super bei nVidia, und man hat ja absolut keinen Grund, eine beschnittene Chip zu launchen.

Und jetzt auf einmal ist doch beides möglich? Das ist doch jetzt ein großer Sinneswandel.

PS:
Und schön, das du nicht lesen kannst. Ich halte es eben nicht für "unmöglich" aber mit an Sicherheit grenzender Wahrscheinlichkeit für Ausgeschlossen, das ein 15SMX Chip als GeForce kommt. Das ist ein feiner, aber entscheidender Unterschied.

Zudem welche Gründe hast du denn bitte genannt? Du spekulierst über ein neues Stepping und Fortschritte in der Produktion. That´s it...

Dagegen sprechen aber eben Punkte wie das Fehlen einer frei verfügbaren K20x. Es macht einfach sehr wenig Sinn, einer derartigen Annahme hinterher zu rennen. Wenns so kommt schön, da kann sich jeder drüber freuen, aber man kann in keinster weise davon ausgehen, dass das so kommen wird, oder gar erwarten.

Das ist eben, wie schon gesagt die Hoffnung im Lotto zu gewinnen, was äußerst unrealistisch ist, vorallem, wenn man gar kein Lotto spielt. Völlig unmöglich ist es dennoch nicht. Softwarebugs ole ;D

boxleitnerb
2013-01-22, 12:24:08
Ich gehe eben davon aus, dass es 15 SMX-Parts gibt. Das Teil ist seit Juni in der Produktion. Selbst wenn es wir 50% Yields annehmen und 10% Binning Yields für 15 SMX, sind das 5% aller GPUs. Bisher sollte man also schon 1000 Stück gesammelt haben bis Ende Februar. Reicht doch für so ne teure Halo-Karte. Für eine extra SKU für den professionellen Markt, mit der man auch die 225W deutlich sprengt...eher nicht.

Ich bin eben kein so notorischer Schwarzseher wie du, das hat mit Sinneswandel nix zu tun :D
Toll ist die Ausbeute sicher nicht, und für eine normale 780, die zehn- bis hunderttausendfach verkauft wird, würde es nicht reichen. Für eine Angeberedition aber schon.

Dass es nur einen 14 SMX K20X gibt, spricht mMn nicht gegen einen 15 SMX Geforce. Wie gesagt - warum gab es dann die 580 etc.? Die Frage hast du bis jetzt nicht beantwortet. Nur weil diesmal die Launchreihenfolge umgekehrt ist, heißt das noch lange nichts. Wenn die Verfügbarkeit im Profisegment mies ist, ist das mMn ein größeres Problem, als wenn ein paar Enthusiasten ihre 899-Euro Karte nicht ergattern konnten.

Duplex
2013-01-22, 12:28:58
Ich würde mir GK110 nur kaufen wenn alle 15-SMX aktiviert sind, mit OC @1Ghz Takt ist die Karte dann >80% schneller als GK104 stock. 2x GK104 @1.2Ghz OC für 800 € ist aber auch keine schlechte Wahl.
Wer schlau ist wartet erstmal ab was AMD liefern wird, die Preislage könnte sich schnell ändern, vorrausgesetzt AMD enttäuscht nicht wie damals Cypress > Cayman

Skysnake
2013-01-22, 12:29:15
Das hat nichts mit "Meckersack" zu tun, sondern ist einfach Realist. Ich bin einfach sehr sehr sehr selten grundlos optimistisch. Das hat den Vorteil nur seltenst enttäuscht zu werden, sondern in den meisten Fällen eben ziemlich genau das zu erhalten, was man erwartet, und hin und wieder eben auch übertroffen zu werden.

Bringt doch nichts, sich vorher Luftschlösser zu bauen. Was habe ich davon? Eben nichts.

boxleitnerb
2013-01-22, 12:36:25
Du, mir ist es auch egal. 5% mehr oder weniger, big deal. Bisher gab es eben noch von fast jedem Chip den Vollausbau, da ist es wahrscheinlich, dass es diesmal wieder so ist.

Waferkosten und Prozessyields haben nichts mit Binning Yields zu tun. Ich glaube eben nicht, dass die Binning Yields für einen 15 SMX GK110 bei 0% liegen.

N0Thing
2013-01-22, 13:25:18
Dass es nur einen 14 SMX K20X gibt, spricht mMn nicht gegen einen 15 SMX Geforce. Wie gesagt - warum gab es dann die 580 etc.? Die Frage hast du bis jetzt nicht beantwortet. Nur weil diesmal die Launchreihenfolge umgekehrt ist, heißt das noch lange nichts. Wenn die Verfügbarkeit im Profisegment mies ist, ist das mMn ein größeres Problem, als wenn ein paar Enthusiasten ihre 899-Euro Karte nicht ergattern konnten.

Die GTX 580 gab es von Anfang an, der GF110 kam direkt als Vollausbau in den Desktop-Markt und afaik entsprechend später auch im Profi-Segment. Vom GK110 gibt es bis heute keinen Vollausbau.

Kann natürlich daran liegen, daß Nvidia ihre Ziele verfehlt haben und ein voller GK110 nicht innerhalb der gewünschten TDP für eine Tesla-Karte möglich war, weshalb das Maximum nur 14 SMX-Einheiten sind.
Dann hätte man wirklich alle funktionierenden Chips mit 15 SMX-Einheiten für den Desktop-Markt übrig, sofern man auch für die Quadro-Karten darauf verzichtet.

Raff
2013-01-22, 13:28:06
Die GTX 580 gab es von Anfang an, der GF110 kam direkt als Vollausbau in den Desktop-Markt und afaik entsprechend später auch im Profi-Segment. Vom GK110 gibt es bis heute keinen Vollausbau.

GF110 = GF100b. Es ist keine Kunst, dass Ersterer "direkt als Vollausbau" kam. Der GF100 übrigens nie. ;)

MfG,
Raff

|MatMan|
2013-01-22, 14:25:53
Das hat nichts mit "Meckersack" zu tun, sondern ist einfach Realist. Ich bin einfach sehr sehr sehr selten grundlos optimistisch. Das hat den Vorteil nur seltenst enttäuscht zu werden, sondern in den meisten Fällen eben ziemlich genau das zu erhalten, was man erwartet, und hin und wieder eben auch übertroffen zu werden.

Bringt doch nichts, sich vorher Luftschlösser zu bauen. Was habe ich davon? Eben nichts.
Dazu fällt mir Intel's KNC / Xeon Phi ein, da warst du extremst optimistisch. Bei nVidia bist du scheinbar immer pessimistisch. Bei Intel hast du etwas daneben gelegen, mal sehen wie es bei GK110 wird ;)

IMO sehen wir nur die Auswirkungen der extremen Kapazitätsengpässe bei TSMC (sowie evtl. der höheren Waferkosten), deshalb erst die Konzentration auf den Profi-Markt GK110 MUSS in den GeForce Massenmarkt, da sich anders die Entwicklung nicht finanziert. Wenn erstmal die Kapazitäten da sind um die Produktion auf Stückzahlen vergleichbar mit GF100/GF110 zu bringen, sollten schon ein paar 15 SMX GPUs abfallen. Ansonsten ist doch etwas grundlegend am Design kaputt.

Skysnake
2013-01-22, 14:29:37
gf100 war auch kaputt :rolleyes:

Das wollen wir doch bitt bei GK110 nicht erwarten...

Die Frage, die ich schon lange stelle, ist halt, was bei K20(x) die 15SMX Version verhindert. Wenns Yields in welcher Form auch immer sind, dann wirds keinen GK110 im Vollausbau für den Desktop geben.

Wenns die Leistungsaufnahme ist, dann wirds auch eher keinen Vollausbau geben, wenn man mit weniger SMX und meht Takt besser fährt.

Bleibt eigentlich nur die Konstellation übrig, das die Leistungsaufnahme zwar explodiert beim 15.ten SMX, aber eben weniger als durch nochmals mehr Takt.

Wobei man sich dann auch fragen müsste, warum nVidia wieder mal den Holzhammer auspacken sollte? Das ist nur schlechte PR ohne Not GK110 wird auch mit 12 oder 13 SMX sehr schnell werden.

Spasstiger
2013-01-22, 14:32:31
Imo will sich NV einfach nicht das Geschäft kaputt, da der Start der 20-nm-Massenfertigung noch in den Sternen steht und mit GK110 bereits das Limit in 28 nm erreicht ist. Ergo spart NV sich den Vollausbau für einen Refresh auf und nimmt derweil bessere Yields durch Teildeaktivierung mit. Vom Markt aus besteht kein Zwang, den Vollausbau schon jetzt zu bringen.

Knuddelbearli
2013-01-22, 14:37:44
Leistungsaufnahme ist es sicher nicht da im profisegment zu 99,99999999999999999999999999999999999999999% gilt breiter = besser

da würde man eher den Takt senken

Raff
2013-01-22, 14:41:11
Wobei man sich dann auch fragen müsste, warum nVidia wieder mal den Holzhammer auspacken sollte? Das ist nur schlechte PR ohne Not GK110 wird auch mit 12 oder 13 SMX sehr schnell werden.

Man müsste wissen, wie schnell Sea Islands' Top dog wird.

MfG,
Raff

LSSJBroly
2013-01-22, 15:16:06
Man müsste wissen, wie schnell Sea Islands' Top dog wird.

MfG,
Raff

wie gesagt, falls da nur 15% differenz besteht, aber gleich 300-400€ zwischen liegen, muss sich nvidia eindeutig etwas anderes einfallen lassen :D
Schließlich könnte da selbst ein verbesserter GK204 oder wie auch immer für 500€ niemals gegen die HD 8970 bestehen können. Von daher kann man eigentlich nur hoffen, dass AMD was ebenfalls richtig flottes bringt:)

Skysnake
2013-01-22, 15:40:21
Man müsste wissen, wie schnell Sea Islands' Top dog wird.

MfG,
Raff
Ich denke nicht so stark, als das man selbst mit einer 12SMX Version sich verstecken müsste. Also +/- 5bis10% sind voll auf noch im Rahmen.

Da ich eh nicht davon ausgehe, das nVidia viele GeForce Titan liefern wird können, ist das Perf/Preis Verhältnis auch scheis egal, die paar Karten bekomme Sie definitiv los.

Hübie
2013-01-22, 15:44:22
Klar. Nerds gibt's genug... Ich gebe garantiert keine 800-900 Flocken aus. Frauchen gillt mich ;D

aufkrawall
2013-01-22, 15:56:57
Von daher kann man eigentlich nur hoffen, dass AMD was ebenfalls richtig flottes bringt:)
Warum sollte man das auch nicht hoffen? :freak:

LSSJBroly
2013-01-22, 17:10:48
Warum sollte man das auch nicht hoffen? :freak:

Frag das am besten den ganzen fanboys:biggrin:

N0Thing
2013-01-22, 17:53:47
GF110 = GF100b. Es ist keine Kunst, dass Ersterer "direkt als Vollausbau" kam. Der GF100 übrigens nie. ;)

MfG,
Raff

Ich hab die GTX 580 nicht in den Ring geworfen. ;)

Und die Probleme des GF100 haben sicher nichts mit den Problemen des GK110 und dessen spätes Erscheinen zu tun. Von daher würde ich persönlich auch gar keine Vergleiche mit den alten Generationen vornehmen, die wären dann nämlich froh, wenn sie überhaupt hinken könnten.

Angiesan
2013-01-22, 18:19:22
Es könnte ja auch was ganz Banales sein.
Ich habe leider keine Ahnung welche Bedeutung die Bandbreite im Tesla Bereich hat, aber wenn man Parallelen zieht zum GK 104 könnte es doch so sein, dass dem GK110 auch nicht genügend Bandbreite für die gewaltige Rechenleistungist zur Verfügung steht
Man kann es glaube ich als Fakt ansehen, dass die GTX 680 deutlich stärker im Bandbreitenlimit hängt wie die GTX 670 die eigentlich ziemlich genau das Maximum darstellt was mit der Speicherbestückung und der Speicherbandbreite gut zu befeuern ist.
Die GTX 680 liegt da recht häufig, wenn man die Test von LSSJBroly heranzieht, am Limit der Speicherbandbreite.

Wenn dies eine Möglichkeit ist kann sich ja vielleicht einer der Experten :wink: mal die Mühe machen auszurechnen wie das Verhältnis Rechenleistung zur Speicherbandbreite bei GK104 und GK 110 ist, natürlich spielt es da eine Rolle mit welchen Taktraten NV den Titan an den Mann bringen will aber da hat man sich ja wohl schon ganz gut eingeschossen ;)
Ohne jetzt den Rechenschieber auszupacken dürfte der Titan mit der fast doppelten Rechenleistung einer GTX 670 und mit einer "nur" 1/3 erhöhten Speicherbandbreite hart am Limit dieser arbeiten.

Nur so eine Idee wenn das Unfug sein sollte bitte mit Nachsicht handeln und antworten, Danke.

Black-Scorpion
2013-01-22, 18:44:30
Ich hab die GTX 580 nicht in den Ring geworfen. ;)

Und die Probleme des GF100 haben sicher nichts mit den Problemen des GK110 und dessen spätes Erscheinen zu tun. Von daher würde ich persönlich auch gar keine Vergleiche mit den alten Generationen vornehmen, die wären dann nämlich froh, wenn sie überhaupt hinken könnten.
Und warum vergleicht ihr dann immer den GK110 mit der nächsten Karte von AMD und spekuliert damit? Der GK110 gehört zur aktuellen Serie von Nvidia und hinkt bzw. schleicht gaaaanz langsam mal an den Start.

Ailuros
2013-01-22, 19:30:51
Und warum vergleicht ihr dann immer den GK110 mit der nächsten Karte von AMD und spekuliert damit? Der GK110 gehört zur aktuellen Serie von Nvidia und hinkt bzw. schleicht gaaaanz langsam mal an den Start.

Solche Vergleiche sind normal wenn zwei GPUs in etwa in nahem Zeitraum erscheinen. Sea Islands ist lediglich ein refresh zu Tahiti und auch keine neue Architektur, ergo kann ich Deinen Einwand nicht unbedingt verstehen.

Timbaloo
2013-01-22, 19:37:43
Gleich kommt wieder DX 11.1 ;)

Black-Scorpion
2013-01-22, 21:30:11
Solche Vergleiche sind normal wenn zwei GPUs in etwa in nahem Zeitraum erscheinen. Sea Islands ist lediglich ein refresh zu Tahiti und auch keine neue Architektur, ergo kann ich Deinen Einwand nicht unbedingt verstehen.
Stimmt das eine ist ein Refresh wovon die andere meilenweit entfernt ist. Anstatt alberne Vergleiche zu bringen sollte man sich darüber aufregen wie lange Nvidia der eigenen Roadmap noch hinterherhinken will. Ob Das Ding überhaupt jemals auf den Markt kommt wie es geplant ist kommt noch dazu. Den Hinweis mit DX11.1 braucht man gar nicht. Denn die ganze Kepler Reihe kann es nicht. Da ist es ganz egal wann der GK110 raus kommt.

N0Thing
2013-01-22, 21:40:53
Und warum vergleicht ihr dann immer den GK110 mit der nächsten Karte von AMD und spekuliert damit? Der GK110 gehört zur aktuellen Serie von Nvidia und hinkt bzw. schleicht gaaaanz langsam mal an den Start.

Ich glaube nicht, daß ich mich hier im Thread groß zum Thema GK110 vs. AMD Refresh geäußert habe, da ich eigentlich nichts über AMDs nächste GPUs weiß.

Abgesehen davon hat Ailuros zudem recht mit seiner Aussage, daß man Produkte nicht nach Roadmaps vergleicht, sondern wann und wo sie im Markt aufeinander treffen.

Wenn GK110 nun der Gegenspieler für die AMD Refresh-Gen wird, dann ist das eben so. Jeder hätte es sich anders gewünscht, jeder hätte von beiden Herstellern mehr erhofft. Jammern bringt aber nichts, sich der Realität zuwenden dafür schon.

VooDoo7mx
2013-01-22, 22:04:17
Die GTX 580 gab es von Anfang an, der GF110 kam direkt als Vollausbau in den Desktop-Markt und afaik entsprechend später auch im Profi-Segment. Vom GK110 gibt es bis heute keinen Vollausbau.

Kann natürlich daran liegen, daß Nvidia ihre Ziele verfehlt haben und ein voller GK110 nicht innerhalb der gewünschten TDP für eine Tesla-Karte möglich war, weshalb das Maximum nur 14 SMX-Einheiten sind.
Dann hätte man wirklich alle funktionierenden Chips mit 15 SMX-Einheiten für den Desktop-Markt übrig, sofern man auch für die Quadro-Karten darauf verzichtet.
Das ist Bullshit!
GF100/110 gab es im Vollausbau nur für den Desktop! Quadro und Tesla Karten sind alle teildeaktivierte Chips.

Tesla C2075 (stärkster Fermi Tesla): 448 Cuda Cores
Quadro 6000 (stärkster Fermi Quadro): 448 Cuda Cores

Selbst die GTX 480 ging mit 480 Cuda Cores an den Start.
Gerade wenn man die letzte Fermi Generation in Betracht zieht, ist es alles andere als ungewöhnlich das man den vollen Chip nur für Desktop anbietet und nie für Server, Cluster oder Workstations.

Und die Probleme des GF100 haben sicher nichts mit den Problemen des GK110 und dessen spätes Erscheinen zu tun. Von daher würde ich persönlich auch gar keine Vergleiche mit den alten Generationen vornehmen, die wären dann nämlich froh, wenn sie überhaupt hinken könnten.
Was soll schon wieder der Mist?
Wo siehst du Probleme mit den GK110? Und besonders was für welche? Wo ist ein spätes Erscheinen in Vergleich zu was?
Kennst du die internen nVidia Dokumente, stehst zwischen den ihren Top Ingeneuren und den bei TSMC?
Es könnte auch genauso sein das der GK110 Chip erscheint, wie von Anfang an geplant. Wieso sollte man den GK110 vor 1 Jahr auf dem Markt werfen, wenn ein deutlich kleinerer und wirtschaftlicherer Chip das gewünschte Ziel erreicht?
Logik?

Spasstiger
2013-01-22, 22:08:33
Tesla C2075 (stärkster Fermi Tesla): 448 Cuda Cores
Tesla M2090 ...

Ailuros
2013-01-22, 22:15:17
Stimmt das eine ist ein Refresh wovon die andere meilenweit entfernt ist.

Beschreib mal auf technischem Nivaeu genau "meilenweit", denn ich hab irgendwo das Bauchgefuehl dass hinter Deinen bunten verbalen Feuerwerken kein wirklich besprechbarer Punkt steckt.

Anstatt alberne Vergleiche zu bringen sollte man sich darüber aufregen wie lange Nvidia der eigenen Roadmap noch hinterherhinken will.

Anstatt in jeder zweiten Situation nur fuer Unruhe zu sorgen mit Deiner ueblichen Bissigkeit waere es mal zur Abwechslung eine nette Aenderung wenn Du Dir mal ausnahmsweise die Muehe machst und anstaendig argumentierst.

Ob Das Ding überhaupt jemals auf den Markt kommt wie es geplant ist kommt noch dazu.

Was hat das mit jeglichem Vergleich zu tun?

Den Hinweis mit DX11.1 braucht man gar nicht. Denn die ganze Kepler Reihe kann es nicht. Da ist es ganz egal wann der GK110 raus kommt.

Jemand wird es schwer haben mich zu ueberzeugen dass ich eine $899 SKU wirklich "brauche", aber in der Zwischenzeit versuch mit mal zu ueberzeugen wieso genau heute DX11.1 genau ein Kaufargument sein soll. Bekomm ich von AMD eine GPU mit um ein maessiges Prozentual weniger Endleistung bei um einiges weniger Preis kann sich jeder IHV DX11.1 an den Hut stecken egal wer von den beiden es genau unterstuetzt. API Komplianz und ueberhaupt bei updates wie 11.1, haben keine direkte Relevanz oder Auswirkung zu jeder wirklich nuechternen Kaufentscheidung. Kann sein dass der Otto-Normalverbraucher sich "sicherer" fuehlt wenn auf der Schachtel 11.1 steht, aber etwas anfangen damit kann er sowieso nicht.

Sonst ist GK110 egal wie Du es drehen willst keine direkte Konkurrenz zu Sea Islands; das letzte wird gegen NV's GK104 Nachfolger konkurrieren ueberhaupt was den Preis betrifft. Da AMD keine single high end GPU schon seit Jahren entwickelt ist die einzige Alternative bzw. direktere Konkurrenz zu GK110 AMD's moeglich mGPU basierend auf SI. In dem Fall tschuldigung aber wenn ich schon eine idiotisch hohe Summe fuer eine GPU ausgeben wuerde, dann lieber eine single core GPU als der AFR Quark.

VooDoo7mx
2013-01-22, 22:18:16
Tesla M2090 ...

Hab ich vergessen, der kam aber erst deutlich nach der GTX580!

Skysnake
2013-01-22, 22:34:50
Ja, und jetzt überleg mal warum das so lange immer dauert zwischen tesla/quadro und GeForce.

Richtig, die Validierung ist viel aufwändiger.

So und jetzt überleg mal, was dieses mal ander ist.

Ach ja richtig, dieser Validierungsoverhead für die Tesla/Quadro ist schon rum, von ner GeForce aber weit und breit nichts zu sehen...

Bei der Quadro bin ich mir nicht sicher, obs einen Vollausbau gab, da waren die 6GB Ram aber eh wichtiger, und die Karte schon so abartig teuer.

@ailuros:
Ich würde die DX11.1 Features dieses mal aber nicht zwingend als bedeutungslos betrachten. Wenn die gleiche Funktionalität in den Konsolen drin ist, die eben alle von AMD ausgerüstet werden, kann das schon eingesetzt werden.

Kommt aber halt ganz darauf an, wies bei den Konsolen aussieht, und ob man eben leicht die Logik auf DX11.1 mappen kann.

N0Thing
2013-01-23, 01:29:21
Das ist Bullshit!
GF100/110 gab es im Vollausbau nur für den Desktop! Quadro und Tesla Karten sind alle teildeaktivierte Chips.


Hab ich vergessen, der kam aber erst deutlich nach der GTX580!

:facepalm:



Was soll schon wieder der Mist?
Wo siehst du Probleme mit den GK110? Und besonders was für welche? Wo ist ein spätes Erscheinen in Vergleich zu was?
Kennst du die internen nVidia Dokumente, stehst zwischen den ihren Top Ingeneuren und den bei TSMC?
Es könnte auch genauso sein das der GK110 Chip erscheint, wie von Anfang an geplant. Wieso sollte man den GK110 vor 1 Jahr auf dem Markt werfen, wenn ein deutlich kleinerer und wirtschaftlicherer Chip das gewünschte Ziel erreicht?
Logik?

Bleib geschmeidig.
Wo sehe ich Probleme beim GK110? Er ist noch nicht im Desktop-Markt erhältlich. Es gibt bisher keine Vollversion, auch nicht im Hochpreissegment.
Wenn es keine Probleme gibt, warum existiert dann kein GK110 mit 15 SMX-Einheiten?

Da Nvidia über die geringe Leistung des Tahiti XT überrascht war, würde deiner These zufolge Nvidia in Kauf genommen haben, daß sie für ein ganzes Jahr, abgesehen von einer möglichen Dual-GPU-Karte, keine Rolle im High-End-Markt gespielt hätten. Erscheint dir das logisch und wahrscheinlich?

V2.0
2013-01-23, 07:10:42
Überrascht ist relativ. Hat man z.B. mit einem Vorteil der ATI ab Launch von 10-15% gerechnet (sowie er sich heute darstellt), dann war der knappe Gleichstand sicher eine Überraschung. Das bedeutet eben auch, dass man den GK110 Launch im GeForce-Markt locker verschieben konnte.

Ailuros
2013-01-23, 08:56:05
@ailuros:
Ich würde die DX11.1 Features dieses mal aber nicht zwingend als bedeutungslos betrachten. Wenn die gleiche Funktionalität in den Konsolen drin ist, die eben alle von AMD ausgerüstet werden, kann das schon eingesetzt werden.

Dann erzaehl mal wann diese Konsolen kaufbar sein werden und wann die ersten Spiele die 11.1 voll ausnutzen werden genau erhaeltlich sein werden. Ich hab persoenlich NV von der Kritik fuer die fehlenden features fuer volles 11.1 nicht geschont und bezweifle auch ernsthaft dass sie keine Zeit hatten vor dem Kepler launch nachzuruesten. In der Mehrzahl der Faelle sind es kleinpolitische marketing bzw. management Entscheidungen seitens eines IHV und NV muss sich eben in solchen Faellen nicht so brutal beunruhigen weil AMD eben nie so viel resourcen in DevRel geschuettet hat und wohl auch heutzutage nicht mehr (wenn nicht sogar weniger) reinschuetten wird.

Tahiti ist schon ziemlich lange auf dem Markt; mach Dir mal Muehe und zeig mir die Integierung wenigstens von einem Fetzen 11.1 dass heute schon in erhaeltichen PC Spielen aufgetaucht ist. Soll ich notieren weil die Liste lang werden koennte?

Kommt aber halt ganz darauf an, wies bei den Konsolen aussieht, und ob man eben leicht die Logik auf DX11.1 mappen kann.

Sw developers haben andere Kopfschmerzen mit den kommenden Konsolen, bei so relativ langweiliger Leistung fuer die heutigen Verhaeltnisse.

Überrascht ist relativ. Hat man z.B. mit einem Vorteil der ATI ab Launch von 10-15% gerechnet (sowie er sich heute darstellt), dann war der knappe Gleichstand sicher eine Überraschung. Das bedeutet eben auch, dass man den GK110 Launch im GeForce-Markt locker verschieben konnte.

GK104 war anfangs etwas bescheidener geplant als sie am Ende ankam. Als sie Tahiti gesehen haben entschieden sie sich den original launch um ein paar Monate zu verspaeten, auf den Frequenz-hebel zu druecken um auf quasi Gleichstand zu kommen aber es gab schon damals die Einsicht dass AMD auch kurzfristig die Frequenz erhoehen wird und auch besser optimierte Treiber nachliefern wird.

Wie lange und um wie viel waren GTX680 SKUs um einiges teurer als 7970-er und wieso waren/sind die Kepler Verkaufszahlen sowohl im desktop als auch in notebooks um einiges besser?

boxleitnerb
2013-01-23, 09:31:11
Was hätte Nvidia eigentlich gemacht, wenn AMD besser vorgelegt hätte? Hat man allen Ernstes vorgehabt, AMD die Leistungskrone für über ein Jahr zu überlassen?

Gaestle
2013-01-23, 09:42:02
Dann erzaehl mal wann diese Konsolen kaufbar sein werden und wann die ersten Spiele die 11.1 voll ausnutzen werden genau erhaeltlich sein werden.


Wenn die Gerüchte einer Voprstellung in 2013 stimmen, kann ich mir durchaus das Weihnachtsgeschäft für die neuen Konsolen (oder wenigstens eine davon) vorstellen.

Die komplette Nutzung von 11.1 wird sicherlich noch dauern, und ist daher nur für diejenigen relevant, die längere Zeit mit einer GraKa auskommen (wie ich selbst beispielsweise, ich hocke immer noch auf einer 260GTX). Die Frage ist dann natürlich auch, inwieweit eine heutige GraKa in 2 Jahren noch alles auf "max" drehen kann (oder eben nur "medium").

NV muss sich eben in solchen Faellen nicht so brutal beunruhigen weil AMD eben nie so viel resourcen in DevRel geschuettet hat und wohl auch heutzutage nicht mehr (wenn nicht sogar weniger) reinschuetten wird.
Ich könnte mir vorstellen, dass die Konsolen AMD in diesem Punkt stärken, weil die DEVs von sich aus auf die AMD-Technik zugehen müssen, wenn sie für die Konsolen optimieren. Und das sogar im CPU und GPU-Bereich, d.h. es könnte auch die CPU-Sparte stützen und damit auch die Dominanz von INTEL im Gamermarkt beeinflussen.


[Edit:]
Interessanter Post aus dem konsolen-Thread:
Der DX Overhead schlägt auf die CPU nicht auf die GPU. Und selbst da dürften die 100% nicht mehr stimmen weil bei den Konsolen die Abstraktion eher steigt und beim PC die Pfade optimiert wurden.

Zudem neigt man bei Konsolen ja dazu das was man beim Overhead spart mittelfristig wieder in mehr Anweisungen an die GPU zu investieren. Man verpackt das ganze in kleinere Häbchen. Damit lassen sich dann die technologischen Nachteile de GPUs ausgleichen die sich im Gegenzug der PC Seite ja nicht weiterentwickeln. Am Anfang braucht man das mehr an CPU Leistung häufig noch um die noch fehlenden Erfahrung mit der neuen Plattform auszugleichen. Deswegen braucht man ja auch etwas 3 Generationen von Spielen um ans Limit der Hardware zu kommen.

Das war auch mit ein Grund warum der Zyklus dieses mal länger wurde. Mit einter durchschnittlichen Entwicklungszeit von etwas 2 Jahren dauerte es länger bis man bei der 3, Generation war.

Wenn es wirklich 3 (Spiele-) Generationen dauert, dann ist meine Argumentation oben ("längere Zeit mit der GraKa auskommen") natürlich eher schwach. Denn dann ist der Zeithorizont nicht zwei Jahre, sondern sechs Jahre.

Knuddelbearli
2013-01-23, 09:54:19
Die komplette Nutzung von 11.1 wird sicherlich noch dauern, und ist daher nur für diejenigen relevant, die längere Zeit mit einer GraKa auskommen (wie ich selbst beispielsweise, ich hocke immer noch auf einer 260GTX). Die Frage ist dann natürlich auch, inwieweit eine heutige GraKa in 2 Jahren noch alles auf "max" drehen kann (oder eben nur "medium").


Ob High oder Medium ist doch egal wenn das Spiel 11.1 benutzt. Abgesehen davon wird hier durch NV auch die breite Marktdurchsetzung von 11.1 behindert, wenn es wenig Hardware dafür gibt ist es auch weniger wahrscheinlich das jemand dafür entwickelt, Henne Ei problem.

Ailuros
2013-01-23, 10:05:38
Wenn die Gerüchte einer Voprstellung in 2013 stimmen, kann ich mir durchaus das Weihnachtsgeschäft für die neuen Konsolen (oder wenigstens eine davon) vorstellen.

Die komplette Nutzung von 11.1 wird sicherlich noch dauern, und ist daher nur für diejenigen relevant, die längere Zeit mit einer GraKa auskommen (wie ich selbst beispielsweise, ich hocke immer noch auf einer 260GTX). Die Frage ist dann natürlich auch, inwieweit eine heutige GraKa in 2 Jahren noch alles auf "max" drehen kann (oder eben nur "medium").

Deiner GPU fehlt DX10.1. Soll ich weiterfragen oder ist der Punkt offensichtlich?



[Edit:]
Interessanter Post aus dem konsolen-Thread:


Wenn es wirklich 3 (Spiele-) Generationen dauert, dann ist meine Argumentation oben ("längere Zeit mit der GraKa auskommen") natürlich eher schwach. Denn dann ist der Zeithorizont nicht zwei Jahre, sondern sechs Jahre.

Wenn Du obrige Frage ehrlich beantwortest reicht es schon ohne Demi's wichtige Punkte schon aus. Waere es anders rum und NV haette DX11.1 und AMD nur DX10 haette NV schon gesorgt das 1 oder 2 Bumsspielchen irgend etwas von 11.1 integriert haben (egal wie langweilig das Resultat) haetten sie mit dem Mist auch kunterbunt geworben. Das wuerde aber 11.1 auch keinswegs wichtiger machen als es eigentlich ist.

Wisst Ihr Herren ueberhaupt wie viele grosse sw und hw engineering Talente AMD in letzter Zeit verloren hat oder reden wir hier nur im Vakuum? Natuerlich stellt AMD weiterhin neue engineers ein aber die Frage ist dann woher sie genau kommen und mit welchen Loehnen. Schon mit dem Hintergedanken ist generell "Unterstuetzung" so ein Kapitel fuer sich.

Ob High oder Medium ist doch egal wenn das Spiel 11.1 benutzt. Abgesehen davon wird hier durch NV auch die breite Marktdurchsetzung von 11.1 behindert, wenn es wenig Hardware dafür gibt ist es auch weniger wahrscheinlich das jemand dafür entwickelt, Henne Ei problem.

Natuerlich gefaehrdet NV die Marktdurchsetzung von 11.1; DX11.1 kam als update u.a. auch fuer den SFF mobilen Markt. Tegra4 unterstuetzt nichtmal OGL_ES3.0 voll (ca. DX10 Nivaeu); nicht dass sie irgend einen sehenswerten Einfluss in dem Markt haben aber NV's Management hat nunmal die daemliche Gewohnheit sich so idiotisch zu verhalten.

Duplex
2013-01-23, 10:35:52
Was hätte Nvidia eigentlich gemacht, wenn AMD besser vorgelegt hätte? Hat man allen Ernstes vorgehabt, AMD die Leistungskrone für über ein Jahr zu überlassen?
Beim RV870 (5870) hat AMD auch länger die Krone gehabt, was hat Nvidia damals gemacht? Garnichts...GF100 kam deutlich später. Heute sieht die Lage anders aus.

y33H@
2013-01-23, 10:40:11
Die HD 5870 war von September 2009 bis März 2010 in Front, dann wurde sie von der GTX 480 überholt.

Duplex
2013-01-23, 10:48:40
Die HD 5870 war von September 2009 bis März 2010 in Front, dann wurde sie von der GTX 480 überholt.
Immerhin 7 Monate ohne Konkurrenz, die GTX480 war letztendlich 15% schneller als die 5870, hat aber mehr Strom als die Dual Karte 5970 verbraucht und wurde zudem sehr heiß, also überrascht hat uns Nvidia damit sicher nicht ;) erst GF110 konnte überzeugen.

boxleitnerb
2013-01-23, 10:55:42
Ich könnte mir vorstellen, dass solange wie Nvidia die kleinen Chips zuerst bringt und dort recht konservative Specs einhält, sie auf lange Sicht immer Nummer zwei sein werden. Titan und evtl. Nachfolger sind irrelevant bei den Mondpreisen.

Das muss Nvidia sich gut überlegen, denn auf Dauer zweite Geige spielen wird ihren Ruf als Premiummarke empfindlich angreifen.

Duplex
2013-01-23, 10:57:38
Ich weiß die meißten hätten gerne 2x GK110 (15-SMX) für um die 1000 € :D
Edit: Ich glaube nicht das Nvidia ein 550mm² Chip zu den Preisen verkaufen will, Sie könnten einfach ein 350mm² GK104 Refresh mit mehr Shader, 384 Bit SI bauen und den als Ersatz für GK104 taufen, hängt natürlich auch davon ab wie schnell AMDs neuer Chip wird, hoffentlich sind es nicht nur 20% vs. Tahiti. Hm der letzte Refresh GF110 wurde vor AMDs neue Karten vermarktet, es gibt bis jetzt keine Anzeichen das Nvidia irgendwas demnächst mit <500mm² vermarkten will oder hat jemand zu GK204 mehr Infos?

boxleitnerb
2013-01-23, 11:14:45
Wenn sie schon GK110 nicht richtig in den ("Massen")Markt bringen, hätten sie wirklich den GK204 richtig aufblasen können. 2048-2304 Shader, 384bit SI usw. Ja, wäre teurer in der Herstellung, aber wenigstens würden den dann mehr Leute im Rechner haben als die 0.001% die Titan kaufen können :D

Duplex
2013-01-23, 11:19:38
So teuer wäre der Chip auch nicht (Fertigungskosten bei TSMC), 20% größer als GK104 also 350mm² liegt noch im Rahmen, das ist immer noch kleiner als AMDs Tahiti der bereits billiger als GK104 verkauft wird ;)
Die Entwicklungskosten spielen da eine größere Rolle, wenn es sich für Nvidia lohnt, dann wird es neben GK110 auch einen GK204 geben, so oder so wird Nvidia was gegen Sea Islands entgegensetzen, natürlich zu ähnlichen Preisen damit man den Markt nicht außer den Augen verliert...

boxleitnerb
2013-01-23, 11:24:15
Genau das denke ich auch. Es ist praktisch ausgeschlossen, dass es außer Titan nix gibt. Ich könnte mir höchstens vorstellen, dass sie sich mit GK204 wieder Zeit lassen, aber so langsam müssen sie mal zu Potte kommen und nicht immer Monate nach AMD releasen. Auch das schadet dem Ruf. Die Kapazitäten sollten jetzt reichen, die Yields sollten gut sein für vergleichsweise kleine Chips und dass Nvidia gute Chips designen kann, haben sie mit Kepler ja bewiesen.

Duplex
2013-01-23, 11:36:27
Wenn ich als Hersteller die Wahl hätte, also ich bereits weiß das mein Konkurrent nur 20% schneller als mein x produkt sein kann, dann würde ich GK110 auch nicht in den Massenmarkt schicken, sondern einen etwas größeren Chip als GK104 gegen die Konkurrenz schicken. GK110 ist ja primär der Chip für den Profi-Markt, den brauche ich nicht zu niedrig Preisen in den Massenmarkt schicken...(So denkt Nvidia vielleicht heute).

boxleitnerb
2013-01-23, 11:46:21
Die Rechnung geht halt nur auf, wenn man genügend absetzen kann, um die Entwicklungskosten zu decken und noch Gewinn zu machen. Das ist halt die große Frage, die im Moment noch keiner beantworten kann. Ich fürchte aber, so langsam nähert sich Nvidia diesem Ziel, zum Leidwesen von uns Powerusern.

Duplex
2013-01-23, 11:49:37
Man kann solange genug absetzen bis 20nm für beide verfügbar sein wird, also noch rund 1 Jahr+, wenn Sie demnächst mit ihren Refresh starten sehe ich keine Probleme, so oder so sind die aktuellen Chips kleiner als damals noch zu G80, GT200, GF100 Zeiten ;)

Dural
2013-01-23, 11:59:37
28nm dafür aber deutlich teurer ;)

Angiesan
2013-01-23, 13:08:49
Genau das denke ich auch. Es ist praktisch ausgeschlossen, dass es außer Titan nix gibt. Ich könnte mir höchstens vorstellen, dass sie sich mit GK204 wieder Zeit lassen, aber so langsam müssen sie mal zu Potte kommen und nicht immer Monate nach AMD releasen. Auch das schadet dem Ruf. Die Kapazitäten sollten jetzt reichen, die Yields sollten gut sein für vergleichsweise kleine Chips und dass Nvidia gute Chips designen kann, haben sie mit Kepler ja bewiesen.

Ja das haben Sie, also warum sollten sie z.B. den Vorteil den sie errungen haben bei der Effizienz wieder aufgeben indem sie für den Massenmarkt wieder einen High End Chip nach alter Denkweise entwickeln, dafür gibt es doch nun mal Multi GPU System, noch mit allen Vor- und Nachteilen. Eine High End GPU ist teuer und bringt die alten Probleme zurück ich denke wir werden hier nur kleine Verbesserungen sehen. Es hat wenn ich mich recht erinnere noch nie 2 High End Chips im gleichen Fertigungsverfahren gegeben sondern hier wurde stets nur nachgebessert, siehe GTX 480 vs 580 oder GTX 280 vs GTX 285 usw.
Mit Titan erledigt man dann das Prestige-Problem

Wenn ich als Hersteller die Wahl hätte, also ich bereits weiß das mein Konkurrent nur 20% schneller als mein x produkt sein kann, dann würde ich GK110 auch nicht in den Massenmarkt schicken, sondern einen etwas größeren Chip als GK104 gegen die Konkurrenz schicken. GK110 ist ja primär der Chip für den Profi-Markt, den brauche ich nicht zu niedrig Preisen in den Massenmarkt schicken...(So denkt Nvidia vielleicht heute).

Gut möglich und sicherlich nicht erst seit Heute.

Die Rechnung geht halt nur auf, wenn man genügend absetzen kann, um die Entwicklungskosten zu decken und noch Gewinn zu machen. Das ist halt die große Frage, die im Moment noch keiner beantworten kann. Ich fürchte aber, so langsam nähert sich Nvidia diesem Ziel, zum Leidwesen von uns Powerusern.

Man muss doch nur mal zu Intel gucken was machen die denn mit ihrer Sockel 2011 Plattform die High End 6 Kern CPU sind nur für einen sehr sehr kleinen Kreis bestimmt, ich sehe hier mit Titan durchaus Parallelen.
Entwickelt für den Profi-Markt und dann in einer kleinen Auflage mit überzogenen Preis in dem High End Markt geworfen. Und sorry Poweruser werden sich nicht an dem Preis und wenn es so sein sollte auch nicht an dem höheren Stromverbrauch stören, ich gehe soweit zu behaupten, dass wir den Titan in freier Wildbahn oft im Doppel sprich SLI antreffen werden denn nur das ist dann absolutes High End. Die Freaks geben sich nicht mit GTX 670 SLI Leistung zufrieden zumal es das dann für etwas mehr wie die Hälfte des Preises geben wird.

boxleitnerb
2013-01-23, 13:18:41
Ja das haben Sie, also warum sollten sie z.B. den Vorteil den sie errungen haben bei der Effizienz wieder aufgeben indem sie für den Massenmarkt wieder einen High End Chip nach alter Denkweise entwickeln, dafür gibt es doch nun mal Multi GPU System, noch mit allen Vor- und Nachteilen. Eine High End GPU ist teuer und bringt die alten Probleme zurück ich denke wir werden hier nur kleine Verbesserungen sehen. Es hat wenn ich mich recht erinnere noch nie 2 High End Chips im gleichen Fertigungsverfahren gegeben sondern hier wurde stets nur nachgebessert, siehe GTX 480 vs 580 oder GTX 280 vs GTX 285 usw.
Mit Titan erledigt man dann das Prestige-Problem


Im Schnitt gab es ggü. der 580 mit der 680 nur 35% mehr Performance. Das ist sehr weit unter dem sonst üblichen Sprung. Titan wäre also das, was ich normal für einen Refresh einer neuen Generation erwarten würde, vielleicht etwas mehr.

GK104 ist kein Highendchip. Die GTX280 und GTX480 waren jeweils bei richtig fordernden Settings (kein 8xMSAA, die Schwäche vor Fermi ist mir bekannt ;)) im Schnitt 75% schneller wie die 8800 GTX bzw. GTX285. Davon kann man bei der GTX680 nur träumen, das ist eine ganz andere Liga. Generell ist die 28nm-Generation diesmal sehr schwach. Selbst die 7970 GE legt nur gute 50% auf die 580 drauf. Wenn Nvidia Titan als den Heilsbringer hinstellt und sich das so bezahlen lässt und die Normalsterblichen mit 10-15% mehr ggü. GK104 abspeist, können sie ihre Karten behalten. AMD übrigens auch, wobei da noch etwas mehr bei rumgekommen ist, leider auf Kosten von gestiegenem Verbrauch.

Bzgl. der Effizienz:
Es sollte endlich mal der Mythos begraben werden, dass ein großer Chip viel ineffizienter wäre bei Perf/W. Flächenmäßig gewinnt GK110 sicher keine Effizienzwettbewerbe, wie es aber beim Verbrauch aussieht, wissen wir noch nicht. Nur mal zum Vergleich: GF110 war ca. 44% größer als GF114 und auch etwa 40% schneller bei 48% mehr Verbrauch (Quelle: http://www.3dcenter.org/artikel/eine-neubetrachtung-des-grafikkarten-stromverbrauchs/eine-neubetrachtung-des-grafikkarten-st). Ich sehe da jetzt keine Effizienzklippe, über die GF110 gestürzt wäre. Groß und viele HPC-Transistoren heißt nicht zwingend ineffizient.

Gaestle
2013-01-23, 13:49:26
Deiner GPU fehlt DX10.1. Soll ich weiterfragen oder ist der Punkt offensichtlich?


SCNR
Der XBox360 fehlt DX10.1. Soll ich weiterfragen oder ist der Punkt offensichtlich?



Wenn Du obrige Frage ehrlich beantwortest reicht es schon ohne Demi's wichtige Punkte schon aus. Waere es anders rum und NV haette DX11.1 und AMD nur DX10 haette NV schon gesorgt das 1 oder 2 Bumsspielchen irgend etwas von 11.1 integriert haben (egal wie langweilig das Resultat) haetten sie mit dem Mist auch kunterbunt geworben. Das wuerde aber 11.1 auch keinswegs wichtiger machen als es eigentlich ist.

Wisst Ihr Herren ueberhaupt wie viele grosse sw und hw engineering Talente AMD in letzter Zeit verloren hat oder reden wir hier nur im Vakuum? Natuerlich stellt AMD weiterhin neue engineers ein aber die Frage ist dann woher sie genau kommen und mit welchen Loehnen. Schon mit dem Hintergedanken ist generell "Unterstuetzung" so ein Kapitel fuer sich.


Durch die Konsolen könnten sich hier Hol- und Bringschuld verschieben. Bislang waren NV und AMD in einer "Bringschuld", sie mussten Ihr Zeug den Devs nahe bringen und NV hat den Job besser gemacht. Die Konsolen könnten (Konjunktiv!) aber nun dafür sorgen, dass die DEVs tendenziell in eine Holschuld kommen, weil sie Wege finden müssen, die arg begrenzten Ressourcen (laut Gerüchten nicht mal Pitcairn-Format) so gut wie möglich auszuquetschen. Sie haben auch mit der ATi/AMD-GPU in der XBox360 leben gelernt. Ob das dann direkte Effekte für den PC-Grafik-Bereich bringen kann, sah in der Vergangenheit schlecht aus. Vielleicht wird das in Zukunft durch die engere technologische Verwandschaft ja besser.

Angiesan
2013-01-23, 13:54:23
Im Schnitt gab es ggü. der 580 mit der 680 nur 35% mehr Performance. Das ist sehr weit unter dem sonst üblichen Sprung. Titan wäre also das, was ich normal für einen Refresh einer neuen Generation erwarten würde, vielleicht etwas mehr.

GK104 ist kein Highendchip. Die GTX280 und GTX480 waren jeweils bei richtig fordernden Settings (kein 8xMSAA, die Schwäche vor Fermi ist mir bekannt ;)) im Schnitt 75% schneller wie die 8800 GTX bzw. GTX285. Davon kann man bei der GTX680 nur träumen, das ist eine ganz andere Liga. Generell ist die 28nm-Generation diesmal sehr schwach. Selbst die 7970 GE legt nur gute 50% auf die 580 drauf. Wenn Nvidia Titan als den Heilsbringer hinstellt und sich das so bezahlen lässt und die Normalsterblichen mit 10-15% mehr ggü. GK104 abspeist, können sie ihre Karten behalten. AMD übrigens auch, wobei da noch etwas mehr bei rumgekommen ist, leider auf Kosten von gestiegenem Verbrauch.

Bzgl. der Effizienz:
Es sollte endlich mal der Mythos begraben werden, dass ein großer Chip viel ineffizienter wäre bei Perf/W. Flächenmäßig gewinnt GK110 sicher keine Effizienzwettbewerbe, wie es aber beim Verbrauch aussieht, wissen wir noch nicht. Nur mal zum Vergleich: GF110 war ca. 44% größer als GF114 und auch etwa 40% schneller bei 48% mehr Verbrauch (Quelle: http://www.3dcenter.org/artikel/eine-neubetrachtung-des-grafikkarten-stromverbrauchs/eine-neubetrachtung-des-grafikkarten-st). Ich sehe da jetzt keine Effizienzklippe, über die GF110 gestürzt wäre. Groß und viele HPC-Transistoren heißt nicht zwingend ineffizient.

Ich wollte nicht unbedingt ausdrücken was ich mir wünschen würde.
Da musst du mich nicht überzeugen, es ist aber meiner Meinung nach unrealistisch über einen GK104 ^2 in 28 nm nachzudenken, leider.

Es geht auch nicht um das Thema Effizienz per FPS sondern schlicht und einfach um die Realisierbarkeit einer vernünftigen Kühlung ohne das dies in einer Materialschlacht wie bei dem ein oder andere Hersteller ausartet.

Ich denke das sowohl AMD wie auch NVidia in Sachen Energieverbrauch nicht die Augen verschließen können und das sich rund 200 Watt im oberen Bereich befindet was man realisieren will nicht könnte.

Ich widerspreche dir aber bei deiner Auslegung das GK104 nicht High End ist was ist es dann? aber darüber wurden ja schon viele Diskussionen geführt, ich bleibe dabei das Schnellste, Beste seiner Zeit ist High End unabhängig ob da x oder xy Transistoren verbraten wurden.

Ich denke High End sollte man im Bereich GPU nicht auf Transistoren zählen und die Balkenlänge beschränken, das gesamte Paket ist hier zu betrachten und da können sowohl AMD wie auch NVidia mit Boost Funktion, Neuen AAA Methoden, Zero Core und und und...... überzeugen.

Das der Abstand zur alten Generation gerade intern betrachtet nicht so groß ist ist sicherlich richtig, auf der anderen Seite fehlt Heute in der von vielen benutzen Standard -Auflösung Full HD selbst einer GTX 580 selten die Leistung alles darzustellen was man ohne zusätzliche Tool realisieren kann. Den normalen User freut es und den Poweruser langweilt es:D da stimme ich voll zu!

Knuddelbearli
2013-01-23, 14:12:42
dank den 4 Leuten weiss NV eh was AMD bringen wird ^^

boxleitnerb
2013-01-23, 14:15:26
Ich bin nach wie vor der Meinung, dass GK104 ein Performancechip ist. Der hätte eine prima GTX 660 Ti abgegeben, eben etwas niedriger getaktet, so dass er 15-20% über der GTX580 liegt. Wenn GK104 Highend wäre, was wäre dann GK110 - Ultrahighend?

Zergra
2013-01-23, 14:33:33
Ich bin nach wie vor der Meinung, dass GK104 ein Performancechip ist. Der hätte eine prima GTX 660 Ti abgegeben, eben etwas niedriger getaktet, so dass er 15-20% über der GTX580 liegt. Wenn GK104 Highend wäre, was wäre dann GK110 - Ultrahighend?
Unbezahlbar :D

und er heißt ja wohl nicht Ultra sondern Titan ? :D

Ailuros
2013-01-23, 14:49:43
SCNR
Der XBox360 fehlt DX10.1. Soll ich weiterfragen oder ist der Punkt offensichtlich?

Offiziell ist Xenos SM3.0 obwohl einige Faehigkeiten darueber steigen aber selbst 4.0 wird nicht voll unterstuetzt. Von 10.1 mal ganz zu schweigen. Xenos hat aber eine quasi fixed function tessellations-Einheit die woemoeglich nur in der Ueber-Anzahl von einem Spiel unterstuetzt wurde.

Wieso hat es die DX10 Spiel-Entwicklung nicht aufgehalten seit G80 erschienen ist?

Durch die Konsolen könnten sich hier Hol- und Bringschuld verschieben. Bislang waren NV und AMD in einer "Bringschuld", sie mussten Ihr Zeug den Devs nahe bringen und NV hat den Job besser gemacht. Die Konsolen könnten (Konjunktiv!) aber nun dafür sorgen, dass die DEVs tendenziell in eine Holschuld kommen, weil sie Wege finden müssen, die arg begrenzten Ressourcen (laut Gerüchten nicht mal Pitcairn-Format) so gut wie möglich auszuquetschen. Sie haben auch mit der ATi/AMD-GPU in der XBox360 leben gelernt. Ob das dann direkte Effekte für den PC-Grafik-Bereich bringen kann, sah in der Vergangenheit schlecht aus. Vielleicht wird das in Zukunft durch die engere technologische Verwandschaft ja besser.

Konsolen-Hersteller haben ihre kommenden Konsolen so bescheiden gestaltet eben weil sie kein besonderes Risiko eingehen wollen und der Markt langfristig in eine ganz andere Richtung gehen koennte (Aussnahme Nintendo bei denen es so oder so der Normalfall ist). Mit einer solchen generellen Ungewissheit fuer den Konsolen-Markt (nein verschwinden wird er nicht nur womoeglich aendert und verbreitet sich indirekt der device form factor) wuerde ich mich nicht auf die bisherigen Konstanten verlassen und schon gar nicht ueber ein halbes Jahrzehnt hinaus spekulieren.

Wenn dann wuerde ich langfristig eher eine quasi synergy zwischen dem SFF mobilen und dem "Konsolen"-Markt sehen (egal in was sich der letzte weiterentwickelt). Und wenn es soweit kommt dass smartTVs bzw. set top boxes oder was immer auch die Rolle eines home entertainment Geraets indirekt uebernehmen oeffnet sich der Markt automatisch an quasi jeden SoC Hersteller, eben alle heutigen SoC Hersteller fuer den SFF Markt und natuerlich unter diesen auch NVIDIA. Es wird natuerlich dauern, aber wir sind auf einer Schwelle wo sich so manches Schritt fuer Schritt aendern wird.

Ebenso werden PC/notebook SoCs konstant groesser werden und es wird irgendwann die Palette von standalone GPUs erstmal auf mainstream und aufwaerts schrumpfen bis irgendwann mal nur high end und Profi GPUs uebrig bleiben.

Wenn's nicht ueberzeugend klingt schau Dir das Beispiel Valve an; keiner weiss ob es erfolgreich sein wird oder nicht, aber wo es so langsam weitergehen wird wissen die meisten. Das einzige was der Markt momentan braucht ist jemand wie Apple der ihnen vorzeigt wie man es machen koennte, damit die anderen auch dann auf dem Konzept weiterreiten koennen.

Gaestle
2013-01-23, 14:59:46
Ich bin nach wie vor der Meinung, dass GK104 ein Performancechip ist. Der hätte eine prima GTX 660 Ti abgegeben, eben etwas niedriger getaktet, so dass er 15-20% über der GTX580 liegt. Wenn GK104 Highend wäre, was wäre dann GK110 - Ultrahighend?

Es gibt wohl zwei Perspektiven. Du denkst es aus der "Chipfamilie" heraus, Angiesan vom Marktkontext der verfügbaren Chips.

Früher hat beides zusammen gepasst, aber schon AMD hat dieses Zusammenspiel mit dem Verzicht auch "echte" HighEnd-Chips gelockert. Aktuell hat NV die Verbindung zwischen beiden "Welten" durch die Verspätung von GK110 komplett gelöst.

@Ail
Wir sind in diesen Punkten einer Meinung.

Ailuros
2013-01-23, 15:32:38
Wenn beide IHVs mit den hohen Preisturnerein auch fuer diese 28nm Runde weitermachen, schiessen sie sich langfristig ins Knie. Klar steigen die Margen, aber es waechst die Anzahl der verkauften Einheiten nicht ueberhaupt wenn man diesmal nur mit refresh-Leistung zu tun hat.

Wenn der MSRP von $899 stimmen sollte fuer Titan, dann wird AMD in absehbarer Zeit mit dem Sea Islands top dog ein besseres perf/$ haben, egal ob sie diesen wieder bei $599 anlegen. Die Mehrzahl der Kepler bzw. Tahiti Inhaber kann man mit solchen Strategien schwer ansprechen. Und wie ich schon gerade bei SA reintippte, nein ich hab nicht das geringste Interesse NV's ueberteuertes 7.1b Transistoren Projekt zu investieren.

Das ist fuer mich der eigentlich springende Punkt hier und nicht der DX11.1 Rotz.

boxleitnerb
2013-01-23, 15:34:54
Prozentrechnung musst aber noch lernen ;)

Ailuros
2013-01-23, 15:53:17
Prozentrechnung musst aber noch lernen ;)

Ich hab nie behauptet dass ich immun zu brainfarts bin.

Hübie
2013-01-23, 17:31:28
nein ich hab nicht das geringste Interesse NV's ueberteuertes 7.1b Transistoren Projekt zu investieren.

ACK! :redface: Es sieht so aus als ob meine GTX 580 doch noch lange durchalten muss. Ich bin nicht und war nie bereit mehr als 450 Euro für einen Grafiktempel auszugeben.
Das muss in jeder Hinsicht reichen. So schnell schreitet Inflation nicht voran um diesen Preis nun zu rechtfertigen. Notgedrungen wander ich dann wieder zu AMD (oh je; Gott bewahre :rolleyes:).

LG Hübie

fondness
2013-01-23, 19:22:40
Genau das denke ich auch. Es ist praktisch ausgeschlossen, dass es außer Titan nix gibt. Ich könnte mir höchstens vorstellen, dass sie sich mit GK204 wieder Zeit lassen, aber so langsam müssen sie mal zu Potte kommen und nicht immer Monate nach AMD releasen. Auch das schadet dem Ruf. Die Kapazitäten sollten jetzt reichen, die Yields sollten gut sein für vergleichsweise kleine Chips und dass Nvidia gute Chips designen kann, haben sie mit Kepler ja bewiesen.

Was soll denn von AMD kommen? Bei den aktuellen Barreserven können die sich noch maximal drei solche Quartale wie diesmal leisten und der Laden ist dicht wenn sie kein neues Geld auftreiben. Der CEO hat neue Grafikprodukte nur sehr wage für das 1. Halbjahr 2013 angekündigt. IMO wird AMD Kosten reduzieren wo es nur geht und erstmal Lagerbestände auf ein Minimum reduzieren bevor man neue Produkte veröffentlicht.

boxleitnerb
2013-01-23, 19:28:49
Was soll denn von AMD kommen? Bei den aktuellen Barreserven können die sich noch maximal drei solche Quartale wie diesmal leisten und der Laden ist dicht wenn sie kein neues Geld auftreiben. Der CEO hat neue Grafikprodukte nur sehr wage für das 1. Halbjahr 2013 angekündigt. IMO wird AMD Kosten reduzieren wo es nur geht und erstmal Lagerbestände auf ein Minimum reduzieren bevor man neue Produkte veröffentlicht.

Mein Post ist immer noch akkurat, wenn AMD im Juni und Nvidia im September launcht ;)
Nvidia wird die langsamere Gangart natürlich dankend zur Kenntnis nehmen und weiter 294mm2 GPUs für 400 Euro verkaufen. Und der Arsch sind wir, die Kunden.

fondness
2013-01-23, 19:30:52
Nvidia wird die langsamere Gangart natürlich dankend zur Kenntnis nehmen und weiter 294mm2 GPUs für 400 Euro verkaufen. Und der Arsch sind wir, die Kunden.

Das ist klar. Aber damit muss man leben wenn man sein Geld trotzdem noch in NV investiert. ;)

boxleitnerb
2013-01-23, 19:33:20
Ich hab leider keine Alternative, ich bin aber auch nicht der Ottonormalverbraucher. Für 700-800 Euro und 50+% bei Titan ggü. der 680 könnte ich schwach werden. Ob ich das Geld jetzt versaufe, verrauche oder für Hardware ausgebe, gibt sich mMn nix. Es ist mein einziges kostenintensives Hobby, und man lebt nur einmal :D

Ailuros
2013-01-23, 19:43:35
Ich hab leider keine Alternative, ich bin aber auch nicht der Ottonormalverbraucher. Für 700-800 Euro und 50+% bei Titan ggü. der 680 könnte ich schwach werden. Ob ich das Geld jetzt versaufe, verrauche oder für Hardware ausgebe, gibt sich mMn nix. Es ist mein einziges kostenintensives Hobby, und man lebt nur einmal :D

Ich mach mal wieder eine Aussnahme und gehe sehr OT: waehrend viele von uns Zeit und Grips verschwenden fuer eine bessere Graka, ein schickeres Handy, eine schnellere Karre oder sonst was gibt es Leute dort draussen die wissen dass sie nur wenig Zeit zu leben haben und nur einen Wunsch haben der ihnen leider nie gegoennt wird.

Natuerlich lebt man nur einmal, aber wir vergessen leider meistens wie wertvoll diese Einzelheit wirklich ist und verschwenden Zeit mit nebenwichtigem Unsinn. Nichts dagegen nur so ein merkwuerdiger Gedankensporn zwischendrin....

Hübie
2013-01-23, 20:22:36
Ich mach mal wieder eine Aussnahme und gehe sehr OT: waehrend viele von uns Zeit und Grips verschwenden fuer eine bessere Graka, ein schickeres Handy, eine schnellere Karre oder sonst was gibt es Leute dort draussen die wissen dass sie nur wenig Zeit zu leben haben und nur einen Wunsch haben der ihnen leider nie gegoennt wird.

Natuerlich lebt man nur einmal, aber wir vergessen leider meistens wie wertvoll diese Einzelheit wirklich ist und verschwenden Zeit mit nebenwichtigem Unsinn. Nichts dagegen nur so ein merkwuerdiger Gedankensporn zwischendrin....

Wie poetisch Ail. Da ich schon oft Operationen mit Folgen hatte weiß ich sehr genau was du meinst. Man muss Geld nicht versaufen, verrauchen oder ver-graka'n (Neogolismus ftw ;D). 800 Eier wollen aber auch erst mal verdient sein und ich weiß ja nich was ihr so macht aber bei mir sind das sicher einige Tage harte Arbeit bis 800 € rauskommen. Bis 800 mal übrig sind dauerts entsprechend länger. Daher bin ich einfach nicht bereit so viel Geld in so wenig Gegenwert zu investieren.
Es würde mich sehr vergaulen wenn ich tatsächlich keinen würdigen GF110-Ersatz bekäme...

N0Thing
2013-01-23, 20:56:36
Was soll denn von AMD kommen? Bei den aktuellen Barreserven können die sich noch maximal drei solche Quartale wie diesmal leisten und der Laden ist dicht wenn sie kein neues Geld auftreiben. Der CEO hat neue Grafikprodukte nur sehr wage für das 1. Halbjahr 2013 angekündigt. IMO wird AMD Kosten reduzieren wo es nur geht und erstmal Lagerbestände auf ein Minimum reduzieren bevor man neue Produkte veröffentlicht.

Wie hoch sind denn die aktuellen Barbestände von AMD? Mir sind da gar keine Aussagen bekannt.
Neue Grafikkarten kommen sicherlich, die Wafer dafür dürfte AMD eh schon gekauft/reserviert haben, neues Geld kommt also am schnellsten rein, wenn sie die neuen Chips auch an die Grafikkartenhersteller weiter verkaufen. ;)

fondness
2013-01-23, 20:58:57
Wie hoch sind denn die aktuellen Barbestände von AMD? Mir sind da gar keine Aussagen bekannt.
Neue Grafikkarten kommen sicherlich, die Wafer dafür dürfte AMD eh schon gekauft/reserviert haben, neues Geld kommt also am schnellsten rein, wenn sie die neuen Chips auch an die Grafikkartenhersteller weiter verkaufen. ;)

Noch 1.2Mrd USD laut den aktuellen Quartalszahlen. Zu letzterem: Nicht wenn man den alten Lagerbestand abschreiben muss. ;)

Ailuros
2013-01-23, 21:59:06
Wie poetisch Ail. Da ich schon oft Operationen mit Folgen hatte weiß ich sehr genau was du meinst. Man muss Geld nicht versaufen, verrauchen oder ver-graka'n (Neogolismus ftw ;D). 800 Eier wollen aber auch erst mal verdient sein und ich weiß ja nich was ihr so macht aber bei mir sind das sicher einige Tage harte Arbeit bis 800 € rauskommen. Bis 800 mal übrig sind dauerts entsprechend länger. Daher bin ich einfach nicht bereit so viel Geld in so wenig Gegenwert zu investieren.
Es würde mich sehr vergaulen wenn ich tatsächlich keinen würdigen GF110-Ersatz bekäme...

GeForce Titan = 800 Eier
Mein Kleine umarmt mich nachts im Schlaf und schnarcht mir ins Ohr = Preislos :biggrin:

Spass und Hyper-realismus zur Seite, ich hab es schon mal erwaehnt, das letzte Mal dass ich 650 Euros fuer eine GPU hingelegt habe war es fuer die 8800GTX 3 Tage nach der Ankuendigung. Das Ding war aber fuer seine Zeit auch einmalig und hab es nie bereut. Solche Faelle gibt es leider nur vielleicht einmal im Jahrzehnt und ich bin mir nicht sicher ob es je so etwas wieder geben wird, wo man zur gleichen Zeit eine sehenswerte Bildqualitaet und Leistungssteigerung gleichzeitig sieht.

Heutige GPUs sind auch zugegeben verdammt gut geworden und auch ziemlich schnell. Wenn man keinen 30" display zu "fuettern" hat kommt man locker fuer einige Zeit sogar mit einer 660Ti davon. Das daemliche ist natuerlich dass sie hier am Arsch der Welt immer noch =/>285 Euros kostet. Entweder die 28nm GPU fallen auf logischere Nivaeus dieses Jahr oder ich hol mir ein tablet und spiele angry birds bis ich epileptische Anfaelle bekomme :cool:

Angiesan
2013-01-23, 22:10:13
Verflucht muss schnell mal nach meiner Frau gucken ob sie schon zappelnd am Boden liegt, die spielt gerade wie wild Angry Birds auf Ihrem neuen Tab:biggrin:
Und ich dachte da passiert nix:wink:

Hübie
2013-01-23, 23:09:57
Hihi. Wir erwarten für den 9.September 2013 Nachwuchs ;D Scheiße sind wir alt geworden.

Ich sag euch mal was: wenn GK110 800 Schleifen kostet, kaufe ich mir später einfach ne PS4 und fertig. Es wird eh der Tag kommen an dem der PC'ler mit Maus & Tastatur von einem Konsolero ebenso umgenietet wird. Wetten? Ich bin bitter enttäuscht muss ich sagen. Andererseits mag ich meine GF110 seit dem Peter wieder richtig gern (900 MHz bleiben leise) :naughty:

horn 12
2013-01-23, 23:57:18
Herzlichen Glückwunsch!
Gibt halt auch noch was Anderes als Grafikkarten, aber wem sag ich das :-)
Sitze ja im selben Boot!

Bezüglich GK110, bereits bei Lux gepostet:






Meinerseits will NV eine NICHT zu überbietende Single GPU Karte raushauen, um sich die Performance Krone dieses JAHR 2013 zu sichern,- und nicht durch wie letztes Jahr HD7970 Ghz Edition wieder abnehemn zu lassen.

Dies wird mit der Geforce Titan Karte auch passieren, lassen sich dabei aber auch den Preis vergolden, wenn man dies so sagen kann, darf.
Denn mit dem Kleinen Ableger wird mal wohl auf gute 30 bis max. 40% vor einer GTX 680 liegen,- und dabei bräuchte AMD in etwca. 20-25% über HD7970 Ghz Performance um so gut wie gleichzuziehen, was uns in jenem Zusammenhang gute Preise ermöglichen würde.

Jene 15+ Mehrperformance (Titan-Karte) lässt sich NV somit auch dementsprechend bezahlen.

AMD wird seine HD8970 wahrscheinlich unter die 449 Euro anbieten können,- mit einem dennoch recht akzeptablen Leistungsplus gegenüber der HD7970/ bzw. etwas geringerem gegenüber HD7970 Ghz Edition.

Angiesan
2013-01-24, 09:49:57
Hihi. Wir erwarten für den 9.September 2013 Nachwuchs ;D Scheiße sind wir alt geworden.

Ich sag euch mal was: wenn GK110 800 Schleifen kostet, kaufe ich mir später einfach ne PS4 und fertig. Es wird eh der Tag kommen an dem der PC'ler mit Maus & Tastatur von einem Konsolero ebenso umgenietet wird. Wetten? Ich bin bitter enttäuscht muss ich sagen. Andererseits mag ich meine GF110 seit dem Peter wieder richtig gern (900 MHz bleiben leise) :naughty:

sry für ot aber ich schmunzele gerade heftig:biggrin: da ist jemand ja mal richtig stolz! ich habe mich gerade eben noch mal zurückerinnert, mein 9 September wurde der 21igste und ist heute 9 Jahre alt, herzlichen Glückwunsch:ubeer:

fbu
2013-01-24, 12:22:54
worauf denn stolz sein? kinder kriegen oder machen kann doch fast jeder :confused:

BigKid
2013-01-24, 12:56:24
worauf denn stolz sein? kinder kriegen oder machen kann doch fast jeder :confused:
Nope... Bei etwas mehr als jedem 10ten (der überhaupt will) klappts nicht.
Und der Stolz ist eingebaut - wer den nicht empfindet ist entweder abgeklärt und weise oder ein Fall für den Psychater...

Skysnake
2013-01-24, 13:24:36
Mal noch was richtig geiles zum schlapp lachen ;D

http://archive.rebeccablacktech.com/boards/g/img/0247/11/1336422551560.png

Ist aus dem PCGH, und manche haltens sogar noch für möglich ;D

aufkrawall
2013-01-24, 13:27:29
Juhu, endlich DX 11.1...
Da kanns auch 1000 Öcken kosten, immer her damit.

fbu
2013-01-24, 14:02:07
Nope... Bei etwas mehr als jedem 10ten (der überhaupt will) klappts nicht.
Und der Stolz ist eingebaut - wer den nicht empfindet ist entweder abgeklärt und weise oder ein Fall für den Psychater...

...oder kein Narzist

BigKid
2013-01-24, 14:26:23
...oder kein Narzist
Fällt unter abgeklärt und weise... Auch ein gewisser Narzismus ist angeboren und normal...

Und um den Bogen zu schlagen:
Ob Nvidia wohl stolz auf GK110 ist ?

Ailuros
2013-01-24, 15:33:14
Und um den Bogen zu schlagen:
Ob Nvidia wohl stolz auf GK110 ist ?

Wieso nennen sie sonst das Ding einen Riesen? http://de.wikipedia.org/wiki/Titan_(Mythologie)

worauf denn stolz sein? kinder kriegen oder machen kann doch fast jeder :confused:

Ist zwar nochmal verdammt OT, aber wer auf seine Kinder nicht stolz sein kann sollte es gleich lieber bleiben lassen.

Magnificus
2013-01-24, 16:08:25
Also den Titan ;) hol ich mir auf jeden Fall,
irgendwie muss ich meinen Oculus Rift doch füttern, sonst werd ich noch seekrank.

Das wierd denke ich auch das neue Ziel für Grafikkarten werden, Consumer Virtual Reality 120hz stereo, wobei dann die 120hz die mindest Framerate ist.

Ein hakeln holt einen da gleich aus der virtuellen Welt auf den Boden der Tatsachen.

Und mit SLI ist da auch nicht soviel her, Latenz ist alles http://blogs.valvesoftware.com/abrash/latency-the-sine-qua-non-of-ar-and-vr/

^^ Das Jahr wird noch interessant

BigKid
2013-01-24, 17:18:01
Wieso nennen sie sonst das Ding einen Riesen? http://de.wikipedia.org/wiki/Titan_(Mythologie)


Eventuell weil sie hoffen das da ein wenig Glanz von TITAN abfällt ?
Dem Supercomputer auf Platz 1 der Supercomputer (zumindest aktuell) - der zufällig auch noch von GK110s befeuert wird ;)

Also ich denke das liest sich doch gut in einer Pressemitteilung...
"... bringing the power of the titan - worlds number one supercomputer - to your home..."
Aber klar... Ein wenig stolz spricht schon aus der Namenswahl... :D

aufkrawall
2013-01-24, 17:20:59
Wenn man aus dem Tahiti XT Nachfolger wieder 30% mehr Performance durch hohe Clocks rauskitzeln kann, wär der Titan-Preis einfach nur noch krank.

Warum kann Nvidia nicht die Treiber für AMD machen... :freak:

Ailuros
2013-01-24, 17:23:51
Wenn man aus dem Tahiti XT Nachfolger wieder 30% mehr Performance durch hohe Clocks rauskitzeln kann, wär der Titan-Preis einfach nur noch krank.

Du meinst wohl 7970GE + ~15%.

boxleitnerb
2013-01-24, 17:25:58
Der Titan-Preis ist so oder so krank. Ob du jetzt ne Karte hast, die 50% schneller als die 680 ist (Titan) oder gut 30% (7970 GE Nachfolger) ist doch eigentlich egal. Der Unterschied ist keine 500 Euro wert. Ich hoffe, das weiß auch Nvidia und nimmt eher 699, das wäre noch im Rahmen. Problem ist halt, Titan kommt wohl deutlich früher als der Tahiti-Nachfolger, von daher darf Nvidia genauso absahnen wie AMD es mit der 7970 Anfang 2012 gemacht hat.

aufkrawall
2013-01-24, 17:28:39
Du meinst wohl 7970GE + ~15%.
Das wäre es wohl. :(

Ich hoffe, das weiß auch Nvidia und nimmt eher 699, das wäre noch im Rahmen.
Aber auch nur zu Anfang.
Na, bekomm ich wenigstens für meine 2. 670 später mehr Geld.

Ailuros
2013-01-24, 17:48:39
Der Titan-Preis ist so oder so krank. Ob du jetzt ne Karte hast, die 50% schneller als die 680 ist (Titan) oder gut 30% (7970 GE Nachfolger) ist doch eigentlich egal. Der Unterschied ist keine 500 Euro wert. Ich hoffe, das weiß auch Nvidia und nimmt eher 699, das wäre noch im Rahmen. Problem ist halt, Titan kommt wohl deutlich früher als der Tahiti-Nachfolger, von daher darf Nvidia genauso absahnen wie AMD es mit der 7970 Anfang 2012 gemacht hat.

AMD ist auch in einer ziemlich schwierigen Situation da kann ich es noch halbwegs verstehen. NV hat aber im Gegenteil keine so grossen Probleme und langfristig wenn man bei hohen Preisen bzw. Margen bleibt reduziert man die Userbase und zerstoert langfristig sein eigenes Kerngeschaeft. Ausser jegliche Titan Preispolitik ist eine temporaere Loesung bis die GK110 yields noch besser werden, der Preis normalisiert sich dann und die performance und kleinere Kepler Nachfolger kommen mit um einiges attraktiveren Preisen als in 2012.

boxleitnerb
2013-01-24, 18:12:17
Wie sind denn die GK110 Yields überhaupt? Laut Nvidia sind sie "terrific". Oder war das jetzt terrifying? :D
Dass Nvidia das beschönigt, ist klar, aber gibt es halbwegs unabhängige Daten? Das Ding wird doch jetzt ein halbes Jahr hergestellt auf einem Prozess, der ein gutes Jahr alt ist. So schlecht kann das doch nicht sein, oder?

Ailuros
2013-01-24, 18:19:22
Wie sind denn die GK110 Yields überhaupt? Laut Nvidia sind sie "terrific". Oder war das jetzt terrifying? :D
Dass Nvidia das beschönigt, ist klar, aber gibt es halbwegs unabhängige Daten? Das Ding wird doch jetzt ein halbes Jahr hergestellt auf einem Prozess, der ein gutes Jahr alt ist. So schlecht kann das doch nicht sein, oder?

Tja wafer yields und binning yields sind halt zweierlei Sachen. GK110 als chip ist lediglich 4 Monate alt und ich bin auch verdammt neugierig was auf den chips draufsteht nach dem launch.

boxleitnerb
2013-01-24, 18:20:28
Achso stimmt, hab mich verrechnet. September war Anfang der Massenproduktion?

Ailuros
2013-01-24, 18:25:37
Achso stimmt, hab mich verrechnet. September war Anfang der Massenproduktion?

Anfang Maerz 2012 finales tape out; Anfang September Massenproduktions-start. 6 Monate braucht man zumindest unter normalen Umstaenden von tape out zur Produktion und bei so einem massivem die ist es schon ein ziemlicher stunt.

Das dumme ist halt dass es nirgends Bilder von Tesla K20 gibt (oder ich hab sie verpasst). Aber ich schaetze schon dass sie seither zumindest einen metal spin gemacht haben.

fbu
2013-01-24, 18:40:18
Der Stolz bezieht sich nur auf das eigene Produkt (GK110) = Narzissmus

Blediator16
2013-01-24, 19:07:01
Man hätte die Karte auch Opel Corsa nennen können. An der Leistung würde sich dennoch nichts ändern.

Hübie
2013-01-24, 20:03:14
sry für ot aber ich schmunzele gerade heftig:biggrin: da ist jemand ja mal richtig stolz! ich habe mich gerade eben noch mal zurückerinnert, mein 9 September wurde der 21igste und ist heute 9 Jahre alt, herzlichen Glückwunsch:ubeer:

Und wie!! Freitag früh sehe ich zum ersten Mal das Herz flimmern :freak: :biggrin: Danke für die Glückwünsche :)

B2T: Videocardz.com hat viele Würfel mit lustigen Dingen drauf. Die würfeln diese dann durcheinander und stecken die "Specs" in ein data-sheet welcher auf ihrer homepage auftaucht. Ich glaube das keine andere Seite so daneben liegt wie die selber.

Ich habe die Hoffnung, dass der Preis auf sweclockers zu hoch ist, völlig aufgegeben. Da nützt keine Augenwischerei was - GK110 raubt uns das letzte Körnchen vom Feld. Nun ja. :rolleyes: Ich wette im Luxx werden die ersten sein, die gleich zu release so eine Kiste drin haben. Da rennen ja "die üblichen Verdächtigen" rum :freak:

Skysnake
2013-01-24, 20:25:11
Tja wafer yields und binning yields sind halt zweierlei Sachen. GK110 als chip ist lediglich 4 Monate alt und ich bin auch verdammt neugierig was auf den chips draufsteht nach dem launch.
Also K20 hat, wenn ich mich grade richtig erinnere A2. Ich habs hier auf jeden Fall schon mal gepostet vor kurzem :tongue:

Die Frage ist aber wirklich gut! Wenn da was anders drauf steht, als bei K20 im Handel, dann war/ist was "kaputt" an den Teslas, wir können aber darauf hoffen, das dann nen halbes Jahr später K20x oder auch ein Vollausbau als Tesla kommt :biggrin:

Wenn auch A2(?) drauf steht, dann können wir davon ausgehen, das wohl nochmal nen Refresh vor 20nm kommt, aber nicht mehr vor 2014.

Anfang Maerz 2012 finales tape out; Anfang September Massenproduktions-start. 6 Monate braucht man zumindest unter normalen Umstaenden von tape out zur Produktion und bei so einem massivem die ist es schon ein ziemlicher stunt.

Ich bezweifle stark, das man was anders sehen wird als bei den im Handel befindlichen K20


Das dumme ist halt dass es nirgends Bilder von Tesla K20 gibt (oder ich hab sie verpasst). Aber ich schaetze schon dass sie seither zumindest einen metal spin gemacht haben.
Was willst du denn mit Bildern? ;D

Sehen, das wirklich ein 320Bit Interface drauf ist? Oder sonst was?

Die Karte ist auf jeden Fall "putzig" im Vergleich zu XeonPhi :P

Ailuros
2013-01-24, 21:39:39
Weil rein zufaellig auf die chips nicht nur die chip-Revision sondern auch dessen tape out gestempelt wird?

Skysnake
2013-01-24, 22:29:50
Dafür müsste man aber den Kühler runter machen...

Das ist eher ungünstig...

Kann man das irgendwo auslesen?

|MatMan|
2013-01-24, 23:24:23
Das dumme ist halt dass es nirgends Bilder von Tesla K20 gibt (oder ich hab sie verpasst). Aber ich schaetze schon dass sie seither zumindest einen metal spin gemacht haben.
Werden metal spins eigentlich neu validiert für Quadro/Tesla?

Die Karte ist auf jeden Fall "putzig" im Vergleich zu XeonPhi :P
Dafür ist K20 deutlich sparsamer was den Stromverbrauch betrifft und bei typischen Workloads auch noch deutlich schneller :P
(und hat nebenbei noch andere Probleme weniger weil kein OS drauf läuft)

Skysnake
2013-01-25, 00:40:05
Werden metal spins eigentlich neu validiert für Quadro/Tesla?

Normal solltest du nicht alles testen müssen, aber die meisten Sachen. Du musst ja sicher gehen, dass der Chip nicht durch irgendwelche Scheise sich in ganz ganz ganz ganz seltenen Fällen halt mal verrechnet. Das Risiko kannst du einfach nicht eingehen


Dafür ist K20 deutlich sparsamer was den Stromverbrauch betrifft und bei typischen Workloads auch noch deutlich schneller :P
(und hat nebenbei noch andere Probleme weniger weil kein OS drauf läuft)
Problem, oder Segen?

ich würde sagen, dir widersprechen ne Menge Leute mit dem "Problem"

Ailuros
2013-01-25, 09:32:57
Werden metal spins eigentlich neu validiert für Quadro/Tesla?

Wehe wenn es dem nicht so waere bei so teuren Produkten.

Skysnake
2013-01-25, 10:31:03
nVidia könnte sich das NIE erlauben. Es kann zwar keiner nachweisen, dass Sie es nicht tun, aber wie gesagt, wenn da nen Fehler drin ist, und etwas schief läuft, und das z.B. erst nach 1 oder 2 Jahren auftaucht, dann gn8 für nVidia.

Die Regressansprüche wären verheerend. Da müssten ja im Prinzip alle Berechnungen nochmal durchgeführt werden usw usw

|MatMan|
2013-01-25, 13:31:14
Problem, oder Segen?

ich würde sagen, dir widersprechen ne Menge Leute mit dem "Problem"
Sicher hat ein OS schon Vorteile. Ich hab das aber schon so gemeint wie ich es geschrieben habe, also "Problem". Das OS funkt zur Laufzeit immer mal dazwischen um irgendwas abzufragen, was z.B. in einem Core zu einen cache flush führt. In der Folge ist die Ausführungszeit eben mal deulich länger für ein Arbeitspaket (ich hab hier Faktor 2-3 gesehen!). Ist für eine Karte nicht das Problem, da es sehr selten auftritt. Baut man aber 10000 in ein Cluster killt es tatsächlich die Skalierung, weil die Wahrscheinlichkeit hoch ist, dass immer eine Karte gerade mal langsam ist. K20 hat solche Probleme nicht. Der Hardwarescheduler verteilt die Arbeit auf die SMs was die Schwankung der Ausführungsdauer sehr gering hält. Und glaub mir, die Leute, die das untersucht haben, waren keine Dilettanten.

Wehe wenn es dem nicht so waere bei so teuren Produkten.
Kann es sein dass nVidia sich das spart und noch die alten Revisionen weiterproduziert? Mir kam es so vor als hat es die GF100 Teslas und Quadros noch ewig gegeben nachdem GF110 schon raus war. Warum sollte man ein validiertes Produkt auch ändern, von den alten Steppings hat man zur Herstellung ja eh noch alles in der Hand...

Thunder99
2013-01-25, 13:54:17
Was glaubt ihr nun. Kommt "Titan" im Vollausbau oder nicht? Wie gesagt die Tesla K20X sind ja auch nicht im "Vollausbau" erschienen. Evt wegen der sonst zu hohen Leistungsaufnahme?

Wenn nicht könnte ich mir zwei Gründe vorstellen:

Es ist wirklich (mal wieder) was kaputt oder die Stromaufnahme steigt überproportional das es sich nicht rentiert (siehe K20X)
Prozess ist so problematisch bei dem großen DIE das die Yields einfach zu gering sind für ein Vollausbau. D.h. sie kalkulieren jetzt schon mit einem Reserve Anteil damit es wirtschaftlicher wird


Sehr spannend das alles :)

Skysnake
2013-01-25, 13:55:16
Sicher hat ein OS schon Vorteile. Ich hab das aber schon so gemeint wie ich es geschrieben habe, also "Problem". Das OS funkt zur Laufzeit immer mal dazwischen um irgendwas abzufragen, was z.B. in einem Core zu einen cache flush führt. In der Folge ist die Ausführungszeit eben mal deulich länger für ein Arbeitspaket (ich hab hier Faktor 2-3 gesehen!). Ist für eine Karte nicht das Problem, da es sehr selten auftritt. Baut man aber 10000 in ein Cluster killt es tatsächlich die Skalierung, weil die Wahrscheinlichkeit hoch ist, dass immer eine Karte gerade mal langsam ist. K20 hat solche Probleme nicht. Der Hardwarescheduler verteilt die Arbeit auf die SMs was die Schwankung der Ausführungsdauer sehr gering hält. Und glaub mir, die Leute, die das untersucht haben, waren keine Dilettanten.

Dir ist aber schon klar, dass das alles noch relativ Beta-stylisch ist?

Und bzgl dem Flushen. Da kann man dann auch schauen, das man sich einen Core fürs OS weg nimmt, und auf den anderen die Tasks ausführt. Damit lassen sich solche Probleme minimieren.

Man hat aber auf jeden Fall den Vorteil, das man seinen Code recht einfach portieren kann, was bei nVidia gar nicht geht, oder der reinste Graus ist...

Und ja, ich weiß wovon ich rede... Ich hab an nem Projekt mitgearbeitet, welches sich mit dem DirectGPU Treiber von CUDA 5 beschäftigt hat... Die Treiberentwicklung, bzw das arbeiten auf Treiberebene ist zum KOTZEN!

Klar, unter Linux ist das auch nicht im Handumdrehen gemacht, und hat seine Hacken, aber es ist um WELTEN einfacher und komfortabler als mit ner GPU.

Und genau da sticht Intel halt voll rein. Was bringt dir der tollste Rechner, wenn du ihn einfach nicht gescheit nutzen kannst, weil du kein Geld und/oder keine Leute hast, die dir dafür die Software schreiben... Eben NICHTS

Godmode
2013-01-25, 13:56:03
Was glaubt ihr nun. Kommt "Titan" im Vollausbau oder nicht? Wie gesagt die Tesla K20X sind ja auch nicht im "Vollausbau" erschienen. Evt wegen der sonst zu hohen Leistungsaufnahme?

Wenn nicht könnte ich mir zwei Gründe vorstellen:

Es ist wirklich (mal wieder) was kaputt oder die Stromaufnahme steigt überproportional das es sich nicht rentiert (siehe K20X)
Prozess ist so problematisch bei dem großen DIE das die Yields einfach zu gering sind für ein Vollausbau. D.h. sie kalkulieren jetzt schon mit einem Reserve Anteil damit es wirtschaftlicher wird


Sehr spannend das alles :)

Vollausbau mit
15 SMX
6 GB Speicher
384 Bit SI
300W TDP

sonst können sie das Ding behalten.

dildo4u
2013-01-25, 13:57:49
NV braucht in jedem Fall noch nen Refresh bis 20nm für Monster Chips brauchbar wird daher wirds im März kein vollen Chip geben.

Skysnake
2013-01-25, 13:58:05
Das wird aber nicht kommen...

EDIT:
Also der Vollausbau mit "Titan"

Godmode
2013-01-25, 13:58:47
NV braucht in jedem Fall noch nen Refresh bis 20nm für Monster Chips brauchbar wird daher wirds im März kein vollen Chip geben.

Da kommt dann eh noch GK204 von daher kein Problem.

Das wird aber nicht kommen...

EDIT:
Also der Vollausbau mit "Titan"

schreib doch wenigstens, dass du das denkst, sonst siehts so aus als wär das schon Fakt.

dildo4u
2013-01-25, 14:05:03
Weniger Cores muss nicht unbedingt schlechter sein wenn dafür der Takt erhört werden kann.Ich glaube nämlich nicht das Spielecode großartig von Hyper Q profitieren wird,da könnte mehr Takt bzw Turbo sinnvoller sein.

Godmode
2013-01-25, 14:13:48
Weniger Cores muss nicht unbedingt schlechter sein wenn dafür der Takt erhört werden kann.Ich glaube nämlich nicht das Spielecode großartig von Hyper Q profitieren wird,da könnte mehr Takt bzw Turbo sinnvoller sein.

Mehr Takt macht aber viel mehr Wärme als mehr Cores, von daher...

dildo4u
2013-01-25, 14:17:43
Bei einer 800€ Karte muss man aber nich am Kühler sparen,wenn das auf dem Level der 690 gebaut wird würde ich mir da keine Sorgen machen.

Duplex
2013-01-25, 14:32:39
@dildo4u
Um was für ein Refresh gehts, GK104 > GK204?

Evtl. gibts 2014 auch Kepler Shrinks @20nm als Testbasis vor Maxwell.

Hübie
2013-01-25, 15:36:27
@dildo4u
Um was für ein Refresh gehts, GK104 > GK204?

Evtl. gibts 2014 auch Kepler Shrinks @20nm als Testbasis vor Maxwell.

Und evtl. bringt VW den Passat als E-PKW mit 600km Reichweite ;D Verabschiede dich von diesem Gedanken.

Ailuros
2013-01-25, 15:36:50
Das wird aber nicht kommen...

EDIT:
Also der Vollausbau mit "Titan"

Ich frag seit GK104 nicht mehr nach im Hintergrund weil meine "Quellen" weniger Bock haben als ich NV weiterzufragen :biggrin:

Ergo weiss ich praktisch nichts handfestes, aber spekulieren ist eben so eine Krankheit die man schlecht loswerden kann. Sweoverclockers oder wie immer die Seite heisst koennte von 14 SMXs gehoert haben oder es ist lediglich irgend eine bunte (rein absurde) Ergaenzung fuer die eigentliche Meldung wo man sich jemand einfach die K20X specs ausgeliehen hat.

Es kann durchaus sein dass es nur 14 SMXs sind, aber ich hab ernsthafte Zweifel dass das Ding auf nur 732MHz taktet, mit 6GB Speicher ankommt und dazu auch noch einen TDP von nur 235W haben wird. Wenn dann wiederspricht es sich auch irgendwie mit den Leistungs-angaben und das Resultat ist wohl sicher nicht um ca. 50% schneller als GK104.

Ob man jetzt 14 oder 15 SMXs mit irgendwo =/>850MHz macht lediglich einen Unterschied von =/<5% in Echtzeit. Aber wie ich schon sagte bei einem $899 MSRP (wenn dieser stimmt) ist es im Prinzip noch mehr unverschaemt so viel selbst nur fuer einen cluster weniger zu verlangen.

DavChrFen
2013-01-25, 15:37:04
NV braucht in jedem Fall noch nen Refresh bis 20nm für Monster Chips brauchbar wird daher wirds im März kein vollen Chip geben.
Vielleicht tuts für einen Refresh auch eine neues Metal Spin, schnellerer Speicher und höherer Takt, so ähnlich wie eben bei der AMD GHz Edition.