PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GK110 die letzte Highend-GPU?


Godmode
2013-02-27, 21:00:28
Ich hatte jetzt drei Tage und hab ein bisschen über die aktuellen Highend GPUs nachgedacht.

In den letzten Jahren war es immer so, dass AMD eher kleinere und Nvidia eher größere Chips entwickelt hat. 2012 kam es zum ersten Mal seit langem vor, dass bei Nvidia der kleinere Chip vor dem größeren vorgestellt wurde. Nach dem Launch der GTX 680 war es nicht mehr ganz klar, ob GK110 überhaupt auf dem Desktop Markt erscheinen wird. GK110 ist jetzt ca. 10-11 Monate nach GK104 im Desktop Markt gelandet, aber mit einem - verglichen mit bisherigen Preisen für High End - extrem hohen Preis. Würde die Karte schneller sein, zb. 70-80 % über einer 680, wäre das ganze sicherlich etwas leichter zu ertragen. So wie es aber jetzt aussieht, werden sehr wenige Leute diese Karte kaufen, zurecht.

Insgesamt scheint mir Titan eher so, also wolle man die anderen Produkte billiger aussehen lassen. Es gibt Experimente aus der Verkaufspsychologie, wo genau das praktiziert wird:

Produkt A kostet 100 €
10 Kunden würden das Produkt für diesen Preis kaufen.
Jetzt wird Produkt B eingeführt, was geringfügig besser ist, aber deutlich teurer zB. 300€
Durch das Vorhandensein von Produkt B, wollen jetzt plötzlich viel mehr Kunden Produkt A kaufen, da A jetzt günstiger erscheint.

Titan ist ganz klar unser Produkt B. Viele Kunden sehen sich Titan kurz an, aber werden schnell zu einem billigeren Produkt schwenken. Sollte sich das jetzt wiederholen, wird uns wieder als erstes ein kleiner Chip präsentiert, der aber vom Preis her gleich den früheren High End Chips ist. Ende des Jahres könnte schon ein kleiner Performance Maxwell Chip präsentiert werden, vielleicht erstmal nur in 28nm. Das Ding würde wohl etwas größer sein als GK104 und dem entsprechend auch etwas mehr Leistung bringen, aber nichts besonders. Gegen 22 nm spricht momentan vieles, genaue Detail kenne ich nicht, nur das was man so hört. Wenn man das jetzt weiterspinnt, wäre es wahrscheinlich, dass in 22nm erstmal kleinere Chips kommen. Also zb. ein Shrink des 28nm Maxwell auf 22nm mit mehr Takt weniger Stromverbrauch, Leistung vielleicht in Titan Region -/+10-20%. Ziemlich sicher wird als erstes kein +500mm² Dickschiff kommen, unter der Voraussetzung, dass Nvidia unter 22nm eine ähnliche Strategie, wie unter 28nm, fährt. Das würde wiederum bedeuten:

Maxwell Performance 28nm zu Q3-Q4 2013
Maxwell Performance 22nm zu Q2-Q3 2014
Maxwell Highend 22nm zu Q4 2014 - Q1-2015

Ja und bei letzterem stellt sich mir die Frage, ob wir sowas überhaupt noch einmal zu Gesicht bekommen? Wird es von Maxwell einen großen Chip geben, der auch im Desktop verkauft werden wird? Die Stückzahlen von GK110 erscheinen mir als sehr gering. Ein paar GPUs in den Super Computern und ein paar Titans für den Desktop. Für den Umsatz absolut unbedeutend, für den Preis der anderen Karten aber wichtig. Durch die sinkenden Stückzahlen im dezidierten GPU Markt, kann damit etwas entgegen gewirkt werden, aber wie lange wird das wohl gehen?

Um nochmal etwas zu präzisieren: War Titan die letzte große GPU oder wird das weiter gehen wie bisher?

TheRaven666
2013-02-27, 22:30:32
Titan ist keine GPU, kein Produkt im eigentlichen Sinne. Titan ist ein PR-Stunt, eine pure Marketingmaßnahme.

Die HD 7970 GE ist ebenso High End wie die GTX 680. Das Topic ist ziemlich irrelevant.

Match-Maker
2013-02-27, 22:46:03
Findest du? GK110 ist doch der eigentlich High-End-Chip (und nicht GK104). Er wird nur diesmal zu astronomischen Preisen verkauft und die Performance-Chips werden halt entsprechend überteuert verkauft.
Ich galube zwar, dass es weiterhin richtige High-End-Grafikkarten geben wird, aber eben nicht direkt zum Launch einer neuen Generation und/oder wie bei Titan zu astronomischen Preisen.

Lowkey
2013-02-27, 22:48:28
Titan ist keine GPU, kein Produkt im eigentlichen Sinne. Titan ist ein PR-Stunt, eine pure Marketingmaßnahme.


Genau so ist es. Es wird immer Werbung geben.

Zweck der Titan ist es nicht sich gut zu verkaufen, sondern die gesamte Serie zu pushen. Von daher ist sie nicht überteuert.

y33H@
2013-02-27, 22:51:01
Die HD 7970 GE ist ebenso High End wie die GTX 680.Seit Titan nicht mehr.

Godmode
2013-02-27, 22:54:04
Ich möchte hier nicht diskutieren was Highend ist und was nicht, dass hatten wir schon zur Genüge und jeder hat das seine eigene Meinung.

Bzgl. PR-Stunt: Das stand doch fast so im Eingangsposting!? habt ihr das überhaupt gelesen?

Um die Frage noch etwas deutlicher zu stellen: Gibt es in Zukunft noch solche Chips wie die 280, 480, 580 und GK110 für den normalen Endkunden zu kaufen?

Taigatrommel
2013-02-27, 22:55:55
Seit Titan nicht mehr.
Nur mit dem Unterschied, dass sich kaum jemand das neue "High-End" leisten kann/will. Egal welche vorherigen GTX'en, allesamt stets High-End Klasse, man sich anschaut: Die Preisgrenze von 600,-€ bei guter Verfügbarkeit nach Release wurde selten (deutlich) überboten.

Ich bin mir nicht sicher, ob man nun von einer breitgefächerten Deklassierung der 680er oder 7970er sprechen kann. Von der reinen Leistung ja. Doch was bringt es, wenn diese Leistung bei niemanden wirklich ankommt? Ich jedenfalls hatte immer gehofft, der GK110 würde in Form einer Art GTX 780 auf den Markt kommen - zu üblichen Preisen eines GTX Glagschiffes. Ich sehe offen gesagt auch nicht, wieso es diesmal anders ist. Ist PC Gaming aktuell wieder zu billig geworden, dass man nun an der Preisschraube drehen muss?

boxleitnerb
2013-02-27, 22:58:16
Ja, zumindest noch bei der nächsten Generation. Darüberhinaus will ich nicht schauen. Aber es spricht absolut nichts dagegen, einen großen Chip für den Halo-Effekt in kleineren Mengen auch im Desktopbereich anzubieten. Selbst wenn man mit Tesla alles refinanzieren könnte.

Allerdings macht das nur solange Sinn, wie man mit den kleineren GPUs nicht zu sehr in die Nähe kommt. Sollten die großen GPUs noch später im Lebenszyklus eines Prozesses antanzen in Zukunft, wäre die Lebensdauer zu kurz.

Angiesan
2013-02-27, 23:25:37
Es könnte was dran sein, dass man wie in anderen Bereichen auch Voodoo betreibt um das was man verkaufen will sehr gut da stehen zu lassen.

Der Effekt ist der gleich wie bei Ausverkäufen ----jetzt 40 % reduziert---- die Reflektion des Preises bezieht sich dann nur noch auf das Gesparte und nicht auf das was man noch zahlen musste:biggrin:

Wenn man jetzt als Unwissender auf das Portfolio von Nvidia guckt ergibt sich z.B. für die GTX 680 und noch viel mehr für die GTX 670 ein geradezu traumhaftes Preis-Leistungsverhältnis. Schau mal nur runde 35% langsamer aber rund 50 % günstiger.

Wenn NVidia wirklich diese Strategie, was ich durchaus nachvollziehen kann fährt braucht es aber immer wieder diese Voodo und man muss es deutlich abgrenzen von der normalen Reihe, was sie alleine schon mit dem Namen getan haben.
Wenn man dies dann betrachtet, wird es zwar nicht besser in der Zukunft, aber es bleibt zumindest das Segment High End erhalten oder und das ist meine Befürchtung AMD springt auf den selben Zug auf und es gibt eben wie im Hifi bereich die Voodoo Klassen:biggrin: die über High End angesiedelt ist und wo der Preis einfach keine Rolle mehr spielt.

Ganz nach dem Zitat Rockefeller: Wenn Du fragen musst was kostet es hast Du nicht genug Geld :biggrin:

Es ist in meinen Augen aber eine logische Weiterentwicklung des Grafikkartenmarktes und die Zeit scheint reif zu sein für diesen Schritt da die Entwicklung eben langsamer von statten geht und die abgesetzten Einheiten sinken muss man dies durch eine "Längere Lebensdauer" und höhere Preise kompensieren.
Ich denke wenn der Titan 1 oder im besten Fall 1,5 Jahre High End bleibt haben die die ihn gekauft haben viel richtig gemacht denn in früheren Jahren hätte man im schlimmsten Fall den Refresh des Refreshs gekauft und dabei eben so viel Geld verbrannt nur eben nicht in einem Rutsch sondern in 3 Happen:freak:. Da der Materialeinsatz für den Hersteller deutlich geringer ist und die Kapazitäten der Fertiger auch nicht grenzenlos sind ist das der einzige Weg den die Hersteller mittelfristig Gewinn maximierend einschlagen müssen.
Langfristig braucht es da aber mehr da die Sprünge in der Leistungsfähigkeit immer kleiner werden und die optischen Mehrwerte der Spiele nicht mehr so ins Auge fallen wie noch in der letzten Dekade.

ym2c

Nakai
2013-02-28, 00:37:05
Die Margen für solche großen GPUs sind einfach zu gering, jedenfalls im Desktopmarkt. Und ja die Margen sind riesig, aber die Abnahmemenge sind winzig. Es ist kein Zufall, dass Titan 900€ kostet und auf 10.000 Stück limitiert ist. Man braucht einfach nicht mehr zur Verfügung stellen. Das sind wirklich nur Grafikkarten für die totalen Enthusiasten.
Ist wie der Porsche Spyder 918.

Wenn die Abnahmemenge größer wäre, würde man natürlich mehr zur Verfügung stellen. Das ist nicht der Fall.

Wir werden in Zukunft weitere solche Modelle sehen. Aber eine richtige Serie eher nicht mehr.

kunibätt
2013-02-28, 00:47:57
1.) Im Prinzip sollte doch nichts dagegen sprechen auch zukünftig Überschüssige "Compute"-Chips auf den Desktopmarkt loszulassen? Es sei denn, sie haben irgendwann wirklich die Kapazitäten diese beiden Felder wirklich getrennt zu bearbeiten.

2.) Mit neuen Konsolen sollte auch wieder der Leistungsbedarf abseits dieses Forums steigen ;)

Angiesan
2013-02-28, 01:08:39
Die Margen für solche großen GPUs sind einfach zu gering, jedenfalls im Desktopmarkt. Und ja die Margen sind riesig, aber die Abnahmemenge sind winzig. Es ist kein Zufall, dass Titan 900€ kostet und auf 10.000 Stück limitiert ist. Man braucht einfach nicht mehr zur Verfügung stellen. Das sind wirklich nur Grafikkarten für die totalen Enthusiasten.
Ist wie der Porsche Spyder 918.

Wenn die Abnahmemenge größer wäre, würde man natürlich mehr zur Verfügung stellen. Das ist nicht der Fall.

Wir werden in Zukunft weitere solche Modelle sehen. Aber eine richtige Serie eher nicht mehr.
Das ist schon längst dementiert, Titan ist ein Sortimentsprodukt und keine Kleinstserie. Die 10K Stück halten sich aber hartnäckig:wink:

Grüße

Konami
2013-02-28, 01:32:05
Wenn man nach Ailuros (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9664746&postcount=3879) geht, sind die GK110 auf "Titan" nur aufgewärmte Reste aus alter Produktion. Spricht nix dagegen, dass nVidia das auch in Zukunft so macht. Reste für 1000€/Stück verkaufen ist sicher besser als wegschmeißen. :D

xxMuahdibxx
2013-02-28, 04:52:26
Das ist wirklich High End alles andere ist doch nur Mainstream weil es sich jeder kaufen kann .

http://assets.hardwarezone.com/img/2012/10/Titan_M.jpg

boxleitnerb
2013-02-28, 05:51:03
Die Margen für solche großen GPUs sind einfach zu gering, jedenfalls im Desktopmarkt. Und ja die Margen sind riesig, aber die Abnahmemenge sind winzig. Es ist kein Zufall, dass Titan 900€ kostet und auf 10.000 Stück limitiert ist. Man braucht einfach nicht mehr zur Verfügung stellen. Das sind wirklich nur Grafikkarten für die totalen Enthusiasten.
Ist wie der Porsche Spyder 918.

Wenn die Abnahmemenge größer wäre, würde man natürlich mehr zur Verfügung stellen. Das ist nicht der Fall.

Wir werden in Zukunft weitere solche Modelle sehen. Aber eine richtige Serie eher nicht mehr.

Titan ist nicht auf 10.000 Stück limitiert. Das wurde von Nvidia längst offiziell dementiert.

gnahr
2013-02-28, 06:00:07
liebe freizeit-psychotanten:
der beschriebene effekt wird vollkommen kanibalisiert von den kindern die automatisch high-end kaufen wollen und diesmal zum ersten mal sich bewusst werden mussten, dass sie auf wesentlich dickere hose machen, als ihr portemonai hergibt. statt sich dann ne 680 anzugucken greift man frei nach "was kostet die welt" zur größten radeon, die ja noch nichtmal ne dual-chip version darüberstehen hat. zudem hat amd seit ewigkeiten nirgendwo mehr in den verkaufsstatistiken gepunktet weshalb sie die preise straffer kalkulieren und dank weniger features auch mal ab und zu ne einstellige prozentzahl mehr fps-leistung bieten werden sie für die hobby-analysten der ganzen pc-magazine noch viel interessanter.

dieser ganze untergang des morgenlandes der immer herzitiert wird, wenn jemand mal nicht etwas total vorhersehbares unternimmt... ich find titan ein drolliges produkt. damit legt man die messlatte in sachen lautstärke überhaupt nochmal ein ganzes stück niedriger, boost2.0 ist ne nette sache die ich gern mal ausprobieren würde und vor allem liegt die messlatte für die absolute leistung der nächsten generation wieder ein stück höher. :)

V2.0
2013-02-28, 07:14:11
Da Titan nur kaum schneller als 7970GE ist, sind beide High-End. Die AMD ist nur bezahlbar.

Sunrise
2013-02-28, 07:49:53
Im Prinzip wird NV erstmal das verkaufen wollen, was produziert worden ist und versuchen, den "Titan-Effekt" im Supercomputing-Bereich auf den Desktop zu übertragen. Es wird eben durch alle Märkte gezogen, wo es nur geht.

Jene Käufer, die bestimmte - Tesla und Quadro relevante - Features nicht benötigen, bekommen somit schonmal nur noch Titan "light". Als Spieler ist man dann ganz am Ende der, der mit den Supercomputing-Eigenschaften der GPU überhaupt _nichts_ anfangen kann. Wir bezahlen aber trotzdem diesen "Halo-Effekt" mit.

Durch den Supercomputing-/HPC-Bereich ist Titan ist in dieser Hinsicht natürlich auch ein Experiment. Zukünftig wird es für NV wohl deutlich mehr Sinn ergeben, eine High-End GPU nicht um den Desktop rumzubauen, sondern eher dort, wo extrem hohe Margen abfallen und man kann den Desktop ohne jedes Zusatzrisiko nebenher mitbedienen.

Wenn AMD ein Produkt für 400-500 EUR absetzen kann, wo die GPU im Bereich 280mm² bis etwa 420mm² groß ist, dann kann NV ein Produkt absetzen, wenn es sich noch deutlich darüber bewegt und bis an die Grenzen der aktuell möglichen Fertigung geht. NV geht hier beträchtliche Risiken ein, je komplexer das Teil wird und möchte sich das auch vergolden lassen. Das kann man als Spieler nicht nachvollziehen, muss es daher auch nicht gutheißen, die Relation Preis/Leistung ist bei so einem Produkt im Desktop auch nichtmehr gegeben. Das entscheidet aber der Markt und Interesse ist (leider) immer da.

Diese Strategie wird aber erst möglich gemacht, indem AMD es seit R600 strikt vermeidet, hier bis an die Grenzen zu gehen. Und für diesen Markt hat NV aktuell die 680. Hier und darunter wird das Geld verdient und auch hier hat NV mit Sicherheit extrem gute Margen, die 680 müsste der Margen-Hit schlechthin sein. Die GPU ist winzig im Vergleich zu dem, was es auf die Straße bringt.

Am realistischsten erscheint mir, dass NV Titan nun erstmal solange oben stehen lassen wird, wie es möglich ist. Und zwar bis man eine GPU hat, die min. Titan-Leistung auch zwischen 280mm² und 420mm² erreicht. Und danach kommt eben wieder das "richtige" High-End.

Ich sehe das also eher so, dass "richtiges" High-End in Zukunft eher teurer wird. Und High-End wird mit Sicherheit auch nicht verschwinden. Es stellt absolut kein Risiko da, wenn man schon gewillt ist, für den Supercomputing-/HPC-Bereich eine GPU um 500mm² oder sogar darüber aufzulegen, und diese dann auch im Desktop-Markt verkauft. Auch AMD wird eine im Desktop-Markt Titan-ebenbürtige GPU sicher nicht verschenken wollen.

Ailuros
2013-02-28, 09:44:02
liebe freizeit-psychotanten:
der beschriebene effekt wird vollkommen kanibalisiert von den kindern die automatisch high-end kaufen wollen und diesmal zum ersten mal sich bewusst werden mussten, dass sie auf wesentlich dickere hose machen, als ihr portemonai hergibt. statt sich dann ne 680 anzugucken greift man frei nach "was kostet die welt" zur größten radeon, die ja noch nichtmal ne dual-chip version darüberstehen hat. zudem hat amd seit ewigkeiten nirgendwo mehr in den verkaufsstatistiken gepunktet weshalb sie die preise straffer kalkulieren und dank weniger features auch mal ab und zu ne einstellige prozentzahl mehr fps-leistung bieten werden sie für die hobby-analysten der ganzen pc-magazine noch viel interessanter.

dieser ganze untergang des morgenlandes der immer herzitiert wird, wenn jemand mal nicht etwas total vorhersehbares unternimmt... ich find titan ein drolliges produkt. damit legt man die messlatte in sachen lautstärke überhaupt nochmal ein ganzes stück niedriger, boost2.0 ist ne nette sache die ich gern mal ausprobieren würde und vor allem liegt die messlatte für die absolute leistung der nächsten generation wieder ein stück höher. :)

Wenn ich wirklich Lust und Zeit haette Deine Posts als "Freizeit-Psychotante" zu analysieren, werden die Posts von Dir die kein Troll-versuch sind extrem selten sein.

Ailuros
2013-02-28, 09:52:42
Ich sehe das also eher so, dass "richtiges" High-End in Zukunft eher teurer wird. Und High-End wird mit Sicherheit auch nicht verschwinden. Es stellt absolut kein Risiko da, wenn man schon gewillt ist, für den Supercomputing-/HPC-Bereich eine GPU um 500mm² oder sogar darüber aufzulegen, und diese dann auch im Desktop-Markt verkauft. Auch AMD wird eine im Desktop-Markt Titan-ebenbürtige GPU sicher nicht verschenken wollen.

Die Frage ist wie lange NV noch auf der single high end chip Strategie noch beharren kann fuer die Zukunft nach 20nm z.B, da Prozesse zunehmend problematischer werden. Ob sie es jetzt in Zukunft via die stacking oder sonst irgend einer anderen mGPU Alternative loesen koennen ist nebenwichtig.

gnomi
2013-02-28, 10:22:48
Es könnte was dran sein, dass man wie in anderen Bereichen auch Voodoo betreibt um das was man verkaufen will sehr gut da stehen zu lassen.

Der Effekt ist der gleich wie bei Ausverkäufen ----jetzt 40 % reduziert---- die Reflektion des Preises bezieht sich dann nur noch auf das Gesparte und nicht auf das was man noch zahlen musste:biggrin:

Wenn man jetzt als Unwissender auf das Portfolio von Nvidia guckt ergibt sich z.B. für die GTX 680 und noch viel mehr für die GTX 670 ein geradezu traumhaftes Preis-Leistungsverhältnis. Schau mal nur runde 35% langsamer aber rund 50 % günstiger.

Wenn NVidia wirklich diese Strategie, was ich durchaus nachvollziehen kann fährt braucht es aber immer wieder diese Voodo und man muss es deutlich abgrenzen von der normalen Reihe, was sie alleine schon mit dem Namen getan haben.
Wenn man dies dann betrachtet, wird es zwar nicht besser in der Zukunft, aber es bleibt zumindest das Segment High End erhalten oder und das ist meine Befürchtung AMD springt auf den selben Zug auf und es gibt eben wie im Hifi bereich die Voodoo Klassen:biggrin: die über High End angesiedelt ist und wo der Preis einfach keine Rolle mehr spielt.

Ganz nach dem Zitat Rockefeller: Wenn Du fragen musst was kostet es hast Du nicht genug Geld :biggrin:

Es ist in meinen Augen aber eine logische Weiterentwicklung des Grafikkartenmarktes und die Zeit scheint reif zu sein für diesen Schritt da die Entwicklung eben langsamer von statten geht und die abgesetzten Einheiten sinken muss man dies durch eine "Längere Lebensdauer" und höhere Preise kompensieren.
Ich denke wenn der Titan 1 oder im besten Fall 1,5 Jahre High End bleibt haben die die ihn gekauft haben viel richtig gemacht denn in früheren Jahren hätte man im schlimmsten Fall den Refresh des Refreshs gekauft und dabei eben so viel Geld verbrannt nur eben nicht in einem Rutsch sondern in 3 Happen:freak:. Da der Materialeinsatz für den Hersteller deutlich geringer ist und die Kapazitäten der Fertiger auch nicht grenzenlos sind ist das der einzige Weg den die Hersteller mittelfristig Gewinn maximierend einschlagen müssen.
Langfristig braucht es da aber mehr da die Sprünge in der Leistungsfähigkeit immer kleiner werden und die optischen Mehrwerte der Spiele nicht mehr so ins Auge fallen wie noch in der letzten Dekade.

ym2c

Dem kann ich nur zustimmen.
Ich denke wir sehen zunehmend eine etwas langsamere Entwicklung, die sich etwas den CPU's annähert.
D.h. ein ausgebautes Prestigeobjekt um die 800-1000 Euro und insgesamt auch etwas teurere Premium Karten darunter.
Der Markt für Desktop PC GPU's ist ja auch quasi mittlerweile zunehmend was für Enthusiasten.
Insofern nur logisch, dass auch die Preise steigen.

Sunrise
2013-02-28, 12:00:55
Die Frage ist wie lange NV noch auf der single high end chip Strategie noch beharren kann fuer die Zukunft nach 20nm z.B, da Prozesse zunehmend problematischer werden. Ob sie es jetzt in Zukunft via die stacking oder sonst irgend einer anderen mGPU Alternative loesen koennen ist nebenwichtig.
Das wird wohl solange weitergehen, wie es wirtschaftlich noch sinnvoll ist und z.B. TSMC entsprechende Prozess-Varianten anbietet, die auch für GPUs angepasst sind. Es wird natürlich immer schwieriger (daher ja auch die Vermutung, dass High-End eher teurer, denn billiger wird, wobei 1000 EUR IMHO schon extrem sind, irgendwann ab 1500 EUR macht jeder Desktop-Enthusiast dicht), aber bei den Alternativen (Stacking, Interposer oder wie auch immer) sehe ich vorerst zuviele (z.b. thermische) Probleme bei dieser Komplexität, da kommen wir dann immer wieder zu sGPU zurück. Und mGPU als Zwischenlösung ist doch ganz nett, man sieht ja, dass auch das gekauft wird.

Matrix316
2013-02-28, 12:05:32
Also mir ist es Wurst ob ein Chip der "Große" oder ein "abgespeckter" ist - wenn der Speed stimmt.

Als die GTX680 rauskam, war sie die schnellste Single Karte. Und die 7970 GHz Edition eh nur eine übertaktete 7970. Da müsste man eigentlich auch eine übertaktete GTX680 zum Vergleich nehmen.

Wenn ich mir aber heute eine schnelle Karte kaufen wöllte, würde ich wahrscheinlich die 7970 GHz Edition nehmen. Vor einem Jahr war die GTX680 halt noch meistens schneller - und auch leiser. Noch so ein Aspekt den viele bei AMD vergessen.

Der Titan ist halt jetzt der neue High End. Vom Preis her hat man es schon übertrieben, aber mal sehen, wenn AMD einen neuen 8000er Chip bringt, dürfte auch der Titan wackeln.

Und was ist überhaupt ein High End Chip? Was heißt Vollausbau? Was heißt Abgespeckt? Was bedeutet es schon, dass eine GTX580 ein High End Chip war, aber eine "abgespeckte" GTX 680 trotzdem schneller ist? Eine 8800GT war auch nur ein abgespeckter G80, aber trotzdem schneller als eine 7900GTX oder X1950XTX.

Godmode
2013-02-28, 12:23:47
Wenn man nach Ailuros (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9664746&postcount=3879) geht, sind die GK110 auf "Titan" nur aufgewärmte Reste aus alter Produktion. Spricht nix dagegen, dass nVidia das auch in Zukunft so macht. Reste für 1000€/Stück verkaufen ist sicher besser als wegschmeißen. :D

Man hätte einen GK110 auch ganz anders gestalten können und alles rausnehmen können, was man für Super Computing nicht braucht. (Rasterizer, TMUs, Tesselator, ...)

Warum gibt es diese Reste, warum werden sie nicht als Tesla, um den dreifachen Preis verkauft? IMO ist die GTX Titan ein Testballon, um auszuloten, wie viel die Kunden bereit sind auszugeben.

Also mir ist es Wurst ob ein Chip der "Große" oder ein "abgespeckter" ist - wenn der Speed stimmt.


Verglichen mit einer 580 war sich halt nicht um viel schneller. Die Titan ist jetzt auch nicht viel schneller als ne 680. Mich stört es, dass die alten sehr berechenbaren Gefüge, momentan total über den Haufen geworfen werden.

y33H@
2013-02-28, 12:30:28
Und was ist überhaupt ein High End Chip? Was heißt Vollausbau? Was heißt Abgespeckt? Was bedeutet es schon, dass eine GTX580 ein High End Chip war, aber eine "abgespeckte" GTX 680 trotzdem schneller ist? Eine 8800GT war auch nur ein abgespeckter G80, aber trotzdem schneller als eine 7900GTX oder X1950XTX.Der schnellste (und idR auch größte) Chip der jeweiligen Generation ist High-End, alles andere nicht.

V2.0
2013-02-28, 12:32:55
Gehört Titan noch zu gleichen Generation wie die GTX680 oder die 7970 oder nicht? Die Frage ist, wenn man den Zeitpunkt des Markteintritts berücksichtigt gar nicht so klar zu beantworten.

G3cko
2013-02-28, 12:34:14
Als die GTX680 rauskam, war sie die schnellste Single Karte. Und die 7970 GHz Edition eh nur eine übertaktete 7970. Da müsste man eigentlich auch eine übertaktete GTX680 zum Vergleich nehmen.

Wenn ich mir aber heute eine schnelle Karte kaufen wöllte, würde ich wahrscheinlich die 7970 GHz Edition nehmen. Vor einem Jahr war die GTX680 halt noch meistens schneller - und auch leiser. Noch so ein Aspekt den viele bei AMD vergessen.

High-End ist ein Mix aus allem. Die Architekturen sind nun ähnlicher den je. Allein vom Datenblatt und dem Fakt das die 1D-Architektur bei AMD noch taufrisch ist sollte einem klar machen, dass das Potenzial noch lange nicht so ausgereizt war und ist, wie bei der GTX680.

Wer sich da von "Wir haben den Chip effizient geschrumpft" blenden lässt hat es auch nicht anders verdient. Da auch die Konsolen nun sehr PC-ähnlich sind wird man klar versuchen Extraeffekte durch Directcompute für den PC zu realisieren. Da profitieren ganz besonders die High-End-Karten.

Titan ist natürlich hier einsame Spitze, aber ohne Dx11.1 wird er sich noch beweisen müssen. ;)

Matrix316
2013-02-28, 12:36:00
Der schnellste (und idR auch größte) Chip der jeweiligen Generation ist High-End, alles andere nicht.

... den es auch zu kaufen geben muss. ;) Als die GTX680 rauskam, gabs noch keinen Titan, oder?

N0Thing
2013-02-28, 12:37:15
Gehört Titan noch zu gleichen Generation wie die GTX680 oder die 7970 oder nicht? Die Frage ist, wenn man den Zeitpunkt des Markteintritts berücksichtigt gar nicht so klar zu beantworten.

Nur weil Nvidia den Release des GK110 für den Desktop-Markt so weit nach hinten verschoben hat, rutscht Titan ja nicht einfach eine Stufe weiter. AMDs 8000er OEMs sind ja auch keine neue Generation, obwohl sie 2013 aufgelegt wurden. ;)

Godmode
2013-02-28, 12:41:58
Gehört Titan noch zu gleichen Generation wie die GTX680 oder die 7970 oder nicht? Die Frage ist, wenn man den Zeitpunkt des Markteintritts berücksichtigt gar nicht so klar zu beantworten.

Also für mich schon. Er bau auf der gleichen Architektur wie GK104 auf, nur mit ein paar Erweiterungen für Compute.

Sunrise
2013-02-28, 13:03:31
Verglichen mit einer 580 war sich halt nicht um viel schneller. Die Titan ist jetzt auch nicht viel schneller als ne 680. Mich stört es, dass die alten sehr berechenbaren Gefüge, momentan total über den Haufen geworfen werden.
Nunja, es stehen immernoch GF110 vs. GK110 und GF104 vs. GK114. Das was sich geändert hat, sind die Reihenfolge der Vorstellung, die Preise bei Einführung und eben bei GK110 der zusätzliche Aufwand hinsichtlich Supercomputing/HPC. Die Codenamen sagen ja relativ deutlich, was wohin gehört.

NV hat den Markt für die eigenen Produkte nach oben erweitert, dafür aber keine neue GPU im Lineup ergänzt.

Godmode
2013-02-28, 13:05:21
Nunja, es stehen immernoch GF110 vs. GK110 und GF104 vs. GK114.
Das was sich geändert hat, sind die Reihenfolge der Vorstellung, die Preise bei Einführung und eben bei GK110 der zusätzliche Aufwand hinsichtlich Supercomputing/HPC. NV hat den Markt nach oben erweitert, die Codenamen sagen relativ deutlich, was wohin gehört.

Das weiß ich ja, aber mich stört die neue Benennung und Bepreisung, vor allem die Bepreisung!

y33H@
2013-02-28, 13:11:37
Gehört Titan noch zu gleichen Generation wie die GTX680 oder die 7970 oder nicht? Die Frage ist, wenn man den Zeitpunkt des Markteintritts berücksichtigt gar nicht so klar zu beantworten.Titan (GK110) ist wie die GTX 680 (GK104) Titan, also war der GK104 nie High-End, die GTX 680 schon.

Als die GTX680 rauskam, gabs noch keinen Titan, oder?Siehe oben, GTX 680 war eine High-End-Karte, aber auf Basis eines Performance-Chips.

Sunrise
2013-02-28, 13:25:50
Das weiß ich ja, aber mich stört die neue Benennung und Bepreisung, vor allem die Bepreisung!
An der Bepreisung stört sich glaub ich jeder, ich kann mir kaum vorstellen, dass hier jemand in Jubelschreihe ausbricht, weil er runde 1000 EUR abdrücken muss um aktuell die schnellste single GPU zu kaufen.

Nur, wie hätten Sie die Geforce Titan denn anhand des "alten" Namensschemas nennen sollen, nachdem sie GK104 zum High-End Chip (Marketing) mit dem Verkaufsnamen "Geforce GTX 680" gemacht haben? Geforce GTX 690 war auch schon belegt. Eine 700er-Serie anhand des GK110 aufzubauen wäre zwar möglich gewesen, aber dann braucht man entweder teildeaktiverte Chips (ergibt keinen Sinn, da GK104 viel zu flächeneffizient und auch schnell ist) oder umgelabelte "alte" GK104er (ich nenne es mal "den AMD Weg").

Nur damit wir uns nicht missverstehen, deine Meinung teile ich zu 100%. Ich kann damit aber bessere leben, weil ich das Teil einfach aktuell nicht brauche. Wenn man natürlich 3 690er hatte, dann will man da was schnelleres und selbst mit Geld kommst du da aktuell nicht sehr viel weiter.

Godmode
2013-02-28, 15:09:15
An der Bepreisung stört sich glaub ich jeder, ich kann mir kaum vorstellen, dass hier jemand in Jubelschreihe ausbricht, weil er runde 1000 EUR abdrücken muss um aktuell die schnellste single GPU zu kaufen.

Nur, wie hätten Sie die Geforce Titan denn anhand des "alten" Namensschemas nennen sollen, nachdem sie GK104 zum High-End Chip (Marketing) mit dem Verkaufsnamen "Geforce GTX 680" gemacht haben? Geforce GTX 690 war auch schon belegt. Eine 700er-Serie anhand des GK110 aufzubauen wäre zwar möglich gewesen, aber dann braucht man entweder teildeaktiverte Chips (ergibt keinen Sinn, da GK104 viel zu flächeneffizient und auch schnell ist) oder umgelabelte "alte" GK104er (ich nenne es mal "den AMD Weg").

Nur damit wir uns nicht missverstehen, deine Meinung teile ich zu 100%. Ich kann damit aber bessere leben, weil ich das Teil einfach aktuell nicht brauche. Wenn man natürlich 3 690er hatte, dann will man da was schnelleres und selbst mit Geld kommst du da aktuell nicht sehr viel weiter.

Die hätten einfach die 680 660 nennen sollen und für 350 in den Markt werfen sollen. Ich bin mir ziemlich sicher, das sie viel mehr verkauft hätten als mit den 500 als Startpreis. Und insgesamt auch mehr Umsatz gemacht hätten.

Matrix316
2013-02-28, 16:38:56
GTX 685 wäre noch frei gewesen und von der Performance stimmt es ja auch.

Allerdings habe ich mir mal überlegt, wenn ich eine zweite GTX 680 dazukaufen möchte, müsste ich mind. mal ca. 430 für die Karte und dann bestimmt auch ein stärkeres Netzteil für 100 Euro dazukaufen, was auf ca. 530 Euro hinauslaufen würde. Wenn ich dazu das Geld rechne, was ich für meine jetzige GTX 680 noch kriegen würde, könnte ich mir auch gleich eine GTX690 oder Titan kaufen. ;)

Ich finde übrigens die GTX 690 genauso überteuert wie die Titan.

Ob dieser die letzte High End Karte sein wird, glaube ich auch nicht. Bislang ging es noch immer schneller höher und kleiner was Chips betrifft. Wenn man zwei Titans in einen Die bzw. Kern zusammenpackt und intern beide auf den gleichen Speicherzugreifen und man ein Pseudo SLI damit macht, hätte man auch einen neuen High End Chip. Bei Intel und AMD waren die ersten "Dual Cores" und "Quadcores" auch zwei bzw. vier einzelchips in einem Gehäuse...

G3cko
2013-02-28, 16:47:13
Die hätten einfach die 680 660 nennen sollen und für 350 in den Markt werfen sollen. Ich bin mir ziemlich sicher, das sie viel mehr verkauft hätten als mit den 500 als Startpreis. Und insgesamt auch mehr Umsatz gemacht hätten.

Ne ih glaube Nvidia lacht sich ins Fäustchen. Alle kaufen doch eine GTX670 weil die noch halbtwegs bezahlbar ist. Und trotzdem kostet die 300€. Bei AMD werden wohl viel weniger soviel Geld auf den Tisch legen. Weiß doch jeder das das Topmodel unvernünftig ist. Das es bei Nvidia zur Zeit die gesamte Produktpalette ist das blendet man doch bei Preisen vom Titan und von der GTX680 gekonnt aus. "Guckt mal fast GTX680 Leistung" Schnäppchen!

Marketing mal wieder 1A mit 3 Sternchen. :freak:

PHuV
2013-02-28, 17:06:48
Ich vermute mal eher einen Testlauf von Nvidia, ob sich die GPUs auch überteuert an den Mann bringen lassen.

Ailuros
2013-02-28, 17:54:02
Das wird wohl solange weitergehen, wie es wirtschaftlich noch sinnvoll ist und z.B. TSMC entsprechende Prozess-Varianten anbietet, die auch für GPUs angepasst sind. Es wird natürlich immer schwieriger (daher ja auch die Vermutung, dass High-End eher teurer, denn billiger wird, wobei 1000 EUR IMHO schon extrem sind, irgendwann ab 1500 EUR macht jeder Desktop-Enthusiast dicht), aber bei den Alternativen (Stacking, Interposer oder wie auch immer) sehe ich vorerst zuviele (z.b. thermische) Probleme bei dieser Komplexität, da kommen wir dann immer wieder zu sGPU zurück. Und mGPU als Zwischenlösung ist doch ganz nett, man sieht ja, dass auch das gekauft wird.

Wie gut skalieren mGPUs bei professionellen Applikationen genau? Wenn man dass hier durchliest klingt es nicht immer berrauschend: http://www.nvidia.com/docs/IO/122874/K20-and-K20X-application-performance-technical-brief.pdf

Wenn sie die mGPU von der hw Seite anpacken wuerden und Leistung wuerde fast linear skalieren, waere es swohl fuer professionelle Anwendungen und auch mainstream gaming eine Eulogie und koennte ihnen langfristig vielleicht sogar den single monster die ersetzen.

Match-Maker
2013-02-28, 17:55:45
Ich vermute mal eher einen Testlauf von Nvidia, ob sich die GPUs auch überteuert an den Mann bringen lassen.
Ja, das glaube ich auch. Und so wie es aussieht scheint es zu klappen, denn wie man sieht, gibt es trotzdem Leute, die sich die aktuelle (und wahre!) High-End-GPU (GK110) zu einem Preis kaufen, für den man vor zwei Jahren zwei High-End-GPUs (GF110) bekommen hätte.

Botcruscher
2013-02-28, 18:42:41
Der Markt lässt es halt zu. NV wird weiterhin große Chips für den Profimarkt basteln. Kohle fällt da genug ab. Für den Privatkunden wird der Preis dann je nach Wettbewerb angepasst.

Skysnake
2013-02-28, 18:44:38
Wie gut skalieren mGPUs bei professionellen Applikationen genau? Wenn man dass hier durchliest klingt es nicht immer berrauschend: http://www.nvidia.com/docs/IO/122874/K20-and-K20X-application-performance-technical-brief.pdf

Wenn sie die mGPU von der hw Seite anpacken wuerden und Leistung wuerde fast linear skalieren, waere es swohl fuer professionelle Anwendungen und auch mainstream gaming eine Eulogie und koennte ihnen langfristig vielleicht sogar den single monster die ersetzen.
Jetzt aber bitte nicht Multi-GPU innerhalb eines Rechners mit Clusterlösungen durcheinanderwerfen... Da bekomme ich Augenkrebs von :freak:

Ailuros, Clusterlösungen/Skalierung haben GANZ eigene Probleme. Vor allem beim Interconnect. Das sind wirklich komplett unterschiedliche Paar Schuhe.

Gunslinger
2013-02-28, 20:05:08
Ja, das glaube ich auch. Und so wie es aussieht scheint es zu klappen, denn wie man sieht, gibt es trotzdem Leute, die sich die aktuelle (und wahre!) High-End-GPU (GK110) zu einem Preis kaufen, für den man vor zwei Jahren zwei High-End-GPUs (GF110) bekommen hätte.

Mag sein, dass einige bereit sind solche Preise zu bezahlen. Trotzdem sind das für Nvidia irrelevante Stückzahlen. Ich sehe es eher als Prestige-/Marketingaktion unter Verwendung von ohnehin vorhandener Technologie bei Nvidia.

TheRaven666
2013-02-28, 20:30:52
Titan (GK110) ist wie die GTX 680 (GK104) Titan, also war der GK104 nie High-End, die GTX 680 schon.

Siehe oben, GTX 680 war eine High-End-Karte, aber auf Basis eines Performance-Chips.

Jo, red dir das nur schön weiter ein. Wenns glücklich macht....

Genau so ist es. Es wird immer Werbung geben.

Zweck der Titan ist es nicht sich gut zu verkaufen, sondern die gesamte Serie zu pushen. Von daher ist sie nicht überteuert.

Sie ist definitiv überteuert. Der Zweck heiligt die Mittel leider immernoch nicht. Der ROI ist grausam.

Allein der agressive Aufwasch in Richtung "3-Way SLI" riecht gewaltig nach großartigem "attention whoring" a lá "Hey guck mal, was machen denn die da drüben?" Dazu noch das "TITAN"-Namenschema ohne jegliche Nummer: nVidia präsentiert ihre Intension auf dem Silbertablet, das Produkt läuft außerhalb jeder Serie in das in allen Belangen.

Titan ist nicht auf 10.000 Stück limitiert. Das wurde von Nvidia längst offiziell dementiert.

Natürlich hat man das dementiert - ist also doch noch jemandem aufgefallen das man seinen PR-Stunt selbst als solchen enttarnt hat. Klarer Fall von "Ups! Entschuldigung, da hat jemand den falschen Zettel vorgelesen, tut uns leid." Das solche Nebelkerzen scheinbar auch nur geringfügigen Effekt erzielen macht mir langsam ernsthaft Sorgen im Bezug auf die geschäftliche Mündigkeit einiger Mitmenschen.

Ich vermute mal eher einen Testlauf von Nvidia, ob sich die GPUs auch überteuert an den Mann bringen lassen.

Sehe ich auch so. Daher auch die niedrigen Stückzahlen, welche nVidia selbst versehentlich (s.o.) geleaked hat um sie dann ratz fatz zu dementieren. Bei Titan handelt es sich mit großer Wahrscheinlichkeit um Restverwertung im Premiumsegment der Endanwender. Gleichzeitig ist es eine wunderbare Marktstudie - wenn die Leute schon glauben die GTX 680 ist nur ein Performance-Chip und sie geben schon die High-End Wahnsinnspreise dafür aus, wie weit gehen sie denn dann noch mit? Win/win für nVidia: Reste verwerten und daraus sogar noch maximale Marge pressen.

Der Erfolg gibt ihnen sogar recht. Man braucht sich doch nur mal angucken wie man sich in den Foren das Maul über die Titan zerrissen hat. nVidia musste nicht mal einen Finger krumm machen um die Leute davon zu überzeugen das ihr Single-GPU-Flagschiff GTX 680 nur ein "Platzhalter" und "Performanceklasse"-Produkt ist. Auf den Schmarrn sind die Leute von ganz allein gekommen. Das Lamm hat seinen Schlächter zu lieben gelernt.

Ne ih glaube Nvidia lacht sich ins Fäustchen. Alle kaufen doch eine GTX670 weil die noch halbtwegs bezahlbar ist. Und trotzdem kostet die 300€. Bei AMD werden wohl viel weniger soviel Geld auf den Tisch legen. Weiß doch jeder das das Topmodel unvernünftig ist. Das es bei Nvidia zur Zeit die gesamte Produktpalette ist das blendet man doch bei Preisen vom Titan und von der GTX680 gekonnt aus. "Guckt mal fast GTX680 Leistung" Schnäppchen!

Marketing mal wieder 1A mit 3 Sternchen. :freak:

Wenigstens einer der es geblickt hat und es auch noch formulieren kann. Great post! Ich habe es in einem anderen Thread kürzlich schon erwähnt, dass die Produktpalette von nVidia insgesamt unbefriedigend ist im Vergleich zur Konkurrenz. Titan lenkt von diesem Umstand in nicht geringem Maße ab und suggeriert einen "vernünftigen Kauf" bei den nVidia Karten in der preislich bezahlbareren Region.

Tomahawk
2013-02-28, 20:57:29
welche nVidia selbst geleaked hat um sie dann ratz fatz zu dementieren
Deine Quelle für die Behauptung ist welche nochmal?

TheRaven666
2013-02-28, 20:57:54
Deine Quelle für die Behauptung ist welche nochmal?

Common sense.

Lies' dir den Block darüber nochmal durch, dann dämmerts vielleicht.

// EDIT:

Ich habe das Wort "versehentlich" noch hinzugefügt. Zwar immernoch pure Spekulation, aber nach dem Brainfart mit den Holzschrauben weiß Gott nicht weit hergeholt. Von daher ist mir ein Quellennachweis schnurz piepe.

Tomahawk
2013-03-01, 18:55:04
Common sense.

Lies' dir den Block darüber nochmal durch, dann dämmerts vielleicht.
Also: Quelle= Deine Fantasie. Alles klar.

TheRaven666
2013-03-01, 22:08:43
Also: Quelle= Deine Fantasie. Alles klar.

Genau, alles klar. Mit einer Nebelkerze auf das unwichtigste Detail des Posts vom Rest abgelenkt? Rösler, much?

Neurosphere
2013-03-01, 23:45:23
Jo, red dir das nur schön weiter ein. Wenns glücklich macht....


Ist ne Tatsache, das hat nichts mit einreden zu tun.

r-or
2013-03-02, 15:21:25
es gab doch mal dieses Sheet von NV mit Waferpreisen von TSMC, das besagte, dass TSMC pro 28nm-Wafer das doppelte nimmt verglichen mit einem 40nm-Wafer.

Also: Erwartung von Kunde: Titan vs. 580
100% mehr Leistung
gleicher Preis (?)

um die Performance zu erreichen, 2-fache Menge an Transistoren (da Taktrate ähnlich bleiben muss)-> identische Chipfläche -> doppelte Kosten pro Chip für NV.

Dass Abnehmerpreis natürlich nicht gleichzusetzen ist mit Endabnehmerpreis, ist klar. NV will ja auch Gewinn machen. Ist aber immerhin ein Erklärungsansatz, warum die Kosten explodieren werden.

Folge: entweder immer mehr zahlen, oder immer weniger Leistungssprünge in Kauf nehmen. Siehe Intel.


Edit: ich schreibe das nur, damit man evl. sieht, dass es Gründe geben kann, weshalb NV und davor auch AMD versuchen wollen/wollten, höhere Preise zu etablieren. Nicht (nur), weil sie den Hals nicht vollkriegen können. Um in Zukunft eine Marktchance zu haben.

Ein Teufelskreis. Neue Technologien kosten Milliarden, und das bei einem schrumpfenden Markt. Hm.

CyRuS
2013-03-02, 15:27:48
Kommt eingentlich noch eine GTX 780? Wenn ja, wird die Performance zwischen GTX 680 und TITAN liegen?

Rente
2013-03-02, 15:35:35
Kommt eingentlich noch eine GTX 780? Wenn ja, wird die Performance zwischen GTX 680 und TITAN liegen?
Ich glaube nicht, dass wir etwas derartiges noch dieses Jahr zu Gesicht bekommen bzw. es gibt eigentlich für nVidia keinen Grund dazu, AMD tut ja auch nichts...

Knuddelbearli
2013-03-02, 16:27:01
es gab doch mal dieses Sheet von NV mit Waferpreisen von TSMC, das besagte, dass TSMC pro 28nm-Wafer das doppelte nimmt verglichen mit einem 40nm-Wafer.

Also: Erwartung von Kunde: Titan vs. 580
100% mehr Leistung
gleicher Preis (?)

um die Performance zu erreichen, 2-fache Menge an Transistoren (da Taktrate ähnlich bleiben muss)-> identische Chipfläche -> doppelte Kosten pro Chip für NV.

Dass Abnehmerpreis natürlich nicht gleichzusetzen ist mit Endabnehmerpreis, ist klar. NV will ja auch Gewinn machen. Ist aber immerhin ein Erklärungsansatz, warum die Kosten explodieren werden.

Folge: entweder immer mehr zahlen, oder immer weniger Leistungssprünge in Kauf nehmen. Siehe Intel.


Edit: ich schreibe das nur, damit man evl. sieht, dass es Gründe geben kann, weshalb NV und davor auch AMD versuchen wollen/wollten, höhere Preise zu etablieren. Nicht (nur), weil sie den Hals nicht vollkriegen können. Um in Zukunft eine Marktchance zu haben.

Ein Teufelskreis. Neue Technologien kosten Milliarden, und das bei einem schrumpfenden Markt. Hm.


ein Vollaktivierter GF110 hat ca 200$ für den Grafikkartenhersteller gekostet, damit bezahlt NV aber bereits die Entwicklung, die teil deaktivierten ( Titan ist ja teil deaktiviert ) usw.

Doppelter Preis wäre also maximal 300$ also + 100$ dazu eventuell nochmal 50$ für den Speicher ( ist zwar 4 mal soviel aber GDDR5 soll was man so hört inzwischen ja gutes Stück günstiger sein AMD hat sofern ich nichts übersehe ja standardmäßig keine einzige Grafikkarte mehr mit DDR3 unter 28nm) und dann was abziehen da er ja teil deaktiviert ist

GF110 kostete vor zwei Jahren als die Fertigung gleich alt ist wie jetzt 28nm ca 400€

schreiber
2013-03-02, 18:12:25
Ich glaub auch, dass Titan die letzte große GPU ist. nvidia hat uns schon an 500 € für 300mm²-Chips gewöhnt und das ist sicher kein Zufall.

Man stelle sich vor, nvidia kommt bei 20nm mit dem alten Preisgefüge wieder daher. Da kommen sich doch sämtliche Titan-Käufer verarscht vor, wenn ihre GPU innerhalb 1,5 Jahre(denke, Ende 2014 können wir mit High End 20nm rechnen) nur noch ein Drittel seines Wertes hat.

Ich warte jedenfalls weiterhin, bis es was vernünftiges für 200 € gibt. Und der Sprung von einer GTX 460 auf diese Preiskategorie ist derzeit einfach ein schlechter Witz, wenn man bedenkt, dass da 3 Jahre ins Land gegangen sind.

Cubitus
2013-03-02, 18:16:13
Ich glaub auch, dass Titan die letzte große GPU ist. nvidia hat uns schon an 500 € für 300mm²-Chips gewöhnt und das ist sicher kein Zufall.

Man stelle sich vor, nvidia kommt bei 20nm mit dem alten Preisgefüge wieder daher. Da kommen sich doch sämtliche Titan-Käufer verarscht vor, wenn ihre GPU innerhalb 1,5 Jahre(denke, Ende 2014 können wir mit High End 20nm rechnen) nur noch ein Drittel seines Wertes hat.

Ich warte jedenfalls weiterhin, bis es was vernünftiges für 200 € gibt. Und der Sprung von einer GTX 460 auf diese Preiskategorie ist derzeit einfach ein schlechter Witz, wenn man bedenkt, dass da 3 Jahre ins Land gegangen sind.

Von einer 460er auf eine 670er würde sich aber durchaus lohnen ;)

Duplex
2013-03-02, 18:21:46
Ich glaub auch, dass Titan die letzte große GPU ist. nvidia hat uns schon an 500 € für 300mm²-Chips gewöhnt und das ist sicher kein Zufall.
So ein schwachsinn, die großen Chips (+500mm²) sind Primär für den Profi Markt bestimmt, mit den kleinen Chips kannste dort nichts anfangen und selbst in 20nm gibt es weiterhin größere GPUs (14 Milliarden Transistoren), Nvidia hat im Profi Markt keine Konkurrenz, solche Chips sind in diesem Bereich Standard.

Skysnake
2013-03-02, 20:02:47
Keine Konkurrenz? ;D

Der wart gut :biggrin:

Schaffe89
2013-03-02, 21:17:35
Ich habe es in einem anderen Thread kürzlich schon erwähnt, dass die Produktpalette von nVidia insgesamt unbefriedigend ist im Vergleich zur Konkurrenz.

DAs sehe ich im Fall der GTX 670/GTX 660TI und GTX 660 total anders.
Wie kommts?

DAs P/L der Nvidiakarten ist kaum schlechter, man hat aktuell keine Single GPU µruckler und die Karten haben ein gutes Performance/Watt Verhältnis, tendenziell n Ticken besser als bei AMD.

Tomahawk
2013-03-02, 21:17:50
@skysnake
richtig, NVIDIA hat mit quadro und Tesla rund 80% Marktanteil. Im Consumer-Markt sind es hingegen nur 67%.

Max944
2013-03-03, 01:07:06
Ich teile die Bedenken den Threaderstellers. Wenn TSMC es nicht schafft einen 7,1 Mrd. 28nm Chip in ausreichender Menge fehlerfrei herzustellen wird es in 22nm und darunter nicht besser.

Es könnte sogar soweit kommen das Nvidia ab Maxwell von vornherein keine großen 550mm² GPU's mehr in Auftrag gibt weil GPU's mit 9 Mrd. Transistoren einfach zu viele Fehler hätten (ettliche Cluser deaktiviert).

Das Gefüge rutscht natürlich nach unten durch und die Performance GPU's würden auch etwas kleiner, oder die Performance Reihe wird direkt als High-End verkauft (so wie bereits bei der GTX 680).

Bye Bye 550mm² :(

Coda
2013-03-03, 01:23:08
Ich kann mir nicht vorstellen, dass NVIDIA aufhören wird solche Chips zu bauen. Dafür sind vermutliche die Supercomputer-Deals zu lukrativ.

Da wird sich eher das jetzige Modell durchsetzen, dass man die großen Chips nur noch mit Verspätung und für enormen Aufpreis als Halo-Produkte auf den Markt bringt.

Knuddelbearli
2013-03-03, 01:36:19
wie bereits vorher gesagt selbst doppelter preis rechtfertigt nicht annähernd den jetzigen Titanpreis

580 war schnell bei 400€ Kosten und bei TSMC dürften die Kosten dabei nichtmal 100€ betragen
dazu ist der ja sogar teil deaktiviert

Coda
2013-03-03, 02:23:58
28nm Preis/mm² ist nicht gleich 45nm Preis/mm².

Das wird mit 20nm auch noch einmal schlimmer werden. Der einzige Weg das wieder zu drücken werden 450mm Wafer sein.

Hübie
2013-03-03, 02:27:42
Es muss ja nicht ein die sein sondern zwei auf einem package. So wie bei den alten Core 2 Quad-Prozessoren. Interconnect, Synchronizer und genug RAM/IMC. Fertig. Als ATi noch ATi war nannte ein Ingeneur das mal eine Option in der Zukunft. Das ist nun aber schon locker 5-6 Jahre her (da wollte AMD auch mit Physik-Engine punkten).

Coda
2013-03-03, 03:16:05
Silicon Interposer hat noch nicht einmal Intel auf dem Markt und normale Packages sind dafür nicht geeignet.

Vielleicht mit 20nm wenn TSMC es dann auch wirklich herstellen kann.

mugger
2013-03-03, 04:13:58
HighEnd ist überbewertet.

Skysnake
2013-03-03, 09:44:01
Ich teile die Bedenken den Threaderstellers. Wenn TSMC es nicht schafft einen 7,1 Mrd. 28nm Chip in ausreichender Menge fehlerfrei herzustellen wird es in 22nm und darunter nicht besser.

Es könnte sogar soweit kommen das Nvidia ab Maxwell von vornherein keine großen 550mm² GPU's mehr in Auftrag gibt weil GPU's mit 9 Mrd. Transistoren einfach zu viele Fehler hätten (ettliche Cluser deaktiviert).

Das Gefüge rutscht natürlich nach unten durch und die Performance GPU's würden auch etwas kleiner, oder die Performance Reihe wird direkt als High-End verkauft (so wie bereits bei der GTX 680).

Bye Bye 550mm² :(
Dann muss nVidia halt andere Designs abliefern. Es ist ja nicht so, das man die Yealds durchs Design nicht beeinflussen könnte. Darf man halt nicht alles so mit heiser Nadel stricken.

Ich kann mir nicht vorstellen, dass NVIDIA aufhören wird solche Chips zu bauen. Dafür sind vermutliche die Supercomputer-Deals zu lukrativ.

Da wird sich eher das jetzige Modell durchsetzen, dass man die großen Chips nur noch mit Verspätung und für enormen Aufpreis als Halo-Produkte auf den Markt bringt.
Das wird dann aber irgendwann auch zum Problem. Die Deals müssen ja auch beliefert werden, und zwar zeitnah.

Vor allem sind Sie nicht mehr die Einzigen in der Marktlücke im HPC. Intel und AMD spielen da auch mit, und wenn die durch ne kleinere Fertigung und nem mittelgroßen Chip schneller sind, dann interessiert das niemanden, ob 1 Jahr später dann das Monster von nVidia kommt. Dann wird halt zu dem Zeitpunkt gekauft, wenn man es braucht.

Silicon Interposer hat noch nicht einmal Intel auf dem Markt und normale Packages sind dafür nicht geeignet.

Vielleicht mit 20nm wenn TSMC es dann auch wirklich herstellen kann.
Hm... Naja, ich weiß nicht, ob man MultiModulPackages kategorisch ausschließen sollte/kann. Klar, bei ner GPU müssen GANZ andere Bandbreiten zwischen den Modulen wohl zur Verfügung stehen als bei CPUs, aber ich würde nicht mal meine Hand für ins Feuer legen. Man spart sich halt die Kommunikation zwischen den Cores/CUs. Auch muss man die Sachen nicht so Latenzoptimiert betreiben, sondern kann praktishc voll auf Bandbreite gehen.

Kurz um, ich stell es mir schwierig vor, aber generell unmöglich würde ich es jetzt nicht nennen.

Bevor man nen zweiten GPU-DIE bringt, könnte man auch einfach eDRAM dazu packen, das würde auch schon sehr viel helfen. Zumindest im GPGPU-Bereich.

Interposer ist dann natürlich die optimale Lösung, weil man da dann abartige Bandbreiten realisiert bekommt, und praktisch keine Einschränkungen mehr hat zu einem monolitischen großen DIE.

Es muss halt nur mal einer die Eier in der Hose haben und anfangen... :(

Ailuros
2013-03-03, 10:06:13
28nm Preis/mm² ist nicht gleich 45nm Preis/mm².

Das wird mit 20nm auch noch einmal schlimmer werden. Der einzige Weg das wieder zu drücken werden 450mm Wafer sein.

28HP Herstellung kostet heute nicht mehr als 40G ein paar Quartale nach seinem Kickstart. In Q3 12' verkaufte GF114/40G chips zwischen $35 und 50 ($50 fuer 560Ti). Nimm mal den Gewinn davon weg und rechne etwas Aufpreis fuer 28HP heute drauf und die Preise sind auch nicht mehr soooo brutal hoch wie sich jeder vorstellen koennte. Ein 28HP wafer kostet heute nicht mehr als $6k im Durchschnitt. Die groben Unterschiede erscheinen am Anfang der Herstellung der Prozesse und ja es wird tatsaechlich schlimmer werden aber es reguliert sich dann schon mit der Zeit.

Wenn es wirklich so waere dass nach einem Jahr von 28nm Produktion die Preise immer noch so verrueckt hoch waeren, muesste Qualcomm einen Riesen-verlust machen trotz 28LP mit ihren SoCs.

Spasstiger
2013-03-03, 10:16:39
Silicon Interposer hat noch nicht einmal Intel auf dem Markt und normale Packages sind dafür nicht geeignet.
Also ich kenne da ein ganz konkretes Produkt am Markt mit mehreren Dies aus der 28-nm-Fertigung von TSMC und über 10.000 Interconnects auf einem Si-Interposer: http://www.xilinx.com/products/silicon-devices/fpga/virtex-7/index.htm.
Das Paper, was den Aufbau des Package beschreibt: http://www.xilinx.com/support/documentation/white_papers/wp380_Stacked_Silicon_Interconnect_Technology.pdf.
Xilinx hat so auch über 7 Mrd. Transistoren auf einem "Device" untergebracht, ohne jedoch einen überteurten Monster-Die fertigen zu müssen.

Skysnake
2013-03-03, 10:54:23
Dann versuch mal das Ding zu kaufen...

Knuddelbearli
2013-03-03, 11:21:31
28nm Preis/mm² ist nicht gleich 45nm Preis/mm².

Das wird mit 20nm auch noch einmal schlimmer werden. Der einzige Weg das wieder zu drücken werden 450mm Wafer sein.


sag ja doppelten preis pro mm²

aber das wirkt sich eben nicht annährend so stark auf die Karte aus da reine Chipkosten zwar der größte Einzelteil der kosten sind aber trotzdem unter 20% beträgt

Grestorn
2013-03-03, 11:46:10
Ja, die Karte ist teuer.
Nein, niemand wird gezwungen, sie zu kaufen.

Preispolitik ist eine schwierige Sache. Zu teuer ist nicht gut, aus offensichtlichen Gründen. Zu billig kann schlecht sein, Image ist alles.

Bestimmte Produkte sind verglichen mit ihrem Herstellungspreis hoffnungslos überteuert. Aber die Kunden bezahlen auch ein Image und ein "Gefühl".

Warum kosten z.B. Brillengestelle zwischen 20€ und mehreren 1000€? Die meisten tragbaren Gestelle kosten deutlich mehr als €100. Keiner kann mir erzählen, dass diese Dinger Herstellungskosten haben, die auch nur in der Nähe dieser Beträge liegen, inkl. aller Steuern und Händlermargen.

Jeder muss entscheiden, was er bereit ist für ein Produkt zu bezahlen. Wenn jemand die schnellste Single-GPU haben möchte, und bereit ist, dafür €1000 auf den Tisch zu legen, dann ist das genauso ok, wie wenn jemand ein Brillengestell für €1000 kauft oder eine Uhr für €5000.

Herstellungskosten sind nur ein Aspekt, aber nicht der entscheidende. Deswegen nervt mich das Gerede auch bei Apple Geräten so - zumal hier die Kosten für die Entwicklung des iOS und den Betrieb der Infrastruktur einfach mal großzügig unter den Tisch fallen gelassen wird.

Jeder hat das Recht sein Produkt so zu bepreisen wie er es für richtig hält. Und über die Bilanz kriegt er die Quittung - so oder so. Absolut kein Grund, sich in der einen oder anderen Richtung darüber aufzuregen.

Spasstiger
2013-03-03, 13:20:23
Dann versuch mal das Ding zu kaufen...
Ich gehe davon aus, dass schon einige Entwickler mit dem Virtex-7 arbeiten, immerhin werden die Dinger schon seit Ende 2011 seitens Xilinx ausgeliefert.
Ich arbeite selber seit ein paar Monaten mit einem 7-Series-Device von Xilinx und sehe anhand der Software-Releasenotes und anhand vom Q&A-Bereich auf der Xilinx-Seite, dass mit den Virtex-7 fleißig gewerkelt wird.

Imo sind Multi-Die-Packages mit Si-Interposer durchaus ein gangbarer Weg für Nvidia. Xilinx hat gezeigt, dass es mit aktueller Technologie möglich ist.

hq-hq
2013-03-03, 13:56:23
Ich glaube nicht, dass wir etwas derartiges noch dieses Jahr zu Gesicht bekommen bzw. es gibt eigentlich für nVidia keinen Grund dazu, AMD tut ja auch nichts...

genau das glaub ich auch, gtx 680 bleibt stehen bis auch AMD kommt, vielleicht vor Weihnachten
die 7970 ist so günstig im vergleich zur gtx 680 das ich es garnicht ganz glauben kann, und mit titan bleiben die preise auch so stehen.
das geht bestimmt noch bis zum jahresende so weiter glaub ich.

titan ist der hit und anscheinend ist auch der preis fast egal... das war bestimmt nicht der letzte high end chip nur die preise ändern sich...

Coda
2013-03-03, 14:28:59
Dann muss nVidia halt andere Designs abliefern. Es ist ja nicht so, das man die Yealds durchs Design nicht beeinflussen könnte. Darf man halt nicht alles so mit heiser Nadel stricken.
Genau, daran wird's liegen.

Hübie
2013-03-03, 14:41:33
Ja, die Karte ist teuer.
Nein, niemand wird gezwungen, sie zu kaufen.

Preispolitik ist eine schwierige Sache. Zu teuer ist nicht gut, aus offensichtlichen Gründen. Zu billig kann schlecht sein, Image ist alles.

Bestimmte Produkte sind verglichen mit ihrem Herstellungspreis hoffnungslos überteuert. Aber die Kunden bezahlen auch ein Image und ein "Gefühl".

Warum kosten z.B. Brillengestelle zwischen 20€ und mehreren 1000€? Die meisten tragbaren Gestelle kosten deutlich mehr als €100. Keiner kann mir erzählen, dass diese Dinger Herstellungskosten haben, die auch nur in der Nähe dieser Beträge liegen, inkl. aller Steuern und Händlermargen.

Jeder muss entscheiden, was er bereit ist für ein Produkt zu bezahlen. Wenn jemand die schnellste Single-GPU haben möchte, und bereit ist, dafür €1000 auf den Tisch zu legen, dann ist das genauso ok, wie wenn jemand ein Brillengestell für €1000 kauft oder eine Uhr für €5000.

Herstellungskosten sind nur ein Aspekt, aber nicht der entscheidende. Deswegen nervt mich das Gerede auch bei Apple Geräten so - zumal hier die Kosten für die Entwicklung des iOS und den Betrieb der Infrastruktur einfach mal großzügig unter den Tisch fallen gelassen wird.

Jeder hat das Recht sein Produkt so zu bepreisen wie er es für richtig hält. Und über die Bilanz kriegt er die Quittung - so oder so. Absolut kein Grund, sich in der einen oder anderen Richtung darüber aufzuregen.

Doch. Denn weder Einkommen noch Ausgaben für Energie, Sprit etc. kann man sich aussuchen. Also darf man sich berechtigt über Wucher aufregen. Allerdings bin ich eher der Typ der so etwas dann einfach ignoriert.
Als ich die Preise vom neuen 08-15 Passat erfuhr ist der einfach wie ein zu kleines Sandkorn durch mein Sieb gefallen. Genau wie Titan & Co.

@Coda: Ist Intel neuerdings das Maß? AMD und andere hatten sicher schon Interposer. Zumindest im Simulator. Wenn nicht sogar schon im Prototypen-Stadium. Ob es sich rentiert ist dann halt die Frage.

Max944
2013-03-03, 14:59:16
Dann muss nVidia halt andere Designs abliefern. Es ist ja nicht so, das man die Yields durchs Design nicht beeinflussen könnte.

Das klingt so als wäre Nvidia bei der Entwicklung des GK110 geistig umnachtet gewesen und mit einem simplen Klaps auf den Hinterkopf lösen sich plötzlich alle Probleme in Luft auf (das ist wohl kaum der Fall).

Bei 7.100.000.000 Transistoren ist die Chance größer einen 6er im Lotto zu gewinnen als alle Transistoren heil durchzubringen. Da kann Nvidia ihre Hausaufgaben mit Sternchen abliefern, das hilft bei solch hohen Zahlen nichts mehr.

Die (traditionelle) Fertigung ist so langsam am Ende.

Spasstiger
2013-03-03, 15:46:03
Was Nvidia und allen anderen Prozessorherstellern wiederum entgegenkommt ist der Trend zur Parallelisierung. Bei 64 Cores (in NV-Sprech aktuell z.B. die SMX-Blöcke) kann man auch 2-3 Cores abschalten, ohne dass es die Performance sonderlich juckt. Die Yields dagegen steigen ordentlich an, wenn man am Limit operiert.
Vielleicht redet man in Zukunft auch gar nicht mehr davon, wieviele Einheiten deaktiviert sind, sondern wieviele Einheiten redundant verbaut sind. Einfach weil es nicht mehr möglich ist, solche großen Chips fehlerfrei herzustellen.

Thunder99
2013-03-03, 16:55:00
Macht AMD das nicht schon immer so?

=Floi=
2013-03-03, 17:14:11
ihr redet es schlechter wie es ist.

es kommt auch noch dazu, dass der chip schon ne weile produziert wird. es ist auch nur A1! (muss schon sehr problematisch gewesen sein, wenn man mit A1 fertigt :rolleyes: ) Man könnte auch locker eine "570er" bringen. Bei den tesla gibt es auch nur zwei modelle, also wird die yield-rate ganz gut sein. ( http://de.wikipedia.org/wiki/Nvidia_Tesla#Modelldaten ) Der preis von 950€ ist auch mit einem teureren chip nicht gerechtfertigt. man hätte auch eine "ultra" für 600€ über der normalen titan bringen können. man könnte auch öffentlich die problematik der teureren chips an den kunde bringen und somit die höheren preise rechfertigen. imho wird aber alles viel heißer geredet als es wirklich ist.


ich hoffe bei maxwell renkt sich wieder alles ein und nv fällt mit ihren teuren titan auf die schnauze.
mir kann noch immer keiner erzählen, dass GF100/GF110 nicht richtig geld verdient hat.

wahrscheinlich hat nv keine chips, weil sie alle chips für tesla supercomputer brauchen. ;)

Iruwen
2013-03-03, 21:17:51
Nvidia hat im Profi Markt keine Konkurrenz

Damit sich auf einem hohen Marktanteil auszuruhen haben sich schon ganz andere Firmen auf die Schnauze gelegt, Nokia z.B.
Im nicht ganz unwichtigen HPC Markt gibt es mindestens einen extrem kapitalstarken Konkurrenten der Nvidia vermutlich Kopfschmerzen bereitet.

dildo4u
2013-03-20, 15:25:03
Möglicher Titan Ultra?Voller Chip als Cosumer Karte aber vermutlich weiter mit 6GB.

We also learned that Kepler architecture is not over with the new and products, with one potential product being a Tesla "K30", a GK110 based chip with 4 Gbit chips, enabling a total capacity of 12GB GDDR5. This news is certainly welcomed by the scientists around the world, which cannot wait for Maxwell and Volta.

http://www.brightsideofnews.com/news/2013/3/19/nvidia-future-gpu-roadmap-revealed-maxwell2c-volta-innovations-shown.aspx