PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing (Pascal-Erbe) Q3/18, 12 nm, GDDR6


Seiten : 1 2 3 4 [5] 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48

pixeljetstream
2018-05-23, 21:54:02
@AffenJack. Die Entwicklung ist wie du schreibst sehr unterschiedlich je nach Hersteller. In einem sind sich aber alle gleich. Man kann nur N Arbeit in der Zeit schaffen. Zu große Umbauten in einer Generation sind hohes Risiko.

Nicht alles passiert also weil es so gewollt ist. Sondern weil es so geplant ist. Sehr oft weiß man wie es besser geht aber die Zeit fehlt. Also muss man etwas basteln was eher inkrementell ist, sich über Generationen hinzieht. Manchmal muss man also nicht im "jetzt" den größeren Sinn suchen, sondern eher auf die Richtung von mehreren Generationen schauen.

StefanV
2018-05-23, 22:08:28
Bei dir auf der Konsole ist natürlich max. Auslastung das wichtigste. Aber wenn Perf/W der Maßstab ist, dann kann es vielleicht sinnvoll sein, die Auslastung nicht zu übertreiben.
Hä?!
Warum das denn?!
Verstehe ich nicht, was du sagen willst.

Zumal, wenn die Einheiten besser ausgelastet sind, man einfach 'nen paar weglassen könnte oder eben mehr Performance raus holt. So gesehen macht die Behauptung, dass bessere Auslastung schlechter wäre oder einen Grund hätte, einfach keinen Sinn.

gravitationsfeld
2018-05-23, 22:35:26
@AffenJack. Die Entwicklung ist wie du schreibst sehr unterschiedlich je nach Hersteller. In einem sind sich aber alle gleich. Man kann nur N Arbeit in der Zeit schaffen. Zu große Umbauten in einer Generation sind hohes Risiko.

Nicht alles passiert also weil es so gewollt ist. Sondern weil es so geplant ist. Sehr oft weiß man wie es besser geht aber die Zeit fehlt. Also muss man etwas basteln was eher inkrementell ist, sich über Generationen hinzieht. Manchmal muss man also nicht im "jetzt" den größeren Sinn suchen, sondern eher auf die Richtung von mehreren Generationen schauen. Die Ursünden liegen meist lange zurück ;)
Es gibt ja auch bei fast allen Chips wo alte und neue Schaltungen eingebaut sind um nicht das Risiko eingehen zu muessen das am Ende gar nichts funktioniert.

So wie ich das gehoert habe gibt's bei fast jedem Chip komplett deaktivierte Teile.

AffenJack
2018-05-23, 22:39:01
die frage ist wie sich das ganze auf die chipgröße auswirkt. fast der gesamte chip ist entweder ALUs oder infrastruktur um ALUs beschäftigt zu halten, die fläche ist das was man bezahlt und auslastung dementsprechend verdammt viel wert. ein chip der bei gleicher fläche z.B. 20% mehr durchsatz erreicht oder bei gleichem durchsatz demenstprechend kleiner hat einen signifikanten vorteil, egal ob man diesen vorteil nun in performance/watt (über takt und spannung) oder performance/€ überträgt.

wie gesagt: die frage ist ob die neu investierten transistoren den höheren auslastungsrad rechtfertigen und meiner einschätzung sollte das definitiv der fall sein.

Gut möglich, ich hab da zu wenig Ahnung von.

@AffenJack. Die Entwicklung ist wie du schreibst sehr unterschiedlich je nach Hersteller. In einem sind sich aber alle gleich. Man kann nur N Arbeit in der Zeit schaffen. Zu große Umbauten in einer Generation sind hohes Risiko.

Nicht alles passiert also weil es so gewollt ist. Sondern weil es so geplant ist. Sehr oft weiß man wie es besser geht aber die Zeit fehlt. Also muss man etwas basteln was eher inkrementell ist, sich über Generationen hinzieht. Manchmal muss man also nicht im "jetzt" den größeren Sinn suchen, sondern eher auf die Richtung von mehreren Generationen schauen. Die Ursünden liegen meist lange zurück ;)

Das ist natürlich ne einfachere Erklärung. Pascals Architektur dürfte ja größtenteils auch eher von ~2014 stammen und danach ist keine Zeit mehr für größere Änderungen.

Hä?!
Warum das denn?!
Verstehe ich nicht, was du sagen willst.

Zumal, wenn die Einheiten besser ausgelastet sind, man einfach 'nen paar weglassen könnte oder eben mehr Performance raus holt. So gesehen macht die Behauptung, dass bessere Auslastung schlechter wäre oder einen Grund hätte, einfach keinen Sinn.

So in der Art, wie bei CPUs. Die IPC ist da auch ein Design Target. Du könntest einen Kern deutlich breiter bauen und die IPC erhöhen, aber das breitere Kerndesign kann auch mehr Energieeffizienz kosten, als dass es IPC bringt.

StefanV
2018-05-23, 23:01:29
So in der Art, wie bei CPUs. Die IPC ist da auch ein Design Target. Du könntest einen Kern deutlich breiter bauen und die IPC erhöhen, aber das breitere Kerndesign kann auch mehr Energieeffizienz kosten, als dass es IPC bringt.
...womit wir beim Thema Front End und instruction set limitiert wären...

Und genau deswegen verbaut man SMT, um die Einheiten besser auslasten zu können.
Und hier sind wir dann wieder beim Gesetz des abnehmenden Grenzertrages...

Du WILLST die Ausführungseinheiten so gut wie möglich auslasten, das kannst du aber in der Praxis nicht, weil andere Faktoren das ganze limitieren. Speicherzugriffe, Cache und andere Dinge...
Wir leben halt nicht in einer perfekten Welt...

Hübie
2018-05-24, 00:18:13
Ich verfolge das Thema async compute mal aus laienhafter Sicht:
Durch die Verwendung von compute kernel verkürzt man die Laufzeit auf dem Chip (Latenz), weil sowas wie Texturfilterung ausgesetzt wird - verkürztes staging. Bei workloads die das also brauch sinnvoll: Check.
Nun ist es, wie Tesseract schon eingangs der Diskussion erläuterte, äußerst selten der Fall, dass workloads ao homogen sind um maximale Leistung zu erhalten. Überlappungen beider workloads sinnvoll: Check.
Beide großen x86 Konsolen für highend Grafik nutzen GCN. Der Absatz beider inklusive PS4, PS4P, XBONE und XOX liegt (ich sag einfach mal ne Zahl) bei 25 Mio für die Basis, 7 Mio für die highend Derivate. Plus GCN Chips am PC komme ich auf eine signifikante Anzahl, potenzieller Perfomance-Gewinn-Chips. AC zu implementieren ist ratsam/sinnvoll: Check.

Warum genau soll NV das nicht auch sinnvoll implementieren, wenn es doch auch hier etwas bringen würde. Mit preemption hat man einen Lösungsansatz präsentiert, der in diese Richtung hielt, aber eher indirekt (leider gibt es ja keine offiziellen Details). NV wird das sicher weiterverfolgen: Check.

Ich habe fertig. :D

Digidi
2018-05-24, 01:42:40
Mehr. Ist wirklich absurd, wenn man sich die PC-Zahlen anschaut, aber wenn man die Stellschrauben im Scheduling handoptimiert, dann ist GCN ueberlegen. Das macht halt nicht jeder. Und es hat auch nicht jeder den Anspruch, wirklich das letzte raus zu holen. Sieht man ja daran, dass die meisten Titel gerade mal so mit 30 FPS laufen. DICE ist da wahrscheinlich aehnlich gut darin.

Der AMD-Rasterizer hat halt auch wirklich seine Zicken. Es ist im Prinzip ein Unding, dass man da selber CS-Culling laufen lassen muss um es zu beheben.

.

Tja da muss man Mal einigen Softwareschmieden eins auf die Finger hauen. Danke das du bestätigst was ich lange sage das die Software einen riesen Anteil an der misere von AMD hat.

Mit dem Culling soll sich ja was getan haben mit dsbr. Gibt es da Mal einen Polygonen Test um das zu testen?

AMD wollte ja bei Culling noch weiter gehen mit der Next Generation Geometry Pipline und genau der Umstand fuchst mich ganz gemein. Was ist da nur schief gelaufen?

Hübie
2018-05-24, 07:22:05
Das kannst du gerne in den entsprechenden Threads noch weiter diskutieren. Dass dich das wurmt ist ja nicht nur mir aufgefallen. :D

Gipsel
2018-05-24, 08:06:04
Ich verfolge das Thema async compute mal aus laienhafter Sicht:
Durch die Verwendung von compute kernel verkürzt man die Laufzeit auf dem Chip (Latenz), weil sowas wie Texturfilterung ausgesetzt wird - verkürztes staging.Nee, das ist nicht so ganz eine passende Analogie (auch Computeshader können übrigens die TMUs nutzen) bzw. Terminologie ("verkürztes Staging").
Was mir da so spontan als krude Analogie (zum SMT bei CPUs) einfällt, wäre z.B. AC als eine bessere Form des Multithreadings (was alle GPUs sowieso exzessiv machen) bzw. dessen Scheduling zu sehen. Statt auf einem Kern (CU/SM) nur die Threads eines Prozesses (bzw. einer bestimmten Gruppe an Prozessen) ausführen zu können (wie nV momentan), kann man mit AC (wie GCN das kann) die Threads aller Prozesse auf eine Einheit schmeißen, die können im Prinzip beliebig gemischt werden. Damit entfernt man eine Beschränkung (vor Allem wenn man mal zu einem Prozeß wechselt, der nicht in der gerade "erlaubten" Gruppe enthalten ist) und reduziert die Zeiten, in denen eine Einheit leer steht bzw. wenig zu tun hat.

Mangel76
2018-05-24, 09:40:21
Warum genau soll NV das nicht auch sinnvoll implementieren, wenn es doch auch hier etwas bringen würde. Mit preemption hat man einen Lösungsansatz präsentiert, der in diese Richtung hielt, aber eher indirekt (leider gibt es ja keine offiziellen Details). NV wird das sicher weiterverfolgen: Check.

Ich habe fertig. :D

Leistungstechnisch hast du da sicher Recht, wettbewerbsökonomisch wäre es aber eventuell kontraproduktiv. Sollte AMD mit seiner flexibleren Architektur mehr von AC profitieren, könnte es für NVIDIA tatsächlich vorteilhaft sein, AC nicht so zu implementieren.

Preemption verhindert wohl nur, dass Pascal mit AC langsamer wird als ohne, wie es teilweise bei Maxwell noch der Fall war. Wenn also ein Spiel es tatsächlich nutzt, schadet es zumindest nicht mehr. Bisher gibt es aber kaum solche Spiele, was nicht zuletzt eben daran liegen dürfte, dass NVIDIAs GPUs eben nicht davon profitieren. Aus Sicht der Spieleprogrammierer macht der Aufwand für AC-Implementation am PC kaum Sinn, da nur ein relativ kleiner Teil der Zielgruppe wirklich davon profitiert. Sollte nun NVIDIA auch von AC profitieren, würden deutlich mehr Spiele es auch einsetzen. Wenn man jetzt wieder zur Ausgangsannahme, dass AMD mehr davon profitiert als NVIDIA, zurückkehrt, wird klar, dass eine leistungssteigernde Unterstützung von AC durch NVIDIA zu einer Verringerung des Vorsprungs von NVIDIA führen könnte.

Ich könnte mir ebenfalls vorstellen, dass für die Implementierung in der sehr schlanken Architektur von NVIDIA größere Umbaumaßnahmen notwendig werden, die ebenfalls Performance (pro Watt oder Fläche) kosten würden.

Alles Vermutungen, aber durchaus im Bereich des Möglichen. Da wäre ich in den Strategiegesprächen gerne mal Mäuschen :D

Reaping_Ant
2018-05-24, 10:50:02
Alles Vermutungen, aber durchaus im Bereich des Möglichen. Da wäre ich in den Strategiegesprächen gerne mal Mäuschen :D

Dass das Marketing bei NV ein bisschen (allerdings mit beachtlichem Erfolg) am Rad dreht, haben wir ja mittlerweile alle gelernt (GPP *hust*). Aber ich hoffe doch sehr, dass sich der Rueckfluss dieser Sperenzchen ins Engineering in Grenzen haelt.

Ich halte die zweite Erklaerung, die ja auch pixeljetstream oben schon mal gebracht hat, fuer wahrscheinlicher. Man hat halt nur endlich Ressourcen und Zeit und kann deshalb nicht alle potentiellen Verbesserungen auf einmal einbauen. Als Laie klingt AC fuer mich so sinnvoll, dass ich auch bei NV irgendwann mal vernuenftige Unterstuetzung dafuer erwarten wuerde. Was das Marketing bis dahin daraus macht, ist natuerlich wieder eine andere Frage...

Mangel76
2018-05-24, 11:54:36
Dass das Marketing bei NV ein bisschen (allerdings mit beachtlichem Erfolg) am Rad dreht, haben wir ja mittlerweile alle gelernt (GPP *hust*). Aber ich hoffe doch sehr, dass sich der Rueckfluss dieser Sperenzchen ins Engineering in Grenzen haelt.

Ich halte die zweite Erklaerung, die ja auch pixeljetstream oben schon mal gebracht hat, fuer wahrscheinlicher. Man hat halt nur endlich Ressourcen und Zeit und kann deshalb nicht alle potentiellen Verbesserungen auf einmal einbauen. Als Laie klingt AC fuer mich so sinnvoll, dass ich auch bei NV irgendwann mal vernuenftige Unterstuetzung dafuer erwarten wuerde. Was das Marketing bis dahin daraus macht, ist natuerlich wieder eine andere Frage...

Geschäftsstrategien sind aber etwas anderes als Marketing. Letzteres ist nur ein Mittel zur Umsetzung von Strategien. Bisher hat NVIDIA mit so ziemlich allen erlaubten und unerlaubten Mitteln versucht, seinen Marktanteil auszubauen. Dies kann sowohl über Marketing (Markenbildung, Kundentreue usw. ) passieren, als auch über das Produkt. Für die Kundenwahrnehmung ist es egal, warum man das schnellste Produkt hat. Eine Behinderung des Konkurrenten (siehe zum Beispiel horrende Tessalation in Gameworks, die zwar optisch kaum noch Vorteile bringt, aber die Konkurrenz eben stärker ausbremst als die eigenen Karten) ist da manchmal die günstigere Strategie als das Verbessern der eigenen Produkte.

TheAntitheist
2018-05-26, 16:26:31
Geschäftsstrategien sind aber etwas anderes als Marketing. Letzteres ist nur ein Mittel zur Umsetzung von Strategien. Bisher hat NVIDIA mit so ziemlich allen erlaubten und unerlaubten Mitteln versucht, seinen Marktanteil auszubauen. Dies kann sowohl über Marketing (Markenbildung, Kundentreue usw. ) passieren, als auch über das Produkt. Für die Kundenwahrnehmung ist es egal, warum man das schnellste Produkt hat. Eine Behinderung des Konkurrenten (siehe zum Beispiel horrende Tessalation in Gameworks, die zwar optisch kaum noch Vorteile bringt, aber die Konkurrenz eben stärker ausbremst als die eigenen Karten) ist da manchmal die günstigere Strategie als das Verbessern der eigenen Produkte.
also was von deinen Beispielen jetzt unerlaubt war, versteh ich nicht. Hohe Tesselation ist doch auch einfach um zu zeigen, "hey seht her mit unserer Hardware gehts". Die Entwickler müssen es ja nicht so implementieren, also schon etwas merkwürdig deine Behauptungen. Dann zweifelt man deine restlichen Texte direkt komplett an.

Emil_i_Lönneberga
2018-05-26, 19:46:52
Explained by AMD:

https://www.youtube.com/watch?v=v3dUhep0rBs

TGKlaus
2018-05-27, 02:48:09
Die Entwickler müssen es ja nicht so implementieren, also schon etwas merkwürdig deine Behauptungen.

Oder man bezahlt die Entwickler dafür, beispielsweise im Rahmen von Programmen als "The Way It's Meant to be Played".

Dann ist gar nix mehr merkwürdig, sondern wir sind wieder in der Realität angekommen.

reaperrr
2018-05-27, 03:49:04
also was von deinen Beispielen jetzt unerlaubt war, versteh ich nicht. Hohe Tesselation ist doch auch einfach um zu zeigen, "hey seht her mit unserer Hardware gehts". Die Entwickler müssen es ja nicht so implementieren, also schon etwas merkwürdig deine Behauptungen. Dann zweifelt man deine restlichen Texte direkt komplett an.
Tun sie ja auch nicht, denn NV programmiert diese speziellen Effekte ja selbst, und die Spielefirmen sagen dann brav danke und kritteln nicht an den Details rum, weil sie dadurch Zeit und Geld sparen und NV ja eh Marktführer ist, mit denen will man es sich nicht verscherzen, die sollen denen ja bitte auch beim nächsten Spiel noch Arbeit abnehmen und Geld sparen.

Was Mangel76 meinte ist, dass Nvidia absichtlich Tesselation-Level gewählt hat, die so hoch waren, dass der optische Vorteil gegenüber einem optimal gewählten Level so ziemlich null war, aber sehr viel zusätzliche Leistung gekostet hat. Übrigens auch auf Nvidias eigenen Karten, aber halt noch deutlich mehr auf denen von AMD, die für den fürs menschliche Auge höchsten noch sinnvollen Level problemlos gepackt hätten.

Hier hat Nvidia also bewusst eine klar schlechtere Performance für ALLE Spieler - auch die mit NV-Karten - in Kauf genommen, nur um den prozentualen Performance-Vorteil gegenüber AMD-Karten künstlich zu erhöhen.
Natürlich ist das nicht verboten, aber verdammt hinterhältig und kundenfeindlich.

=Floi=
2018-05-27, 04:40:07
Oder man bezahlt die Entwickler dafür, beispielsweise im Rahmen von Programmen als "The Way It's Meant to be Played".

Dann ist gar nix mehr merkwürdig, sondern wir sind wieder in der Realität angekommen.

Du bist aber selbst wohl noch nicht dort angekommen. Es gab so viele spiele welche dann auf ati leicht besser liefen. Wohl auch, weil dort der amd treiber besser optimiert wurde.
Das programm war wirklich nicht negativ, weil auch ati besitzer etwas davon hatten.


Und wenn jetzt wieder einer mit der tesselation aus dem loch gekrochen kommt, sage ich es gibt bei amd einn schalter dafür und man begrenzt den faktor einfach.

reaperrr
2018-05-27, 05:36:25
Und wenn jetzt wieder einer mit der tesselation aus dem loch gekrochen kommt, sage ich es gibt bei amd einn schalter dafür und man begrenzt den faktor einfach.
Zum einen, der Schalter bei AMD bringt nur Leuten was, die auch wissen wo überhaupt das Problem liegt. Und das tun viele nicht.

Zum anderen geht es auch mehr darum, dass auf dem Weg Benchmarks auf eine Weise verfälscht wurden, die Einfluss auf die Kaufentscheidung haben kann.
Der Schalter bei AMD bringt nichts, wenn der Review-Leser nur die Balken sieht und sich daraufhin eine Geforce statt Radeon holt.

gravitationsfeld
2018-05-27, 06:54:55
Die Tesselation-Diskussion ist so langweilig. Benutzt doch eh fast keiner.

BoMbY
2018-05-27, 07:43:45
Was mir da so spontan als krude Analogie (zum SMT bei CPUs) einfällt, wäre z.B. AC als eine bessere Form des Multithreadings (was alle GPUs sowieso exzessiv machen) bzw. dessen Scheduling zu sehen. Statt auf einem Kern (CU/SM) nur die Threads eines Prozesses (bzw. einer bestimmten Gruppe an Prozessen) ausführen zu können (wie nV momentan), kann man mit AC (wie GCN das kann) die Threads aller Prozesse auf eine Einheit schmeißen, die können im Prinzip beliebig gemischt werden. Damit entfernt man eine Beschränkung (vor Allem wenn man mal zu einem Prozeß wechselt, der nicht in der gerade "erlaubten" Gruppe enthalten ist) und reduziert die Zeiten, in denen eine Einheit leer steht bzw. wenig zu tun hat.

Als Ergänzung:

Im Prinzip war es früher immer so:

https://i.imgur.com/34gPXnB.png

Man hat zwar viele Recheneinheiten die das parallel ausführen, aber alle Recheneinheiten haben immer an einer Aufgabe gearbeitet.

Mit Async Compute sieht es so aus:

https://i.imgur.com/Ietgbx0.png

Es werden halt verschiedene Aufgaben gleichzeitig ausgeführt, damit kann man die Hardware-Resourcen effizienter nutzen, man muss aber aufpassen was man wann parallel laufen lässt.

Aus dem Asynchronous Shaders White Paper von AMD (http://developer.amd.com/wordpress/media/2012/10/Asynchronous-Shaders-White-Paper-FINAL.pdf)

pixeljetstream
2018-05-27, 10:26:32
Das sind aber auch starke Marketing Aufhübschungen, Bomby. Gipsels Aussage ist imo treffender in diesem Kontext.

Die Bilder suggerieren dass gar nix parallel geht und alles eine Queue ist, hier werden imo zwei Themen vermischt.
Sie zeigen, dass die APIs (Vk und dx12) Queues nativ können und man so Abhängigkeiten etc. besser ausdrücken kann. Aber sowas wie Uploads/Downloads sind seit Ewigkeiten async auf der hw, das anders darzustellen ist halt Marketing ;)

nordic_pegasus
2018-05-27, 10:46:01
glaubt Ihr eigentlich, dass der Pascal-Nachfolger HDMI 2.1 unterstützen wird. Wenn mit den 2019er TV-Modellen der UHD@120Hz HypeTrain losfährt, wird Nvidia den hoffentlich nicht verpassen wollen. An VRR Unterstützung wage ich gar nicht zu denken.

scully1234
2018-05-27, 11:56:49
Wenn die 2019 120 Hz unterstützen bei den TVs, wird es auch die Karte können

TheAntitheist
2018-05-27, 17:04:42
Tun sie ja auch nicht, denn NV programmiert diese speziellen Effekte ja selbst, und die Spielefirmen sagen dann brav danke und kritteln nicht an den Details rum, weil sie dadurch Zeit und Geld sparen und NV ja eh Marktführer ist, mit denen will man es sich nicht verscherzen, die sollen denen ja bitte auch beim nächsten Spiel noch Arbeit abnehmen und Geld sparen.

Was Mangel76 meinte ist, dass Nvidia absichtlich Tesselation-Level gewählt hat, die so hoch waren, dass der optische Vorteil gegenüber einem optimal gewählten Level so ziemlich null war, aber sehr viel zusätzliche Leistung gekostet hat. Übrigens auch auf Nvidias eigenen Karten, aber halt noch deutlich mehr auf denen von AMD, die für den fürs menschliche Auge höchsten noch sinnvollen Level problemlos gepackt hätten.

Hier hat Nvidia also bewusst eine klar schlechtere Performance für ALLE Spieler - auch die mit NV-Karten - in Kauf genommen, nur um den prozentualen Performance-Vorteil gegenüber AMD-Karten künstlich zu erhöhen.
Natürlich ist das nicht verboten, aber verdammt hinterhältig und kundenfeindlich.seit wann müssen die Entwickler denn Gameworks implementieren? schon wieder Lügen...
es ging um Illegal, das ist einfach nur Muskeln spielen lassen.

Digidi
2018-05-27, 18:11:08
seit wann müssen die Entwickler denn Gameworks implementieren? schon wieder Lügen...
es ging um Illegal, das ist einfach nur Muskeln spielen lassen.


Wenn Nvidia das implementieren übernimmt wäre das noch schlimmer :facepalm:

Nein so was ist schon verdammt nah dran am Rande hin zur Illegalität. Es wird hier einfach die Markmacht ausgenutzt. Das ist einfach nur Endkunden schädigend.

aufkrawall
2018-05-27, 18:39:45
Das ganze Kartenhaus der Argumentation fällt damit zusammen, dass seit Jahren fast jedes GW-Feature optional ist.

JaniC
2018-05-27, 18:43:29
DigitalFoundry: Nvidia GeForce GTX 1180/2080 Specs/Performance - What Should We Expect?

xA-QTwt9YQA

Sorry, falls im Video nichts neues erwähnt wird, eure Grabenkämpfe hier im Thread lese ich schon lange nicht mehr mit. ;)

Adam D.
2018-05-27, 20:20:07
DigitalFoundry: Nvidia GeForce GTX 1180/2080 Specs/Performance - What Should We Expect?

http://youtu.be/xA-QTwt9YQA

Sorry, falls im Video nichts neues erwähnt wird, eure Grabenkämpfe hier im Thread lese ich schon lange nicht mehr mit. ;)
Nichts neues dabei, leider. Ich denk mir, dass Rich den ein oder anderen Kontakt hat, dass er überhaupt nichts hat spricht dafür, dass Nvidia echt alle Schotten dicht gemacht hat. Leider für uns ;( auf der anderen Seite erwartet ja keiner irgendwelche Überraschungen, Preis ist primär interessant.

Thunder99
2018-05-27, 20:36:23
Man erwartet das übliche und regt sich über die Preissteigerung auf ;) :freak:

Troyan
2018-05-27, 20:50:37
nVidia hat Press Briefings nächste Woche auf der Computex: https://www.computextaipei.com.tw/en_US/show/info.html?id=632F3C8C71C14468D0636733C6861689&sFuncID=632F3C8C71C14468D0636733C6861689

Vielleicht gibt es was.

RLZ
2018-05-27, 20:54:29
DigitalFoundry: Nvidia GeForce GTX 1180/2080 Specs/Performance - What Should We Expect?
Es erscheint mir sehr unwahrscheinlich, dass sie die Tensorcores komplett rauswerfen.

Troyan
2018-05-27, 20:55:06
Ist doch schon bestätigt, dass es TensorCores geben wird.

gravitationsfeld
2018-05-27, 20:58:26
Das sind aber auch starke Marketing Aufhübschungen, Bomby. Gipsels Aussage ist imo treffender in diesem Kontext.

Die Bilder suggerieren dass gar nix parallel geht und alles eine Queue ist, hier werden imo zwei Themen vermischt.
Sie zeigen, dass die APIs (Vk und dx12) Queues nativ können und man so Abhängigkeiten etc. besser ausdrücken kann. Aber sowas wie Uploads/Downloads sind seit Ewigkeiten async auf der hw, das anders darzustellen ist halt Marketing ;)
Es war aber manchmal ganz schoen schwierig den Treiber dazu zu ueberreden Uploads/Downloads wirklich asynchronous zu machen. Und selbst wenn, dann war die Synchronisierung unkontrollierbar.

seit wann müssen die Entwickler denn Gameworks implementieren? schon wieder Lügen...
es ging um Illegal, das ist einfach nur Muskeln spielen lassen.
Bei Marktdominanz koennten solche Machenschaften schon kartellrechtlich relevant werden. Ich glaube aber nicht, dass der Punkt erreicht ist.

Intel hat damals ja fuer aehnliches eine ziemlich hohe Summe an AMD zahlen muessen.

Troyan
2018-05-27, 21:04:36
Sind das die selben Machenschaften die Bethesda und AMD vereinbart haben, wo man keine PC-Techniken einbaut, weil diese auf Konsolen grottig laufen oder nicht zur Verfügung stehen und man keine Optimierungen für nVidia-Hardware machen werde, weil diese auf Konsolen nicht anwendbar seien?

Lmao. Troll bitte weniger.

Digidi
2018-05-27, 21:19:59
Sind das die selben Machenschaften die Bethesda und AMD vereinbart haben, wo man keine PC-Techniken einbaut, weil diese auf Konsolen grottig laufen oder nicht zur Verfügung stehen und man keine Optimierungen für nVidia-Hardware machen werde, weil diese auf Konsolen nicht anwendbar seien?

Lmao. Troll bitte weniger.

Du weist schon gegen wenn du da die Trollfahne erhebst :D

Fragman
2018-05-27, 21:24:01
Ist doch schon bestätigt, dass es TensorCores geben wird.

wenn die rt demos auf volta alle im "software" modus liefen, kann man doch davon ausgehen, das diese cores keinerlei beschleunigung gebracht haben.

deshalb tippe ich auf etwas neues (oder neueres).

Troyan
2018-05-27, 21:39:19
wenn die rt demos auf volta alle im "software" modus liefen, kann man doch davon ausgehen, das diese cores keinerlei beschleunigung gebracht haben.

deshalb tippe ich auf etwas neues (oder neueres).

Na, RT läuft auf Volta in "Hardware. Die TensorCores werden maximal für das AI-Denoising verwendet.

Affenjack hat hier oder im Volta-Thread die Folie von der GTC gepostet: "Next-Gen" bekommt wohl die selben 8-bit TensorCores wie Xavier. Ob das am Ende irgendwas für Spiele bringt, muss sich zeigen.

Tesseract
2018-05-27, 21:39:30
die tensorcores wird es in den consumerkarten wahrscheinlich genau so "geben" wie FP64: damit die software prinzipiell läuft zwar vorhanden, aber nicht viele weil das transistorbudget nicht mehr her gibt.

Fragman
2018-05-27, 21:48:07
In hardware laeuft das streng genommen schon. Aber es gibt halt keine speziellen einheiten in hardware fuer rt.
Man kann natuerlich die shaderanzahl anheben, kostet aber eben platz.
Spezielle hardware koennte effizienter sein. Und gerade im hinblick auf die neue optix strategie, koennte das sinn machen. Fuer gamer faellt dann halt das ganze als "guenstigversion" ab. Am ende ists aber vielleicht nur das, was tesseract schrieb.

gravitationsfeld
2018-05-27, 21:55:23
Du weist schon gegen wenn du da die Trollfahne erhebst :D
Das ist sein Punkt, er meint "Bethesda" wuerde NVIDIA benachteiligen - was nicht der Fall ist.

AffenJack
2018-05-28, 13:57:06
die tensorcores wird es in den consumerkarten wahrscheinlich genau so "geben" wie FP64: damit die software prinzipiell läuft zwar vorhanden, aber nicht viele weil das transistorbudget nicht mehr her gibt.

Es ist doch schon lange angekündigt, dass Nvidia dieses Jahr eine GPU mit vielen Tensor Cores in Pegasus verbaut. Da das Ding nicht auf der GTC angekündigt wurde, ist klar, dass es wohl ne Consumergpu ist und man nur die Infos noch nicht rausgeben wollte. Daher hat Turing bestimmt einen Haufen tensor Cores.

Ich bin gespannt, was wir auf der Computex sehen. Entweder da gibts Infos über GPUs oder zumindest hinter den Kulissen Gespräche oder Turing kommt eher Ende Q3.

Tesseract
2018-05-28, 17:34:17
ich sehe da keinen zusammenhang zum gaming-chip. natürlich wird der auto-SoC viele TC haben weil AI da ein hauptanwendungsfall ist. eine 1180 mit dem FP32/TC-verhältnis von volta würde bei der performance/euro in allen aktuellen spielen ohne TC-nutzung möglicherweise sogar unter der 1080Ti landen. ich würde eher so richtung ~112 TC tippen.

AffenJack
2018-05-28, 20:04:38
ich sehe da keinen zusammenhang zum gaming-chip. natürlich wird der auto-SoC viele TC haben weil AI da ein hauptanwendungsfall ist. eine 1180 mit dem FP32/TC-verhältnis von volta würde bei der performance/euro in allen aktuellen spielen ohne TC-nutzung möglicherweise sogar unter der 1080Ti landen. ich würde eher so richtung ~112 TC tippen.

Es geht nicht um den Autosoc. Es geht um die GPU, die auf Pegasus drauf ist. Das ist eine stinknormale GPU, war es schon in der letzten Gen und wäre es was anderes, dann hätte man es auf der GTC angekündigt. Die GPU bei Pegasus hat höchstwahrscheinlich das gleiche Verhältniss von TC zu Shader, wie Volta und deshalb bin ich mir ziemlich sicher, dass auch bei allen Turing zu sehen. Man braucht die TCs eh für das Raytracing Denoising.

N0rG
2018-05-28, 23:01:59
Das wären dann bei den angenommenen 3584 sp etwa 426,66 tensor cores. Mit 480 tc käme man auf glatte 4032 sp bei einem verhältnis von 1/8,4 wie bei volta.

Tesseract
2018-05-28, 23:19:15
Das ist eine stinknormale GPU, war es schon in der letzten Gen und wäre es was anderes

nur weil das verhältnis ein anderes ist ist es nicht keine GPU mehr. in der architektur werden TC wahrscheinlich genau so variabel sein wie es bisher FP64 oder cachegrößen auch waren und ich gehe davon aus, dass alle drei eher auf klassisches gaming gewichtet sein werden um den chip verhältnismäßig klein zu halten, sonst hätte man gleich einen kleineren volta rausbringen können.

Das wären dann bei den angenommenen 3584 sp etwa 426,66 tensor cores. Mit 480 tc käme man auf glatte 4032 sp bei einem verhältnis von 1/8,4 wie bei volta.

volta hat 8TC pro SM bei 80 aktiven SM (2 pro kleinstem block, ka ob die einen eigenen namen haben). 4 pro SM scheint architekturbedingt das minimum zu sein (mal abgesehen von garkeinen). turing wird wahrscheinlich wieder 128 FP32 statt 64 pro SM haben wie das bei GP100/GP102 auch der fall war. eine karte mit 3584 FP32 würde also 28SM haben was im vollausbau 224TC und in reduzierter ausführung 112 bedeutet.

kann natürlich auch ganz anders kommen aber sowas wäre irgendwie naheliegend.

Fragman
2018-05-29, 07:58:20
nur weil das verhältnis ein anderes ist ist es nicht keine GPU mehr. in der architektur werden TC wahrscheinlich genau so variabel sein wie es bisher FP64 oder cachegrößen auch waren und ich gehe davon aus, dass alle drei eher auf klassisches gaming gewichtet sein werden um den chip verhältnismäßig klein zu halten, sonst hätte man gleich einen kleineren volta rausbringen können.



volta hat 8TC pro SM bei 80 aktiven SM (2 pro kleinstem block, ka ob die einen eigenen namen haben). 4 pro SM scheint architekturbedingt das minimum zu sein (mal abgesehen von garkeinen). turing wird wahrscheinlich wieder 128 FP32 statt 64 pro SM haben wie das bei GP100/GP102 auch der fall war. eine karte mit 3584 FP32 würde also 28SM haben was im vollausbau 224TC und in reduzierter ausführung 112 bedeutet.

kann natürlich auch ganz anders kommen aber sowas wäre irgendwie naheliegend.

die performance fuer rt denoise wuerde doch dann nicht ausreichen?
in den tech demos von nv lief alles smooth, mit einer volta. wenn die jetzt massiv diese cores reduzieren, bleibt doch nichts mehr uebrig?
ausser das leistung bei volta brach lag waehrend die demos liefen.
ich kann mir nicht vorstellen das nv eine karte bringt, die bei rt leistungsmaessig unter volta liegt. sie werden hardware bringen wollen, die die gezeigten demos in games schafft, andernfalls werden diese rt effekte keinen interessieren. vor allem nicht in hinblick auf die neuen konsolen.

HOT
2018-05-29, 08:01:09
Vielleicht verbaut man ja gar keine Tensorcores sondern passt die SMs an, damit das Deniosing darüber funktioniert. Ich glaube nicht daran, dass man da zusätzliche Hardware verbaut. Man wird die SMs so anpassen, dass RT kein Problem darstellt. Man hat sich da jetzt soviel Zeit mit gelassen, das wird schon ne bessere Lösung sein als externe Tensorcores.

AffenJack
2018-05-29, 08:08:36
nur weil das verhältnis ein anderes ist ist es nicht keine GPU mehr. in der architektur werden TC wahrscheinlich genau so variabel sein wie es bisher FP64 oder cachegrößen auch waren und ich gehe davon aus, dass alle drei eher auf klassisches gaming gewichtet sein werden um den chip verhältnismäßig klein zu halten, sonst hätte man gleich einen kleineren volta rausbringen können.


Nochmal, Nvidia hat eine 130 TOPs GPU mit GDDR6 für Pegasus angekündigt, die zufällig auch in Q2 sampled. Es ist nun wirklich nicht schwer daraus zu schließen, dass das Turing ist und dieser wohl Tensor Cores hat. Daher GT102 -> 5376 SP, ich gehe auch von 128 SP per SM aus, 16 TC per SM -> 672 Tensor Cores
672 TCs x 128Flops x 1500mhz = 130TOPs.
GT104 dementsprechend bei 3584 SP 448 Tensorcores.

Es könnte nur sein, dass man in Software Limit für die Geforces einbaut, damit die Teslas benutzt werden. Kann mir da deshalb dann halbe Geschwindigkeit vorstellen.

Ailuros
2018-05-30, 11:22:25
Nochmal, Nvidia hat eine 130 TOPs GPU mit GDDR6 für Pegasus angekündigt, die zufällig auch in Q2 sampled. Es ist nun wirklich nicht schwer daraus zu schließen, dass das Turing ist und dieser wohl Tensor Cores hat. Daher GT102 -> 5376 SP, ich gehe auch von 128 SP per SM aus, 16 TC per SM -> 672 Tensor Cores
672 TCs x 128Flops x 1500mhz = 130TOPs.
GT104 dementsprechend bei 3584 SP 448 Tensorcores.

Es könnte nur sein, dass man in Software Limit für die Geforces einbaut, damit die Teslas benutzt werden. Kann mir da deshalb dann halbe Geschwindigkeit vorstellen.

Es wuerde mich verdammt ueberraschen wenn die Tensor cores (selbst bei hypopethischer <1000 Anzahl) so besonders viel die area einnehmen. Umsonst sicher nicht aber auf keinen Fall so viel wie dedizierte FP64 Einheiten.

Ich bezweifle auch ernsthaft dass NV das tensor Zeug umsonst in Gameworks integriert hat ;)

Vielleicht verbaut man ja gar keine Tensorcores sondern passt die SMs an, damit das Deniosing darüber funktioniert. Ich glaube nicht daran, dass man da zusätzliche Hardware verbaut. Man wird die SMs so anpassen, dass RT kein Problem darstellt. Man hat sich da jetzt soviel Zeit mit gelassen, das wird schon ne bessere Lösung sein als externe Tensorcores.

Unter der Logik haetten sie sich anders rum schon seit Generationen auch dedizierte FP64 SPs in ihren ALUs sparen koennen. Dedizierte SPs fuer spezifische precision kosten zwar mehr in hardware, sparen aber wiederrum Strom. Denn wenn Du eine ganz SM aktivierst fuer "tensorcore Aufgaben" wirst Du mir wohl NICHT erwarten dass die ganze SM weniger verbrauchen wird als N wenigere und brutal kleinere tensor SPs oder?

Timbaloo
2018-05-30, 11:44:42
Schön, dass du mal wieder hier was schreibst :)

HOT
2018-05-30, 12:59:27
[...]

Unter der Logik haetten sie sich anders rum schon seit Generationen auch dedizierte FP64 SPs in ihren ALUs sparen koennen. Dedizierte SPs fuer spezifische precision kosten zwar mehr in hardware, sparen aber wiederrum Strom. Denn wenn Du eine ganz SM aktivierst fuer "tensorcore Aufgaben" wirst Du mir wohl NICHT erwarten dass die ganze SM weniger verbrauchen wird als N wenigere und brutal kleinere tensor SPs oder?
Du brauchst ja keine generellen Tensor-Cores für RT. Du brauchst SMs, die auch RT können, das ist ein Unterschied. NV wird doch gar nicht wollen, dass die Consumer-GPUs dieses Alleinstellungsmerkmal in die Breite bringen. Die wollen nur, dass Turing auch RT berechnen kann. Also wird Turing entweder dedizierte RT-Einheiten pro SM bringen oder die SMs eben so verändern, dass sie sowohl Rendering/Compute als auch RT können.

Sunrise
2018-05-30, 16:14:21
NV will Abhängigkeiten schaffen, und da sind auch die Märkte Recht, die besonders hohe Verkaufszahlen haben.

HOT
2018-05-30, 17:31:58
Ja aber die wollen ganz sicher nicht ein Alleinstellungsmerkmal, dass Chips 3000€+ vorbehalten ist, bei billigen Consumerchips verramschen. Da sind noch größere Verkaufszahlen bei Ampere aber weit wichtiger. Es macht ja auch keiner DoublePrecision sinnvoll nutzbar in Consumerchips.

Thunder99
2018-05-30, 18:22:23
Sie werden wohl soviel verbauen dass es gerade so flüssig läuft. Für mehr gibt es dann den Big Chip.

Wenn die Industrie und damit meine ich auch der Spiele Sektor starkes Interesse zeigt wird es drin sein als extra Einheiten

Börk
2018-05-30, 20:03:38
Nochmal, Nvidia hat eine 130 TOPs GPU mit GDDR6 für Pegasus angekündigt, die zufällig auch in Q2 sampled. Es ist nun wirklich nicht schwer daraus zu schließen, dass das Turing ist und dieser wohl Tensor Cores hat. Daher GT102 -> 5376 SP, ich gehe auch von 128 SP per SM aus, 16 TC per SM -> 672 Tensor Cores
672 TCs x 128Flops x 1500mhz = 130TOPs.
GT104 dementsprechend bei 3584 SP 448 Tensorcores.

Es könnte nur sein, dass man in Software Limit für die Geforces einbaut, damit die Teslas benutzt werden. Kann mir da deshalb dann halbe Geschwindigkeit vorstellen.
Tensor Cores sind ca um Factor 3-4 schnneller bei denoising als standard Cuda Cores. Würde wenig Sinn die Tensor Cores zu opfern, zumal man damit potentiell auch andere Sachen machen kann (AI Importance Sampling etc.). Dazu ist der denoising Aufwand unabhängig von der Komplexität der Szene und nur abhängig von der Framerate. Man kann also recht einfach vorhersagen wieviele man braucht um z.B. 60fps @ 4k zu erreichen.

Tesseract
2018-05-30, 20:28:08
Also wird Turing entweder dedizierte RT-Einheiten pro SM bringen oder die SMs eben so verändern, dass sie sowohl Rendering/Compute als auch RT können.

garantiert nicht. TC wurden primär für AI-inference entwickelt. mit RT haben sie doch nur nach einem problem für die bereits vorhandene lösung TC gesucht damit die dinger im gaming-markt direkt einen nutzen haben.

|MatMan|
2018-05-30, 21:23:06
Wenn nVidia unbedingt will, könnten sie in den Gamingkarten die TC sicherlich explizit nur für Gameworks freischalten, aber im generellen CUDA nicht. Vielleicht sehen sie auch nicht die Notwendigkeit, weil die professionellen Anwender eh die BigChips kaufen. Auch ist es möglicherweise mehr wert, wenn ein breite Masse von Entwicklern mit den TC spielen kann. Vielleicht findet einer die nächste Killeranwendung dafür...

Troyan
2018-05-31, 08:36:59
Über Computerbase gefunden:
nVidia wird auf der HotChip am 20.08 über NVIDIA’s Next Generation Mainstream GPU reden: https://www.hotchips.org/program/

Damit könnte Gamescom als Release sehr wahrscheinlich sein.

AffenJack
2018-05-31, 08:39:41
Es wuerde mich verdammt ueberraschen wenn die Tensor cores (selbst bei hypopethischer <1000 Anzahl) so besonders viel die area einnehmen. Umsonst sicher nicht aber auf keinen Fall so viel wie dedizierte FP64 Einheiten.

Ich bezweifle auch ernsthaft dass NV das tensor Zeug umsonst in Gameworks integriert hat ;)


Sehe ich auch so, insbesondere da die Turing Tensor Cores wohl eine kleinere Genauigkeit besitzen und damit erst recht deutlich kleiner werden.

Schön dich wiederzusehen, hoffe bist wieder aktiver hier :-)

Igor hatte anscheinend recht mit einem July Launch, da Nvidia auf der Hotchips im August die GPU zeigt.

https://www.computerbase.de/2018-05/hot-chips-30-nvidia-mainstream-gpu-cascade-lake/


Damit könnte Gamescom als Release sehr wahrscheinlich sein.

Früher, man wird nicht die Architektur hinter verschlossenen Türen auf einer Tagung das erste mal vorstellen. Viel zu wenig Medien. Da dürfte man davor schon ein eigenes event machen. Hotchips sind immer spätere eher tiefergehende architektonische einblicke.

Swissr
2018-05-31, 17:57:44
Könnte "Mainstream GPU" nicht auch die 1160/2060 GPU Reihe bedeuten?

HOT
2018-05-31, 18:17:10
Jo eher das. Da wird man die xx60er raushauen.

basix
2018-05-31, 20:09:10
Und dann schon in 7nm? ;)

Nosferatu1
2018-05-31, 20:14:05
Glaubs erst wenn es da ist....die haben null grund für release. Würde sie die Peise drücken würde sich Pascal noch wie geschnitten brot verkaufen. :)

Adam D.
2018-05-31, 20:22:48
Jo eher das. Da wird man die xx60er raushauen.
Wir hoffen jetzt einfach mal nicht, dass GT104 als "Mainstream" klassifiziert ist :freak:

Und dann schon in 7nm? ;)
Sehr unwahrscheinlich.

Glaubs erst wenn es da ist....die haben null grund für release. Würde sie die Peise drücken würde sich Pascal noch wie geschnitten brot verkaufen. :)
Das ist so ein merkwürdiges Argument. Das heißt, wir sehen bis Ende 2019 keine neuen Nvidia-Karten, weil AMD nichts anbieten kann? Will ja keiner aufrüsten, OEMs wollen ja auch über Jahre dasselbe Zeug verkaufen, Verträge mit Foundries, Zulieferen etc. werden einfach annuliert?

Fetza
2018-05-31, 20:26:14
Glaubs erst wenn es da ist....die haben null grund für release. Würde sie die Peise drücken würde sich Pascal noch wie geschnitten brot verkaufen. :)

Meinst Du? Also ich würde meine GTX 980 gerne in Rente schicken, aber ganz sicher nicht mehr mit dem "altbackenen" Pascal. Aufgerüstet wird erst mit dem Pascalnachfolger oder Navi.

Nosferatu1
2018-05-31, 20:32:38
Was habt ihr alle mit eueren altbacken scheiss? gehts noch? es ist ne verdammte grafikkarte um videospiele wiedrezugeben, manche führen sich auf als könnten sie krebs heilen......wenn die leistung passt warum ist es dann schlimm das die schon 2 jahre am markt ist na erklär mal, glaube kaum das die meisten mehr leistung als ne 1080TI benötigen......also erklärt mal. verstehe das nicht es ist nur ne karte die kann nix. (das ironische wahrschinlich ist es nur ein pascal refresh so wie vorher auch schon) was das ganze noch lächerlicher macht :D

AffenJack
2018-05-31, 20:32:48
Könnte "Mainstream GPU" nicht auch die 1160/2060 GPU Reihe bedeuten?

Nö, es wird einfach um die Architektur gehen und da ist es eben einmal HPC/AI Architektur und einmal Gaming/"Mainstream". x80 dürfte wieder als erstes kommen. x60 könnte ich mir etwas später dann Anfang Q4 vorstellen.

Fetza
2018-05-31, 20:39:09
Was habt ihr alle mit eueren altbacken scheiss? gehts noch? es ist ne verdammte grafikkarte umd videospiel wiedrezugeben, manche führen sich auf als könnten sie krebs heilen......wenn die leistung passt warum ist es dann schlimm das die schon 2 jahre am markt ist na erklär mal, glaube kaum das die meisten mehr leistung als ne 1080TI benötigen......also erklärt mal. verstehe das nicht es ist nur ne karte die kann nix. (das ironische wahrschinlich ist es nur ein pascal refresh so wie vorher auch schon) was das ganze noch lächerlicher macht :D

Aber gerne doch - zunächst mal laufen alle Spiele auf meine GTX 980 auch noch gut in 1080p - aus dieser Warte heraus betrachtet müsste ich garnicht aufrüsten. Eine neue Graphikkarte bedeutet aber auch immer neue Technologie - jedenfalls für mich. Es geht ja auch um das Feature Setting. Pascal bietet beispielsweise Vorteile im Bereich VR und Turing (falls es wirklich Turing sein sollte) wird nach der langen Entwicklungszeit auch genügend Vorteile in unterschiedlichen Dingen bieten (z. B. Raytracing, evtl. eine bessere Encoderengine für Streaming, etc.). Auf Pascal zu setzen bedeutet eben den technologischen Standard von vor zwei Jahren sich in den Rechner zu setzen. Das mag für den uninformierten Standarduser ok sein (oder für jeden, dem neue Features egal sind), für mich ist es das nicht.

Nosferatu1
2018-05-31, 20:55:53
Müsstest nicht ziehst aber über die karten her...die offensichtlich genug Leistung hätten für dich, ne gtx 1080 ist ne feine Karte. Was interessiert mich die Technik solange die Fps stimmen? Aber egal ich verstehe es nicht und daran wird sich auch nichts ändern :) Die features sind komplett egal und sollen nur vom konkurrenten abheben 100%.(kenne keinen der die haare bei gameworks benutzt hat für diesen fps verlust zumal man es nach 4 minuten zocken eh nicht mehr sieht da daran gewöhnt^^ naja

BlacKi
2018-05-31, 21:19:17
ich erwarte auch einen preisdrop der alten karten, wie hoch der sein wird, keine ahnung, von 10-30%schätze ich mindestens. es gibt genug leute die schon ihre alten pascals abgeschoben haben wegen turing.

scully1234
2018-06-01, 18:31:42
Nö, es wird einfach um die Architektur gehen und da ist es eben einmal HPC/AI Architektur und einmal Gaming/"Mainstream". x80 dürfte wieder als erstes kommen. x60 könnte ich mir etwas später dann Anfang Q4 vorstellen.

Und mittendrin im Zeitfenster noch ne Titan als Full House

Troyan
2018-06-02, 13:38:53
Der "Next Gen Mainstream" Eintrag bei nVidia ist nun auf der Seite der Hotchips verschwunden. Muss also gestimmt haben. ;D

Platos
2018-06-02, 13:39:39
ich erwarte auch einen preisdrop der alten karten, wie hoch der sein wird, keine ahnung, von 10-30%schätze ich mindestens. es gibt genug leute die schon ihre alten pascals abgeschoben haben wegen turing.

Damit wären die Karten dann etwa auf dem Preisniveau von mai 2017? Das nenne ich doch mal Fortschritt :freak:

BlacKi
2018-06-02, 13:47:24
Damit wären die Karten dann etwa auf dem Preisniveau von mai 2017? Das nenne ich doch mal Fortschritt :freak:
eigentlich sind wir doch schon in dem durchschnittlichen preisbereich von 2017. 1080ti ca. ab 700€ und die 1080 ab ca. 500€ was wir derzeit so haben. damit meinte ich, das wenn turing kommt, die 1080ti für irgendwas so um die 550, und die 1080 für knapp 400 herum zu haben sein wird. wenn der mining hype weiter nachlässt sogar weniger.

Platos
2018-06-02, 13:54:39
Stimmt ja, die Preise sind ja wirkli h ziemlich gefallen. Vor 2 Wochen waren die noch höher nach meinem Wissen.

Und ja, hoffe ich doch. Wenn sie allerdings mit einer 2080 eine 1080ti Leistung anpeilen, müsste die auch etwa in dem selben Preisbereich sein. Vlt. wird sie 10% stärker und 10% teurer oder sowas. Weil 699 wird man wahrscheinlich für die 2080 schon hinblättern müssen.

Sunrise
2018-06-02, 21:36:49
NV wird wieder schauen, dass man zuerst die Gx04 bringt, die dann fast so schnell (Wunschtraum?) wie GP102 ist, und der Preis wird natürlich gesalzen werden. Dann kauft erst jeder, und ein halbes Jahr später kommt wie immer der Top Dog und es wird wieder von einigen erneut gekauft. Dann, spätestens nächstes Jahr, sollte aber der Nachfolger auf 7nm kommen, weshalb das wohl deutlich kürzere Abstände werden als bisher.

BlacKi
2018-06-02, 22:09:07
Dann kauft erst jeder, und ein halbes Jahr später kommt wie immer der Top Dog und es wird wieder von einigen erneut gekauft. Dann, spätestens nächstes Jahr, sollte aber der Nachfolger auf 7nm kommen, weshalb das wohl deutlich kürzere Abstände werden als bisher.
könnte was dran sein. vl einfach turing überspringen???

auf der anderen seite. wenn die 2080ti 2019 kommt, dann in 7nm? oder 12? wow, schwer einzuschätzen.

AffenJack
2018-06-02, 22:27:30
Etwas kürzere Gen kann ich mir vorstellen, aber so riesig wären die Unterschiede auch nicht im Vergleich zu Maxwell:

GTX980 - 20 Monate bis 1080
GTX980TI - 11 Monate bis 1080
GTX960 - 18 Monate bis 1060

Turing Speku und 7nm Nachfolger
1180 Juli 18 - 1280 ~Dezember 19 - 17 Monate
1180TI Dezember 18 - 1280 ~Dezember 19 - 12 Monate
1160 Q4 18 - 1260 Q4 19- Q1 20 - 12 - 15 Monate

GM200 hat ja gezeigt, dass Nvidia durchaus bereit ist auch mal ne kurze Gen zu machen und heutzutage haben sie im Vergleich zu früher erst recht die finanziellen Mittel dafür. 7nm dürfte eh wie Pascal hauptsächlich ein Shrink sein, wodurch das auch schneller geht.

Troyan
2018-06-02, 22:59:22
nVidias Dally über 12nm: https://youtu.be/h3QKvUPg_AI?list=PLxebUzBtXdb2eQYVeTMzFD9mk4rztQgYq&t=444

12nm ist im Grunde 16nm und alle Effizienzvorteile von Volta kommt von der Architektur.

maximus_hertus
2018-06-02, 23:18:49
Was habt ihr alle mit eueren altbacken scheiss? gehts noch? es ist ne verdammte grafikkarte um videospiele wiedrezugeben, manche führen sich auf als könnten sie krebs heilen......wenn die leistung passt warum ist es dann schlimm das die schon 2 jahre am markt ist na erklär mal, glaube kaum das die meisten mehr leistung als ne 1080TI benötigen......also erklärt mal. verstehe das nicht es ist nur ne karte die kann nix. (das ironische wahrschinlich ist es nur ein pascal refresh so wie vorher auch schon) was das ganze noch lächerlicher macht :D

Grafikkarten sind das teuerste im Gaming System und die werden immer teurer (aus diversen Gründen). Wenn man bereit ist knapp 1000 Euro auszugeben möchte man etwas langfristiges haben.

Gehen wir zurück nach 2014, ähnliche Situation wie heute. Es gibt im Sommer als High End Lösung die GTX 780, die für alles ausreicht. Soweit, so gut. Am Ende des Sommers kommt aber Maxwell 2.0. Die GTX 980 kostete 549 Euro, ergo gleich viel wie die 780 (grob) 2 Monate vorher. Man erhielt also eine massive Performance / Watt Verbesserung, deutlich leiserer Betrieb, 4GB VRAM und rund 25% mehr fps. Ein Jahr später (dank der Maxwell Tech) waren es bereits rund 50%, weitere 6-12 Monate später dann sogar 70+% Performance Differenz.

Dazu hat nV den Treibersupport / "Tuning" für Kepler recht schnell runtergefahren.

Schauen wir uns konkret die Benches an, sogar "nur" in Full-HD 1920x1080:

The Division, rund 18 Monate nach GTX 980 Launch
GTX 780 rund 33 fps
GTX 980 rund 50 fps (ca. +50% fps)

Anno 2205, rund 14 Monate nach GTX 980 LAunch
GTX 780: rund 29 fps
GTX 980: rund 50 fps (ca. +66% fps)

Assassins Creed Syndicate, rund 13 Monate nach GTX 980 Launch
GTX 780: rund 32 fps
GTX 980: rund 55 fps (ca. +69% fps)

GTA 5, 1 JAhr vor GTX 980 Launch
GTX 780: rund 44 fps
GTX 980: rund 68 fps (ca. +55% fps)

Hitman, 18 Monate nach GTX 980 Launch
GTX 780: ca. 33 fps
GTX 980: ca. 55 fps (ca. +66% fps)


Du siehst, aus einer eigenlichen Top-Karte mit der alles flüssig läuft ist in kurzer Zeit (1 - 1,5 Jahre) eine Karte geworden, die oft nur die 30 fps in 1920x1080 schafft. Die gleich teure GTX 980, die kurz nach "unserem" Kauf der GTX 780 gelauncht wurde, schafft spielerisch die 50-60+ fps.

So ähnlich könnte es wieder ablaufen. Spiele, die in rund 1,5 Jahren herauskommen, könnten Techniken einsetzen, die Pascal nicht schmecken. nV wird zudem keine zu große Kraft in Pascel mehr investieren und schwupps, eine GTX 1080 ist nur gerade so flüssig, während die ähnlich teure Turing Karte (die ja von heute aus gesehen nur rund 1-2 Monate entfernt liegt) es spielend schafft due 60+ fps hinzuzaubern.

Wenn man eh jedes Jahr eine neue Karte kauft, ist es natürlich egal. Wenn man aber nicht Krösus ist und nicht einsieht jedes Jahr 600 oder mehr Euro in eine Grafikkarte zu investieren, dann wartet man JETZT auf Turing.

Warum sollte ich 550-600 Euro in eine 1080 investieren, wenn ich eine 1180/2080 für unwesentlich mehr bekomme? Bei gerade mal 1-2 Monate Wartezeit.

Ohne Mining und Speicherpreisexplosion könnte die 1080 mittlerweile bei 400 oder gar nur 350 Euro liegen (Anfang des Abverkaufs). Das wäre dann eine andere Diskussionsbasis. Aber mit 550+ Euro lohnt es sich nicht.

Ich hoffe das war jetzt nicht zu viel ;)

AffenJack
2018-06-02, 23:26:03
nVidias Dally über 12nm: https://youtu.be/h3QKvUPg_AI?list=PLxebUzBtXdb2eQYVeTMzFD9mk4rztQgYq&t=444

12nm ist im Grunde 16nm und alle Effizienzvorteile von Volta kommt von der Architektur.

Interessant fand ich das hier:

https://abload.de/img/sizeperoperationpsu1j.png

Macht einfach deutlich, dass ein Int8 basierender Tensor Core viel kleiner wäre, als die FP16 Tensor Cores von V100 und ist auch so mal interessant zu sehen.

gnomi
2018-06-03, 08:38:32
@ maximus_hertus

Sehr guter Beitrag.
Ich denke auch, dass der Zeitpunkt für eine neue Karte jetzt wieder etwas günstiger sein könnte.
Allerdings war die 780TI auf 980 GTX Sache auch wegen neuer Konsolen mit deutlich mehr Speicher spezieller.
Die 1080 ist da mit 8GB VRAM doch jetzt etwas komfortabler aufgestellt, denn auch eine Xbox One X hat nicht dessen Power und muss noch dazu auf die normale One Rücksicht nehmen.
Und man muss abwarten, ob die neuen Karten tatsächlich neue Technologien und 12 oder besser 16 Gigabyte VRAM anbieten.
Für 4K wären die sehr zu gebrauchen, in 1440P sollten hingegen 8GB VRAM noch sehr gut langen für Spiele aus dieser Konsolengeneration.
Im Nachhinein war der gefühlt nicht so große Schritt von Maxwell zu Pascal aber doch lohnenswert.
Und das wird bestimmt wieder ähnlich.
Bei GPU's tut sich einfach noch am meisten. Es ist die Komponente, die man mit etwas Geld in der Tasche eigentlich jedes Mal kompromisslos verbessern muss.
Leider darf man das nvidia halt nicht zu laut sagen.
Deren FE, Titan und TI Chips sind schon Folgen davon...

G3cko
2018-06-03, 08:41:59
Grafikkarten sind das teuerste im Gaming System und die werden immer teurer (aus diversen Gründen). Wenn man bereit ist knapp 1000 Euro auszugeben möchte man etwas langfristiges haben.


Dann darfst du keine Karten eines fast Monopolisten kaufen. Die AMD 290 ist deutlich besser gealtert als eine GTX780. Das einzige Problem: AMD baut selten einen Konter zum schnellsten Chip von Nvidia. Wenn du die höchste Performance haben möchtest, dann bleibt nur der Schritt zur Nvidia. Wenn du Langlebigkeit bei Nvidia suchst, würde ich wie du sagst auf Turing warten.

Ich würde jedoch nicht auf die Ti warten. Beispiel: Fertigungstechnologien werden heute viel länger genutzt. Man startet mit kleineren Chips aufgrund der Kosten. Eine Produktfamilie wird also häppchenweise released. An den jährlich etwa 20-30% Performance Zuwachs ändert sich nichts, außer, dass du dann den top Dog einer Serie hast.Greifst du zum 104 Chip aka GtX1080 hast du zwei Vorteile:
1) du bist eine der ersten mit der neuen Architektur, profitierst also lange vom Treibersupport.
2) geringerer stromverbrauch

Mal ein krasses Gegenbeispiel. Titan Black bei Kepler. 6 Monate vor Release der GTX980.

Ich finde den Namen Titan sowieso extrem inflationär. Selbst als Hardwareenthusiasten ist es kaum möglich sich alle Modelle zu merken. Ergoauch nichts besonderes, außer teuer und schnell zum Release Zeitpunkt. Langzeitsupport aber nicht gegeben, wenn eine 7970 nach 5 Jahren aufschließt.

Und da kommen wir halt zum nächsten Punkt. Nvidia ist ein A... Die haben kein Interesse an langlebigkeit, dass zeigt einem am besten der GTX970 Versuch eine Karte zu designen mit Verfallsdatum. Sind zum Glück nicht durchgekommen.

AMD muss Marktanteile gewinnen und das erreichen sie nur durch Langlebigkeit und bessere Produkte. Bei 80% Marktanteil hat Nvidia kein Interesse an Langlebigkeit.

Dazu kommen die Konsolen. Das größte Feature von Vega die primitiv shader sind immernoch ein großes Fragezeichen. Der Punkt ist nur. AMD hat aktuell kein Druck. Die Karten wurden durch Miner ihnen aus den Händen gerissen und in den nächsten Konsolen landet das Feature sowieso. Ein Glücksfall aus strategischer Sicht.

Support für die neusten Features gibt's bei Nvidia nur für die neuste Generation. Raytracing mit pascal, - viel Spaß. Vega hat zumindest viel GPGPU Power für die Berechnung. Da muss man abwarten. Das zeigt aber auch wie es aktuell mit der Langlebigkeit aktueller Karten bestellt ist und das ohne großartig die Glaskugel anzuwerfen.

basix
2018-06-03, 09:55:57
Etwas was Nvidia auch mit den Consumer Pascals in der Hinterhand hätte wäre Quad-Rate INT8. Reicht INT8 für Raytracing, wäre das ein riesen Argument für Pascal. Ich bezweifle jedoch, dass Nvidia diesen Weg aus produktpolitischer Sicht gehen würde, auch wenn es technisch funktionieren würde.

=Floi=
2018-06-03, 10:41:49
Fiji hatte bei release dank der 4gb schon zu wenig vram. Bei vega werden die 8gb auch irgendwann ein größeres problem.


die 970er war dafür auch günstig. Eine 4gb karte geht noch öfter, steht aber ebenso oft bei highend sachen an. Die 970er ist trotzdem keine absolut schlechte karte.

Neue features waren bei der ersten gen. schon immer crap. Nice to have, aber nicht wirklich nutzbar. Es ist verschmerzbar.

Timbaloo
2018-06-03, 18:14:01
Neue features waren bei der ersten gen. schon immer crap. Nice to have, aber nicht wirklich nutzbar. Es ist verschmerzbar.
This. Wenn man die Techdemos von NV zu Raytracing Schatten/AO/Lighting/etc. anschaut, es sieht nett aus, technisch und wissenschaftlich reizvoll. Aber außer die "30fps reichen aus"-Standbildbestauner wird es wohl praktisch jeder in den ersten paar Implementierungen (sowohl Hard- als auch Software) eh abschalten weil es zuviel Performence kostet.

Hier wird diesem Feature viel zu viel Aufmerksamkeit geschenkt. Relevant für den Erfolg der Karte werden wieder Performance, Perfomance/Watt zum Zeitpunkt der Reviews und die Preisgestaltung. Also wie immer.

Trotzdem aber imho der richtige Weg den NV geht.

scully1234
2018-06-03, 21:53:25
wenn das über compute läuft werden vielleicht auch wieder 2,3 oder gar 4 Karten interessant bei nahezu 100% Skallierung ohne SLI Gedöns

müsste man mal bei Epic anfragen wie die Star Wars Demo sich gibt

Rampage 2
2018-06-04, 00:14:42
Gehen wir zurück nach 2014, ähnliche Situation wie heute. Es gibt im Sommer als High End Lösung die GTX 780, die für alles ausreicht. Soweit, so gut. Am Ende des Sommers kommt aber Maxwell 2.0. Die GTX 980 kostete 549 Euro, ergo gleich viel wie die 780 (grob) 2 Monate vorher. Man erhielt also eine massive Performance / Watt Verbesserung, deutlich leiserer Betrieb, 4GB VRAM und rund 25% mehr fps. Ein Jahr später (dank der Maxwell Tech) waren es bereits rund 50%, weitere 6-12 Monate später dann sogar 70+% Performance Differenz.

Schauen wir uns konkret die Benches an, sogar "nur" in Full-HD 1920x1080:

The Division, rund 18 Monate nach GTX 980 Launch
GTX 780 rund 33 fps
GTX 980 rund 50 fps (ca. +50% fps)

Anno 2205, rund 14 Monate nach GTX 980 Launch
GTX 780: rund 29 fps
GTX 980: rund 50 fps (ca. +66% fps)

Assassins Creed Syndicate, rund 13 Monate nach GTX 980 Launch
GTX 780: rund 32 fps
GTX 980: rund 55 fps (ca. +69% fps)

GTA 5, 1 Jahr vor GTX 980 Launch
GTX 780: rund 44 fps
GTX 980: rund 68 fps (ca. +55% fps)

Hitman, 18 Monate nach GTX 980 Launch
GTX 780: ca. 33 fps
GTX 980: ca. 55 fps (ca. +66% fps)


Du siehst, aus einer eigenlichen Top-Karte mit der alles flüssig läuft ist in kurzer Zeit (1 - 1,5 Jahre) eine Karte geworden, die oft nur die 30 fps in 1920x1080 schafft. Die gleich teure GTX 980, die kurz nach "unserem" Kauf der GTX 780 gelauncht wurde, schafft spielerisch die 50-60+ fps.


Meinst du mit deinen Vergleichen die GTX 780 Ti oder nur die kastrierte GTX 780 (non-Ti)? Diese gab es AFAIR auch als 6GB-Ausführung.

Aber wenn die 980 mittlerweile in vielen Spielen über 50% schneller ist als die 780 Ti, dann ist das wirklich beeindruckend:eek:

R2

RLZ
2018-06-04, 00:58:17
müsste man mal bei Epic anfragen wie die Star Wars Demo sich gibt
Die lief auf 4 Teslas mit einer zum größten Teil vorgebackenen Beleuchtung...

Nightspider
2018-06-04, 01:09:46
dann ist das wirklich beeindruckend:eek:

Das ist aber schon immer normal bei Nvidia das die alten Generation schneller altern.

aufkrawall
2018-06-04, 01:23:13
Die 780 Ti war 20% schneller als die 780, die 980 15% als die 780 Ti. VRAM-Mangel und Ähnlichkeit Maxwells zu Pascal tun ihr Übriges. Mit dem niedrigsten Wert als Basis für Prozentrechnungen siehts dann halt so aus..

maximus_hertus
2018-06-04, 02:23:11
Ich habe die GTX 780 NON-Ti genommen. Die 780 Ti lag bei 600-700 Euro, während die 780 bei 430 - 500 Euro lag (kurz vor Maxwell 2.0 Launch). Da die GTX 1080 heute ebenfalls bei rund 500 Euro liegt (grob), habe ich sie als Vergleich genommen.

Es ging ja auch darum, warum man jetzt eben keine 500-600 Euro in die Hand nehmen sollte und auf Turing wartet.

Kleine Stats: 2014, zum GTX 980 Launch, lag diese 10% VOR der 780 Ti und 25% vor der 780.
Wie ich ja schon gezeigt habe sind aus den +25% zur normalen 780 mittlerweile 50, 60 und mehr Prozent geworden.

Aber nehmen wir mal die 780 Ti als Basis, die kurz vor Maxwell 2.0 Launch noch (idR) bei über 600 Euro lag (und damit teurer als die 980 bei Launch):

The Division
780 Ti: rund 39 fps
980: rund 50 fps (mittlerweile sind es über 55 fps durch Treiber & Patches)
macht also zum Division Launch knapp +30%, heute sind es sogar rund 40%

Anno 2205
780 Ti: rund 32 fps
980: rund 50 fps (ca. +56%)

AC: Syndicate
780 Ti: rund 39 fps
980: rund 55 fps (ca. +41%)

GTA 5
780 Ti: 53 fps
980: 68 fps (ca. +28%)

Hitman
780 Ti: 39 fps
980: 55 fps (ca. +41%)

Bonus-Benches ;)

Mirrors Edge Catalyst (rund 21 Monate nach 980 Launch)
780 Ti: 32 fps
980: 62 fps (nahezu +100%)

Rise of the Tomb Raider (rund 16 Monate nach 980 Launch)
780 Ti: 42 fps
980: 60 fps (ca. +42%)


Man sieht, es sind deutlich bis dramatisch mehr als die ursprünglichen 10%. Natürlich gibt es heute auch noch Benches die knapper ausfallen, aber die Richtung ist klar. Da es schon "immer" so lief, gehe ich auch bei Turing davon aus:

Launch Sommer 2018: Turing ist zwar schneller als Pascal, aber nicht besonders dramatisch
Spiele Winter 2019/2020: Turing konnte aus einem knappen Vorsprung einen komfortablen Vorsprung herausarbeiten. Dazu kann die xx60 Turing Karte mittlerweile die 1080 attackieren.

Korvaun
2018-06-04, 07:26:44
Man sollte auch nicht vergessen das der langsam anlaufende Umschwung hin zu 4K Monitoren nV/AMD in den nächsten Jahren in die Hände spielen wird. Da besteht dann doch wesentlich mehr "Aufrüstdruck" als die letzten Jahre mit 1080p/1440p.

Voraussetzung ist allerdings das endlich mal 30"+ 4K mit GSync/Freesync inkl. mind. 100Hz zu akzeptablen Preisen auf den Markt kommt ;)

Wake
2018-06-04, 08:31:33
Computex TLDR:
Q: When is Volta coming to gaming?
A: So many gamers were deprived of GeForces due to mining, but now pricing is coming down. 1080/Ti are the best cards right now, we suggest they buy GeForce ASAP

Q: When can we run 4K 120 Hz on a single card.
A: I don't know ... (!) I could predict, but I'm not going to

Q: When is the next GeForce?
A: I'll invite you. There will be lunch. But it's a long time.

Q: Anything to say about NVIDIA's talk at Hot Chips about Next Gen changing to TBD?
A: Live in the present! We will invite you to our launch events
von www.anandtech.com/show/12861/computex-2018-nvidia-live-blog-1pm-tw-5am-utc

Damn you, Lederjacke! :|
RIPascal weiterhin

Swissr
2018-06-04, 08:38:54
War das Computex 2017 oder Ironie oder irgendwas dazwischen?

Rancor
2018-06-04, 08:47:43
Ich lache mich tot wenn Turing nicht mal mehr dieses Jahr kommt. Es verschiebt sich ja immer mehr.

N0rG
2018-06-04, 09:15:02
Hört sich irgendwie an als ob nvidia noch auf 7nm wartet.

Linmoum
2018-06-04, 09:29:55
Kann ich mir nicht vorstellen, wenn man ursprünglich schon im März/April launchen wollte.

Klingt aber in der Tat danach, als würde es auch mit Juli/August nichts werden. Aus welchen Gründen auch immer.

AffenJack
2018-06-04, 09:35:03
Computex TLDR:
Q: When is Volta coming to gaming?
A: So many gamers were deprived of GeForces due to mining, but now pricing is coming down. 1080/Ti are the best cards right now, we suggest they buy GeForce ASAP

Q: When can we run 4K 120 Hz on a single card.
A: I don't know ... (!) I could predict, but I'm not going to

Q: When is the next GeForce?
A: I'll invite you. There will be lunch. But it's a long time.

Q: Anything to say about NVIDIA's talk at Hot Chips about Next Gen changing to TBD?
A: Live in the present! We will invite you to our launch events
von www.anandtech.com/show/12861/computex-2018-nvidia-live-blog-1pm-tw-5am-utc

Damn you, Lederjacke! :|
RIPascal weiterhin

War doch von vornerein klar, selbst wenn Turing in 1 Woche launchen würde, wären die Aussagen nicht anders. Ein CEO wird der Presse nix über kommende Produkte verraten und will natürlich, dass die GPUs solange weiterverkauft werden, bis die neue Gen kommt. Ändert nix am Juli - August Timeframe

HOT
2018-06-04, 09:49:44
Das liest sich, mit den ganzen Wachstumszahlen im Gaming, ein wenig wie eine Rechtfertigung, warum die noch Gamingchips machen.
Sollte Turing nochmals verschoben werden, dann, weil andere Projekte Vorrang haben und ein Launch einfach noch nicht nötig ist. Wenn die das gewollt hätten, wär Turing schon längst im Markt, sei es mit 14-16GT/s GDDR6 oder GDDR5X-Speicher. Solange sich die kleineren Chips aber mit hohen Margen weiter verkaufen, ohne, dass AMD überhaupt irgendwas kontert, warum soll man sich die Kosten eines größeren Chips ans Bein binden? Zumal Metro Exodus, als erstes RT-Spiel, eh auf 2019 verschoben wurde. Sollte es zu einer weiteren Verschiebung kommen (was nicht gesagt ist), hat das wirtschaftliche Gründe.

Rancor
2018-06-04, 09:57:59
Toll für BF V werde ich dann wohl nen 1080TI holen müssen.... Könnte brechen.

Mancko
2018-06-04, 10:08:16
War doch von vornerein klar, selbst wenn Turing in 1 Woche launchen würde, wären die Aussagen nicht anders. Ein CEO wird der Presse nix über kommende Produkte verraten und will natürlich, dass die GPUs solange weiterverkauft werden, bis die neue Gen kommt. Ändert nix am Juli - August Timeframe

Genau das. Ich nehme mal an, dass die Mining Nachfrage aktuell stark zurückgeht und die wollen noch gemütlich die Lager räumen. Der ist doch nicht blöd und kündigt dann jetzt einen Nachfolger an. Dann kauft kein Mensch mehr die aktuellen Karten zu den aktuellen Preisen. Nvidia ist einfach extrem abgezockt. Abschreibungen auf Inventory findet man bei denen extrem selten in der Bilanz und wenn dann meist mal wegen irgendwelcher Fehler und RMA Aktionen. Ganz anders bei AMD. Die haben sich schon sehr oft in verschiedensten Geschälftsfeldern verkalkuliert und dann ordentlich in den Bilanzen Inventar abgeschrieben.

Die Aussagen von ihm dienen ganz eindeutig dazu die Lager zu räumen und das möglichst aus Nvidia's Sicht zu wunderbaren Preisen. Die Situation ist auch günstig, denn durch die exorbitante Mining Nachfrage mussten viele Gamer warten. Jetzt kommen die Preise langsam runter und er befeuert das Ganze mit seinen Aussagen. So wird man noch Pascal los und kann dann in Ruhe den Nachfolger für die Maxwell Kunden starten. Nvidia ist in jedem Fall soweit. Die warten nur auf den richtigen Zeitpunkt also das optimale Verhältnis zum Pascal Inventar.

yamamoto_dc
2018-06-04, 10:21:13
In dem Fall hätte Jensen aber nicht "But it's a long time." gesagt, sondern so etwas wie: "Wir informieren, wenn es soweit ist." Ich denke da kommt dieses Jahr nichts mehr. NV setzt vermutlich auf 7nm, wäre ja auch zu blöd jetzt etwas in 16nm zu bringen und dann kommt AMD ein halbes Jahr später mit Navi in 7nm raus.

maximus_hertus
2018-06-04, 10:38:34
Leute, ihr kennt das doch. Ganz geschmeidig bleiben.

Kurze Zusammenfassung:

Alles was über eine Woche entfernt ist = Long Time
Live in the Present = wir (nV) brauchen noch Kohle / die Lager sind noch zu voll

Edit: Mancko hat es super zusammengefasst.


@ yamamoto_dc

Wann würdest du eher eine GeForce kaufen? A Long Time bis zum Nachfolger oder bei einer „we inform you“?

Beides(!) hat keine konkrete Zeitangabe. Aber psychologisch ist man bei „Long Time“ eher bereit jetzt noch eine Pascal Karte zu kaufen.

BoMbY
2018-06-04, 11:00:32
Q: When is the next GeForce?
A: I'll invite you. There will be lunch. But it's a long time.


Den Gerüchten nach ist die Serie ja jetzt erst ungefähr dreimal gelaunched worden. Und ich bleibe bei dem was ich schon lange gesagt habe: Auf keinen Fall vor Q4/2018, und da auch eher zum Ende hin. Aber nächste Woche gibt es bestimmt schon wieder das nächste Gerücht was sich als totaler Reinfall entpuppen wird.

yamamoto_dc
2018-06-04, 11:24:20
Ich denke, NV hat gemerkt, dass sie mit Architekturverbesserungen allein nicht genug Performancezuwachs herausholen können. Ähnlich geht es ja auch Intel, die seit Jahren nur noch 5% Leistung pro Generation schaffen. Da im GraKa-Markt die Ansprüche an Leistungssprünge aber sehr hoch sind, lohnt sich eine neue Generation nur, wenn auch 7nm zum Zuge kommt, 7nm ist aber in diesem Jahr noch nicht bereit. Ist natürlich alles reine Spekuation, aber wir sind hier ja auch in einem Spekulations-Thread. :biggrin:

Daredevil
2018-06-04, 11:28:37
Wann würdest du eher eine GeForce kaufen? A Long Time bis zum Nachfolger oder bei einer „we inform you“?

Beides(!) hat keine konkrete Zeitangabe. Aber psychologisch ist man bei „Long Time“ eher bereit jetzt noch eine Pascal Karte zu kaufen.
Glaubst du, Nvidia lügt die Presse und seine Käufer an?
Die sind aktuell in so einer positiven Lagen, dass sie zwar Geheimniskrämerei und Trollerei betreiben können, was das Zeug hält, aber wenn man sagt "A Long Time" und eine Woche später die neuen Karten vorstellt, wird man unweigerlich viele Kunden verärgern, aus der Sicht des Marktführers ist die negative Publicity doch völlig unnötig.

Du siehst aber ja hier im Thread, wie "alt" die aktuelle Generation ist.
Da "muss" man sich nun eine 1080ti kaufen, um xyz Spiel in 4k spielen zu können. Das ist schon arg ärgerlich, dass die Aktuelle Generation so langsam ist und die Nvidia die Kundschaft so verhungern lässt. ;)

dildo4u
2018-06-04, 11:33:47
Natürlich sagt er nicht kommt bald,durch das verkackte Mining haben sie grad erst wieder die Werke 24/7 laufen lassen um den alten Schrott zu produzieren ,das will keiner im Lager liegen haben.


Das ist jetzt schon unter MSRP:

https://www.mindfactory.de/product_info.php/8GB-KFA2-GeForce-GTX-1070-Ti-EX-Aktiv-PCIe-3-0-x16--Retail-_1203607.html

Ex3cut3r
2018-06-04, 11:39:01
Dann halt nicht, so wie ich das sehe, kommt erst mit Shadow of the Tomb Raider ein interessanter Titel und BFV scheint auf der gleichen Engine aufzubauen wie BF1, das läuft schon mit Pascal gut.

Aber auf den Gamer wird geschissen, vielen Dank an die Stromverschwender aka Miner...

AffenJack
2018-06-04, 11:53:56
Dann halt nicht, so wie ich das sehe, kommt erst mit Shadow of the Tomb Raider ein interessanter Titel und BFV scheint auf der gleichen Engine aufzubauen wie BF1, das läuft schon mit Pascal gut.

Aber auf den Gamer wird geschissen, vielen Dank an die Stromverschwender aka Miner...

Ich hoffe ja auf Tomb Raider als Beilage zu Turing. Im September sollten die Customs langsam eintrudeln, wäre eine schöne Kombi.

BlacKi
2018-06-04, 12:40:35
Aber nehmen wir mal die 780 Ti als Basis, die kurz vor Maxwell 2.0 Launch noch (idR) bei über 600 Euro lag (und damit teurer als die 980 bei Launch):

ich stimme dir da zu, abere, du hast da aber ganz schöne extrembeispiele rausgepickt. es sind eher durchschnittliche 25-30% wenn man das Overclocking der strix rausnimmt.

https://abload.de/img/unbenanntj7sl9.png

Hübie
2018-06-04, 13:45:38
Wobei Maxwell für OC bekannt ist. :D NVIDIA war bis Pascal sehr zurückhaltend mit Taktraten. Fermi, Kepler und Maxwell gingen nicht selten mit über 25% vom Platz. OC wird ja auch ab Werk angeboten. Meine 980 Ti ist ein sehr gutes Beispiel: NVIDIA Boost=1076 MHz, ASUS Boost=1418 MHz. :eek:

maximus_hertus
2018-06-04, 17:03:05
Glaubst du, Nvidia lügt die Presse und seine Käufer an?
Die sind aktuell in so einer positiven Lagen, dass sie zwar Geheimniskrämerei und Trollerei betreiben können, was das Zeug hält, aber wenn man sagt "A Long Time" und eine Woche später die neuen Karten vorstellt, wird man unweigerlich viele Kunden verärgern, aus der Sicht des Marktführers ist die negative Publicity doch völlig unnötig.


Lügen? Long Time ist keine absolute Zeitangabe. Ein Launch zur Gamescom und Verkaufsstart Anfang September sind eine „Long Time“. Je nach Standpunkt.

Zur negativen Presse: GTX 970 Disaster, geplanter GFE „Zwang“, GPP. Nichts hat nV geschadet. Noch dazu: Wie viele Personen lesen Techseiten / Foren? Die meisten zocken einfach nur und wenn der Launch kommt wird das in den sozialen Medien verbreitet. Diese Mini-Info-Schnipsel bekommen doch nur eine Hand voll Enthusiasten mit.

Adam D.
2018-06-04, 17:06:52
Lügen? Long Time ist keine absolute Zeitangabe. Ein Launch zur Gamescom und Verkaufsstart Anfang September sind eine „Long Time“. Je nach Standpunkt.

Zur negativen Presse: GTX 970 Disaster, geplanter GFE „Zwang“, GPP. Nichts hat nV geschadet. Noch dazu: Wie viele Personen lesen Techseiten / Foren? Die meisten zocken einfach nur und wenn der Launch kommt wird das in den sozialen Medien verbreitet. Diese Mini-Info-Schnipsel bekommen doch nur eine Hand voll Enthusiasten mit.
Das Problem ist zur Zeit mehr denn je die Marktsituation (und ja, ich weiß, selbst wenn AMD bessere Produkte hatte, hat NV mehr verkauft). Ich kann es an mir selbst perfekt beobachten: habe eine GTX 970 und fand die Aktion beschissen, genau wie GPP etc. Aber ich will das beste Produkt haben und da liefert die Konkurrenz nix - was macht man denn in der Situation selbst als reflektierter Käufer, der nicht einfach $$$ auf den Tisch legen kann?

Daredevil
2018-06-04, 17:14:00
Lügen? Long Time ist keine absolute Zeitangabe. Ein Launch zur Gamescom und Verkaufsstart Anfang September sind eine „Long Time“. Je nach Standpunkt.
Das sehen andere allerdings nicht so locker und die Aussage für so offen. :D
Zumindest haben sie diese Phrase leicht hervorgehoben:
Q: Videocardz
http://abload.de/img/unbenanntp6sld.png

und solche Memes sind nun auch nicht unbedingt förderlich ^^
https://uploads.disquscdn.com/images/ac820ac32508c21ea70a3c2bc5d25e28c1089b7858267aa84a0f2d06951a2a50.jpg?w=800&h=550

https://uploads.disquscdn.com/images/95bb52e22efa00fad93a11e3e8c2d79f5005f53e18801e8158e57c2678683a49.jpg?w=800&h=419

maximus_hertus
2018-06-04, 18:43:04
ich stimme dir da zu, abere, du hast da aber ganz schöne extrembeispiele rausgepickt. es sind eher durchschnittliche 25-30% wenn man das Overclocking der strix rausnimmt.


Ich hatte ja auch geschrieben, dass es auch knappere Benches gibt. Nur sind es keine Einzelfälle (mehr), die Kepler Karten haben ab 2015 einfach massiv an Boden verloren. Ursprünglich waren es 9%, in deinem Bild sind es schon 25%. Dazu boosten die Maxwell Customs teils deutlich aggressiver als die Kepler.

Wenn man nur Games nimmt, die ab 2015 gelauncht worden sind, sind es sogar über 25%. Dann geht es in den Bereich von 30 bis 40 und teils noch mehr %.

@ Daredevil

Klar sind sie förderlich. Sie sind sogar der feuchte Traum.

Sie zeigen ja, dass AMD / Radeon gar nicht mehr existiert. Es geht nur noch um nV und GeForce. Dazu wird es jetzt den Leuten einfacher fallen, die neueste Technik zu kaufen (Pascal). Sie bleibt ja for a long time die Nr 1 ;)

BlacKi
2018-06-04, 19:01:26
Ich hatte ja auch geschrieben, dass es auch knappere Benches gibt. Nur sind es keine Einzelfälle (mehr), die Kepler Karten haben ab 2015 einfach massiv an Boden verloren. Ursprünglich waren es 9%, in deinem Bild sind es schon 25%. Dazu boosten die Maxwell Customs teils deutlich aggressiver als die Kepler.

Wenn man nur Games nimmt, die ab 2015 gelauncht worden sind, sind es sogar über 25%. Dann geht es in den Bereich von 30 bis 40 und teils noch mehr %.


absolut, kepler ist outdated. aber da ändern die zuästzlichen -15% aber auch nichts daran.

aber hübie kommt mit seiner alten gen noch gut zurecht, das wird auch auf pascal noch bestimmt 3 jahre zutreffen. deshalb angst zu verbreiten na dürfte sich kein pascal mehr zulegen halte ich für etwas übertrieben.

ich würde mir mehr gedanken wegen des pricedrops machen(oder anders forumliert, wegen der stärkeren leistung zum einkaufspreis).

maximus_hertus
2018-06-04, 19:35:56
Warum sollte man HEUTE eine GTX 1080 für 550 Euro kaufen, wenn ich zum gleichen Preis in rund 2 Monaten ein deutliches Upgrade bekomme? Darum geht es. Wenn ich heute eine 1080 kaufe, „muss“ ich deutlich früher wieder upgraden. Siehe selbst bei 780 Ti vs 980. Innerhalb von weniger als 2 Jahren gibt es viele Games, die auf Kepler suboptimal laufen (30-40 fps), während die 980 noch gemütlich bei 50 fps läuft. Das kann und ist durchaus der Unterschied zwischen flüssig und „na ja irgendwie unbefriedigend mit 30 fps“.

scully1234
2018-06-04, 19:40:45
War doch von vornerein klar, selbst wenn Turing in 1 Woche launchen würde, wären die Aussagen nicht anders. Ein CEO wird der Presse nix über kommende Produkte verraten und will natürlich, dass die GPUs solange weiterverkauft werden, bis die neue Gen kommt. Ändert nix am Juli - August Timeframe

Man könnte meinen das wäre für einige der erste Nvidia Launch

Als ob man schon jemals was kommentiert hätte dazu ,solange man das auch offiziell noch nicht möchte

Von der Titan V wusste man auch nix,bis sie Jensen aus der Tasche gezogen hat

Screemer
2018-06-04, 19:44:17
du wirst in zwei monaten kein deutliches upgrade zum gleichen preis bekommen. das ist so sicher wie das amen in der kirche.

Linmoum
2018-06-04, 19:47:11
Warum sollte man HEUTE eine GTX 1080 für 550 Euro kaufen, wenn ich zum gleichen Preis in rund 2 Monaten ein deutliches Upgrade bekomme? Darum geht es.
Welches Upgrade soll das sein? Wir wissen noch nicht einmal, ob es Turing Anfang August schon zu kaufen gibt oder nicht doch erst zur Hot Chips/Gamescom. Oder vielleicht sogar noch etwas später.

Und natürlich wird Nvidia eine XX80 nicht ansatzweise für 550 Euro in den ersten Monaten raushauen, die sind doch nicht völlig bescheuert.

PHuV
2018-06-04, 19:54:44
Warum sollte man HEUTE eine GTX 1080 für 550 Euro kaufen, wenn ich zum gleichen Preis in rund 2 Monaten ein deutliches Upgrade bekomme? Darum geht es.
Ich bezweifel nach wie vor stark, daß Du die neuen Karten zu diesem Preis bekommst! Ich bleibe beim Einstiegspreis von 799 €.

scully1234
2018-06-04, 20:00:08
Ich bezweifel nach wie vor stark, daß Du die neuen Karten zu diesem Preis bekommst! Ich bleibe beim Einstiegspreis von 799 €.
Das wäre dann aber mindestens Titan X/1080TI Leistung mit dem GT104 Topdog

Er sprach doch von der GTX 1080 und damit wohl summa summarum vom GT106, wieso sollte der nicht bei 500 Euro und darunter rangieren?

Mit zu hohen Preisen hilft man nur dem Mitbewerber, aber nicht der eigenen Marktfestigung

Linmoum
2018-06-04, 20:04:01
Er sprach doch von der GTX 1080 und damit wohl summa summarum vom GT106, wieso sollte der nicht bei 500 Euro rangieren?
Er fragte, warum man sich heute noch eine 1080 für 550€ holen sollte, wenn man in (rund) 2 Monaten ein deutliches Upgrade bekommt.

Deutliches Upgrade zur 1080 wären XX80/ti und 'ne Titan. Und das wird's Anfangs definitiv nicht für 550€ geben. Nicht mal ansatzweise.

scully1234
2018-06-04, 20:08:38
Das sagt dir deine Glaskugel oder hast du bereits Nvidias UVP für die neuen Chips?


Ich wüsste nicht was den Preis eines kleineren Stück Siliziums so treiben sollte, das man sich damit einen Bärendienst erweißt,und AMD indirekt in die Hände spielt,anstatt ihnen noch mehr Marktanteile zu entreißen mit ausgeglichenen Preisen

Die Founders Edition steht bei Nvidia nach wie vor für 599 eingepreist (http://www.nvidia.de/graphics-cards/geforce/pascal/gtx-1080/), und auf dem Level (maximal 50 +)dürfte sich wohl auch der Nachfolger bewegen, denn die Rambestückung (8/12 GDDR5 X ???)wird beim kleinen wohl nicht ausschlaggebend sein, das sich das plötzlich um über 200 Euro verteuert

Daredevil
2018-06-04, 20:15:59
Warum sollte man HEUTE eine GTX 1080 für 550 Euro kaufen, wenn ich zum gleichen Preis in rund 2 Monaten ein deutliches Upgrade bekomme? Darum geht es. Wenn ich heute eine 1080 kaufe, „muss“ ich deutlich früher wieder upgraden. Siehe selbst bei 780 Ti vs 980. Innerhalb von weniger als 2 Jahren gibt es viele Games, die auf Kepler suboptimal laufen (30-40 fps), während die 980 noch gemütlich bei 50 fps läuft. Das kann und ist durchaus der Unterschied zwischen flüssig und „na ja irgendwie unbefriedigend mit 30 fps“.
Kauf halt ne 1080ti und sei nicht so arm, dann haste deine 1080+Spekulativ 30% mehr.

Oder sehs mal andersrum, Pascal war vor zwei Jahren schon so gut, dass du vor 2 Jahren schon fast Turing Leistung bekommen hast. ;)
Aber wer sein Leben lang wartet, wird halt immer enttäuscht.

Rampage 2
2018-06-04, 20:19:08
Ich bleibe beim Einstiegspreis von 799 €.

Sowas kann sich sogar Nvidia nicht erlauben - Custom-2080 für 650-700$ und 2080-FE für 799$.

Vergiss niemals, dass du den Dollar nach Euro umrechnen musst - selbst eine Custom-2080 für 650$ wird wohl kaum unter 700€ zu bekommen sein; eine 800$-Karte würde hierzulande über 800€ kosten oder zumindest fast 800€...

R2

JaniC
2018-06-04, 20:31:05
Warum sollte man HEUTE eine GTX 1080 für 550 Euro kaufen

Gute Frage. Habe meine vor 13 Monaten für € 509,- gekauft und zocke seitdem mit dieser Leistung. :D

Kommt Turing, bekomme ich bestimmt noch 400€+ in der Bucht. Denn die Nachfolger werden deutlich teurer werden. Vielleicht ab 699€, ja, aber gute custom sicherlich ab 800, 850 aufwärts.
Sauce: Bauchgefühl.
Und es gibt dann eben genug Leute, die ordentliche Leistung wollen, aber nur 400€ ausgeben können. Die kriegen dann meine gute 1080.

N0Thing
2018-06-04, 20:31:36
Das sagt dir deine Glaskugel oder hast du bereits Nvidias UVP für die neuen Chips?


Ich wüsste nicht was den Preis eines kleineren Stück Siliziums so treiben sollte, das man sich damit einen Bärendienst erweißt,und AMD indirekt in die Hände spielt,anstatt ihnen noch mehr Marktanteile zu entreißen mit ausgeglichenen Preisen

Die Founders Edition steht bei Nvidia nach wie vor für 599 eingepreist (http://www.nvidia.de/graphics-cards/geforce/pascal/gtx-1080/), und auf dem Level (maximal 50 +)dürfte sich wohl auch der Nachfolger bewegen, denn die Rambestückung (8/12 GDDR5 X ???)wird beim kleinen wohl nicht ausschlaggebend sein, das sich das plötzlich um über 200 Euro verteuert

Nvidia hat die GTX 1080 für 789€ im Euroraum auf den Markt gebracht. Die 980Ti hatte zu dem Zeitpunkt auch schon eine Preissenkung hinter sich. Warum sollte Nvidia ausgerechnet bei der aktuellen Lage 150-200€ weniger für eine GTX 1180 verlangen?

Linmoum
2018-06-04, 20:32:11
Ich wüsste nicht was den Preis eines kleineren Stück Siliziums so treiben sollte, das man sich damit einen Bärendienst erweißt,und AMD indirekt in die Hände spielt,anstatt ihnen noch mehr Marktanteile zu entreißen mit ausgeglichenen Preisen

Die Founders Edition steht bei Nvidia nach wie vor für 599 eingepreist (http://www.nvidia.de/graphics-cards/geforce/pascal/gtx-1080/), und auf dem Level (maximal 50 +)dürfte sich wohl auch der Nachfolger bewegen, denn die Rambestückung (8/12 GDDR5 X ???)wird beim kleinen wohl nicht ausschlaggebend sein, das sich das plötzlich um über 200 Euro verteuert
Ist schön, was jetzt ist. Fakt ist, dass die 1080 FE damals mit einer UVP von 789€ an den Start ging. Nvidia würde als nicht plötzlich irgendwas um 200€ verteuern, wenn sie für die FE >750€ haben wollen. Das ist eher das, was zu erwarten ist. Oder welchen Grund hat Nvidia, eine GT104 XX80 ggü. der 1080 hinsichtlich der UVP plötzlich um über 200€ im Preis zu senken? Richtig, keinen. Und wenn's anfangs wieder erst ausschließlich die FE gibt, dann muss man auch den Preis zahlen, den Nvidia will.

scully1234
2018-06-04, 20:42:11
Nvidia hat die GTX 1080 für 789€ im Euroraum auf den Markt gebracht.

Ich erwarte für den Launch genau das selbe Szenario wie hier

https://www.gamestar.de/artikel/nvidia-geforce-gtx-1070-und-1080-uvp-der-founders-edition-auch-in-deutschland-gesenkt,3310983.html

Nvidias Marge ist bereits jetzt mehr als fürstlich , das belegen die Bilanzen

Also besteht kein Grund sich Absatzzahlen zu schmälern ,indem ich Produkte dort platziere wo der Mainstream nicht warm wird mit

Und ich gehe mal nicht davon aus das Nvidia mit den Minern zocken will, um sich auf das wacklige Standbein versteift bei der Einpreisung

Eher würde ich bei der Titan oder später 2080 TI und dem GDDR6 Ram nochmal nen ordentlichen Aufschlag sehen, aber nicht beim Mainstreamchip ,den hier jeder zweite Gamer sehnlichst erwartet zu akzeptablen Preisen

Daredevil
2018-06-04, 20:51:14
GDDR6 wurde ja auch seit Anfang des Jahres nicht unbedingt günstiger.

scully1234
2018-06-04, 20:52:33
Eben

Aber der kleine GT104 braucht denke ich noch keinen GDDR6 wenn er nur etwas über der TitanX sich ansiedelt

Daredevil
2018-06-04, 21:04:04
Auf den Discords, wo ich mich rumtummel, schrieb letztens ein versierter Mitarbeiter von einer Cloud Mining Firma folgendes zum Vergleich.
http://abload.de/img/unbenanntx9up3.png
Performance wohl nur im Zusammenhang des Minings, aber der Rest ist ja auch interessant.
Die Speicherhersteller wollen wohl auch was von dem Nvidia Kuchen. :X

*Falls das natürlich alles stimmt

AffenJack
2018-06-04, 21:13:19
Auf den Discords, wo ich mich rumtummel, schrieb letztens ein versierter Mitarbeiter von einer Cloud Mining Firma folgendes zum Vergleich.
http://abload.de/img/unbenanntx9up3.png
Performance wohl nur im Zusammenhang des Minings, aber der Rest ist ja auch interessant.
Die Speicherhersteller wollen wohl auch was von dem Nvidia Kuchen. :X

*Falls das natürlich alles stimmt

Nach Punkt1 kommt man zum Schluss, dass er Müll erzählt. Die Diesizes für GDDR6 wurden schon gepublished. Gab es glaube mal bei Anandtech, sie sind kleiner als GDDR5, da in kleineren Prozessen und Samsung hatte auch schon gesagt, dass die Produktionskosten 30% geringer sind. Dumm nur, dass bei der Ramknappheit Samsung alleine die Kostensenkung einheimsen wird. :biggrin: Verkaufskosten und Produktionskosten sind eben unterschiedlich. Ich glaube da schon eher den Preisen von Gamersnexus.

BlacKi
2018-06-04, 21:14:52
er meint damit das speicherinterface auf der gpu wenn ich das richtig verstanden habe.

aber was hilft es, wenn die mengen von hbm nicht geliefert werden können die benötigt werden, ausserdem sind die preise doch garantiert schon im vorfeld vertraglich festgehalten worden. NV bestellt doch keine tagespreise^^. und wenn das SI vl 3 mal so groß ist aber auf den chip gesehen nur 3% beträgt? ausserdem sind die speicherpreise nicht so weit kalkulierbar gewesen das man vor 1-2 jahren turing auf hbm hätte umstellen können.

Timbaloo
2018-06-04, 21:41:30
"GDDR6 takes up a much larger wafer space," - Verglichen mit was?
"It costs more to produce per chip" - Verglichen mit was?
"And it's about the same - if not worse - performance than GDD5X/HBM2." - Ähmmm, warum dann überhaupt GDDR6???

Sorry, aber :ulol:

Edit: Mal was anderes: Warum habe ich das Gefühl, dass Turing nur ein oder zwei Chips sein werden? Also ein GT104 und (evtl) ein GT106? Als Lückenfüller bis 7nm + nächste/aktualisiert µArch?

Daredevil
2018-06-04, 21:51:17
Naja, du musst es ja nicht glauben.
Ganz offensichtlich wird hier mit HBM2/GDDR5X verglichen, weil sie das ja auch nennt.
Warum es GDDR6 gibt? Weil es vermutlich kleiner und somit günstiger als der Vorgänger ist. Nur wenn die Speicherhersteller Probleme bei der Herstellung haben oder ihre Preise aufgrund der Nachfrage anziehen, fällt der Kostenoptimierung-Vorteil einfach komplett weg und wenn da keine Mehrperformance geplant ist, bleiben nun einmal fast nur noch Nachteile.

Aber wie oben schon geschrieben, das kommt von jemanden, der Mining Karten einkauft/vermietet/verkauf. Der sieht das vermutlich aus einer anderen Sicht, weil er den scheiß einkaufen muss und damit sein Unternehmen richtig kalkulieren muss.

Screemer
2018-06-04, 21:55:37
Edit: Mal was anderes: Warum habe ich das Gefühl, dass Turing nur ein oder zwei Chips sein werden? Also ein GT104 und (evtl) ein GT106? Als Lückenfüller bis 7nm + nächste/aktualisiert µArch?
seh ich genau so. wird ne gestripte version von volta um den gamern den angesparten mammon aus der tasche zu ziehen und sobald 7nm massproduction ready ist, dann wird was neues kommen. ich seh da auch vor herbst nichts kaufbares. letzteres ist natürlich nur meine vermutung. ich halte juli als kaufdatum für ne neue fe allerdings für sehr unwahrscheinlich.

N0Thing
2018-06-04, 22:59:02
Ich erwarte für den Launch genau das selbe Szenario wie hier

https://www.gamestar.de/artikel/nvidia-geforce-gtx-1070-und-1080-uvp-der-founders-edition-auch-in-deutschland-gesenkt,3310983.html

Nvidias Marge ist bereits jetzt mehr als fürstlich , das belegen die Bilanzen

Also besteht kein Grund sich Absatzzahlen zu schmälern ,indem ich Produkte dort platziere wo der Mainstream nicht warm wird mit

Und ich gehe mal nicht davon aus das Nvidia mit den Minern zocken will, um sich auf das wacklige Standbein versteift bei der Einpreisung

Eher würde ich bei der Titan oder später 2080 TI und dem GDDR6 Ram nochmal nen ordentlichen Aufschlag sehen, aber nicht beim Mainstreamchip ,den hier jeder zweite Gamer sehnlichst erwartet zu akzeptablen Preisen

Wie kommst du auf einen Aufschlag? Wäre doch der gleiche Preis wie beim Vorgänger, wo die alte Generation zuvor auch noch für nen Appel und ein Ei als Restposten verkauft wurde. Vielleicht gehen sie mit dem Preis des vollen GT104 etwas runter und beim abgespeckten etwas herauf, die Verkaufszahlen der beiden Modelle bei Mindfactory waren da ziemlich weit auseinander.

maximus_hertus
2018-06-04, 23:15:39
Gute Frage. Habe meine vor 13 Monaten für € 509,- gekauft und zocke seitdem mit dieser Leistung. :D

Kommt Turing, bekomme ich bestimmt noch 400€+ in der Bucht. Denn die Nachfolger werden deutlich teurer werden. Vielleicht ab 699€, ja, aber gute custom sicherlich ab 800, 850 aufwärts.
Sauce: Bauchgefühl.
Und es gibt dann eben genug Leute, die ordentliche Leistung wollen, aber nur 400€ ausgeben können. Die kriegen dann meine gute 1080.

Das ist doch der Punkt bzw. die Punkte:

Es ist immer ein scheiß Gefühl, wenn man über 12 Monate später sogar noch mehr bezahlen darf. Da steht innerhalb der nächsten 2 bis max. 3 Monate ein Nachfolger bereit. Die Zyklen sind ja mittlerweile auf rund 2 Jahre "geeicht" (September 14, Juni 16, ca. August 18) so dass man da schon gut planen kann.
Dieses mal gab es halt das Problem, dass die 2. Hälfte des Zyklus eine komplett diametral entgegengesetzte Entwicklung genommen hat. Statt leicht sinkende Preise und sehr guter Verfügbarkeit ist ales explodiert. Auch aufgrund des guten USD/EUR Kurses (für den Import) hätte eine 1080 bei "normalem" Verlauf schon Xmas 17 auf 450-480 Euro "fallen" können. Die 1070 entsprechend auf 320-340 Euro. Das wären sehr interessante Preise gewesen die viele für ein Upgrade hätten nutzen können. 3 Jahre nach der GTX 970 bzw. R9 290(X) bekommt man rund 50-70% mehr fps (1070) sowie 8 GB VRAM
zum "üblichen" Preis von 300-350 Euro.

Das war aber nicht die Realität. Nur eine 1060 lag bei 350-400 Euro und die wäre ein Sidegrade mit vielleicht 10-15% besserer Performance. Das ist natürlich übel. Zum Glück waren / sind GTX 970 sowie R9 290 noch schnell genug, selbst wenn es nicht immer für Ultra-Details reicht.

Jetzt sind die Preise langsam da, wo sie schon vor einem JStelltahr waren. Aber jetzt hätte man gerade mal für 2 Monate (von mir aus 3) aktuelle Technik. Das ist zum quasi Preis von Ende 2016 unbefriedigend. Viele haben diesen Upgradezyklus "verpasst" und warten jetzt auf die neuen KArten.


Noch was zum Preis. Stellt euch mal vor, die 1180/2080 kommt für eine UVP von 549-599 USD. Da würden doch alle von einer Preissensation sprechen. Wenn sie dann noch gut lieferbar ist, wow.
Der Trick: Die Turing xx80 ist gar nicht der Top-Dog 104er Chip, sondern ein leicht kastrierter, der möglicherweise sogar minimal langsamer als die 1080 Ti arbeitet. Aber <200W (Performance / Watt Wunder ;) ) Verbrauch, quasi 1080 Ti Leistung, Verfügbar, regelrecht "billig". Das würden nahezu alle enthusiastisch abfeiern.
Der Top-Dog 104er kommt dann als xx80 Ti. Dieser wird die 1080 Ti um 10-20% schlagen, bessere PErf/Watt haben, GDDR6, Raytracing Extras (die kastrierte 104er natürlich auch) und für 799 USD rauskommen.

Damit hätten "alle" recht. Top-Dog 104er wird so teuer wie noch "nie", die xx80 bleibt jedoch im Bereich von 500-600 USD.

Ob es so kommt? Keine Ahnung ;) ICh finde es nicht abwägig. Gerade da eh viele Gamer sehnsüchtig auf bezahlbare Karten warten.

horn 12
2018-06-04, 23:52:54
Und nicht schneller als eine Vega 64 in gereiftem Wein.

maximus_hertus
2018-06-05, 00:15:26
Und nicht schneller als eine Vega 64 in gereiftem Wein.

Meinst du die 1160 / 2060? Jo kann passen, dass die Vega bei doppeltem Stromverbrauch knapp vorne bleibt.

Adam D.
2018-06-05, 13:24:25
Von PCGH (url=http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Computex-Geruechte-Turing-Intel-Coffee-Lake-S-Achtkerner-1257713/)


Demnach wolle Nvidia die ersten Spielergrafikkarten aus der Turing-Familie im August veröffentlichen. Während es wie gewohnt zunächst Referenzmodelle (Founders Editions) geben soll, könnten erste Custom-Designs im Rahmen der Gamescom präsentiert werden, die ihre Pforten vom 21. bis 25. August öffnen wird. Das vorläufige Topmodell werde die Geforce GTX 2080 beziehungsweise GTX 1180 mit GT104-GPU darstellen - über den Namen ist man sich noch uneins. Leistungsmäßig soll sich die GTX 2080/1180 rund 20 bis 30 Prozent vor der GTX 1080 Ti einordnen.

Rancor
2018-06-05, 13:27:17
Ist leider alles komplett Spekulatius. Wir wissen eigentlich überhaupt nichts und das nervt einfach mittlerweile. Es ist auch absolut möglich, das wir 2018 überhaupt keine neuen Chip mehr sehen.

=Floi=
2018-06-05, 13:32:33
20-30% vor der 1080ti
in 8k vielleicht. ;D Das ist ja beste AMD träumerei. Ein wenig mehr realismus hätt ich denen schon zugetraut.

Adam D.
2018-06-05, 13:56:08
Ist leider alles komplett Spekulatius. Wir wissen eigentlich überhaupt nichts und das nervt einfach mittlerweile. Es ist auch absolut möglich, das wir 2018 überhaupt keine neuen Chip mehr sehen.
Ich glaube, wir sollten der Lederjacke nicht auf den Leim gehen. Turing kommt irgendwann dieses Jahr, NV hat wahrscheinlich nur Schiss, dass sie auf vollen Lagern sitzen bleiben und hält sich deshalb bedeckt.

20-30% vor der 1080ti
in 8k vielleicht. ;D Das ist ja beste AMD träumerei. Ein wenig mehr realismus hätt ich denen schon zugetraut.
Ein Leistungsspekulation, die genau im Rahmen der letzten Generationen liegt - völlig abwegig :rolleyes:

Timbaloo
2018-06-05, 14:00:45
20-30% vor der 1080ti
in 8k vielleicht. ;D Das ist ja beste AMD träumerei. Ein wenig mehr realismus hätt ich denen schon zugetraut.
Warum Träumerei? Das ist weniger als 980ti -> 1080...

=Floi=
2018-06-05, 14:16:13
30% vor einer 1080ti --> Das wäre fast volta niveau für die performance karte. :rolleyes:

GT104 --> 1080ti
GT102 --> 1080ti + 40%

Ex3cut3r
2018-06-05, 14:20:06
Wer es dicke hat, kann sich ja eine neue Volta Titan leisten, falls dieses Jahr wirklich nix kommt. Wer jetzt GPU Leistung braucht ist imo Arsch, entweder warten auf die neue Gen, die aber nicht kommt, und eine 1070Ti oder 1080Ti jetzt kaufen, nur um festzustellen, 1 Monat später kommt Turing, da würde ich mir echt in den Arsch beißen.

gbm31
2018-06-05, 14:20:16
Wäre ja schon super 1080Ti bei unter 200W und leise als FE.

Denke aber nicht dran mir in den Arsch zu beissen, spiele schon seit 1 Monat glücklich mit der neuen 1070Ti und werde die wohl eine Weile behalten (wenn wohl auch nicht mehr als 3 Jahre wie die 970 davor...)

yamamoto_dc
2018-06-05, 15:16:36
Angeblich kommt Turing am 30.7.

https://www.tweaktown.com/news/62136/nvidia-launching-next-gen-geforce-gtx-1180-july-30/index.html

BlacKi
2018-06-05, 15:23:17
Angeblich kommt Turing am 30.7.

https://www.tweaktown.com/news/62136/nvidia-launching-next-gen-geforce-gtx-1180-july-30/index.html
lol

"July 30 isn't too far away"

praktisch 2 monate! die FE lieferbar dann zur gamescom? custom modelle mitte september? autsch. und das nur wenn es stimmt.

Der_Korken
2018-06-05, 15:27:22
Warum Träumerei? Das ist weniger als 980ti -> 1080...

Da lag aber auch mal eben ein Full-Node+FinFet bei der Fertigung dazwischen. Diesmal ist es mehr oder weniger gleiche Fertigung. Außer, Nvidia zaubert einen 7nm-Chip aus dem Ärmel, dann wäre 1080Ti+30% nicht abwegig.

Timbaloo
2018-06-05, 15:33:52
Da lag aber auch mal eben ein Full-Node+FinFet bei der Fertigung dazwischen. Diesmal ist es mehr oder weniger gleiche Fertigung. Außer, Nvidia zaubert einen 7nm-Chip aus dem Ärmel, dann wäre 1080Ti+30% nicht abwegig.
Die Pascal-Chips sind aber auch tendenziell klein (Fläche), ein GT104 mit >450mm² wäre ja kein Problem. Ich habe hier noch kein einziges sinnvolles Argument gehört warum sich NV hinsichtlich ihrer Produktpositionierung ändern sollte.

Eine 2080/1180 die nur auf 1080ti rauskommt ist so ziemlich das dämlichste was ich in diesem Thread lesen musste, und da war einiges dabei. Das würde ja nur Hohn und Spott Reviews geben...

Screemer
2018-06-05, 15:35:37
Warum Träumerei? Das ist weniger als 980ti -> 1080...
aha. das ist meiner erinnerung und dem cb index vom letzten jahr nach sogar mehr als der sprung von 980ti ref zur 1080fe. 30% ist da schon sehr nah dran an der realität und das bei nem node wechsel. für 12nm find ich das schon etwas optimistisch.

Adam D.
2018-06-05, 15:36:20
lol

"July 30 isn't too far away"

praktisch 2 monate! die FE lieferbar dann zur gamescom? custom modelle mitte september? autsch. und das nur wenn es stimmt.
Warum denn "autsch"?

Botcruscher
2018-06-05, 15:42:01
für 12nm find ich das schon etwas optimistisch.
Dafür gibt es mit GDDR6 deutlich mehr Bandbreite. Ich seh das entspannt.

BlacKi
2018-06-05, 15:50:47
Warum denn "autsch"?
weil einige damit gerechnet haben sich im juni eine 2080 in den rechner schieben zu können.

Adam D.
2018-06-05, 16:01:18
weil einige damit gerechnet haben sich im juni eine 2080 in den rechner schieben zu können.
Die zwei Monate hält man dann auch noch aus :biggrin: Preis, Liefersituation (Verfügbarkeit von GDDR6?) etc. wird eh dazu führen, dass viele erst im Winter aufrüsten werden, schätze ich mal.

Mangel76
2018-06-05, 17:14:59
Die Pascal-Chips sind aber auch tendenziell klein (Fläche), ein GT104 mit >450mm² wäre ja kein Problem. Ich habe hier noch kein einziges sinnvolles Argument gehört warum sich NV hinsichtlich ihrer Produktpositionierung ändern sollte.

Eine 2080/1180 die nur auf 1080ti rauskommt ist so ziemlich das dämlichste was ich in diesem Thread lesen musste, und da war einiges dabei. Das würde ja nur Hohn und Spott Reviews geben...

Fläche ist das eine, aber Energiebedarf das andere. Hier träumen ja schon welche von 1080Ti+30% bei deutlich unter 200W. Bei sehr ähnlichem Prozess dürfte das schwierig werden.

dargo
2018-06-05, 17:39:19
Dafür gibt es mit GDDR6 deutlich mehr Bandbreite. Ich seh das entspannt.
Wo siehst du da deutlich mehr Bandbreite? GT104 wird garantiert wieder ein 256Bit SI haben. Und mit 14Gbps ergibt das exakt die gleiche Bandbreite die aktuell GP102 mit seinem 384Bit SI 352Bit SI auffährt, nämlich 448GB/s 484GB/s. Ich kann mir nur schwer vorstellen, dass man für nur GT104 gleich die schnellen und auf teureren 16Gbps nimmt. Und selbst wenn wären das nur lächerliche 14% mehr.

Rampage 2
2018-06-05, 17:46:05
Wo siehst du da deutlich mehr Bandbreite? GT104 wird garantiert wieder ein 256Bit SI haben. Und mit 14Gbps ergibt das exakt die gleiche Bandbreite die aktuell GP102 mit seinem 384Bit SI auffährt, nämlich 448GB/s. Ich kann mir nur schwer vorstellen, dass man für nur GT104 gleich die schnellen und auf teureren 16Gbps nimmt. Und selbst wenn wären das nur lächerliche 14% mehr.


TXP und 1080Ti haben 480 bzw. 484GB/sek. und die TXp 547GB/sek. Bandbreite, also 10-20% mehr als eine kolportierte 2080 mit 14Gbps GDDR6.

R2

dargo
2018-06-05, 17:49:04
Ich spreche natürlich von der 1080TI welche die größere Käuferschicht anspricht, die Titan interessiert kaum jemanden. Allerdings habe ich mich beim SI vertan. Es sind 352Bit, dennoch 448GB/s 484GB/s.

Rampage 2
2018-06-05, 17:55:56
Es sind 352Bit, dennoch 448GB/s.


Nochmal, eine 1080Ti hat 484GB/sek. - 352Bit SI multipliziert mit 11Gbps GDDR5X... kannst du ja selber nachrechnen.


Und die TXp spielt sehr wohl eine Relevanz, denn das Produkt der neuen Generation muss mindestens schneller sein als das schnellste Produkt der Vorgängergeneration (TXp). Allerdings wird die 2080 dafür keine so hohe Bandbreite brauchen, wie diese - 14 bis 16Gbps GDDR6 plus nochmals ein paar Prozent verbesserte Framebufferkompression sollten dafür reichen:wink:


R2

dargo
2018-06-05, 18:08:07
Nochmal, eine 1080Ti hat 484GB/sek. - 352Bit SI multipliziert mit 11Gbps GDDR5X... kannst du ja selber nachrechnen.

Habe ich doch geschrieben. :confused:

btw.
Wenn man das ganze auf die TXP projeziert ergibt der Punkt von Botcruscher noch weniger Sinn. Denn mit 16Gbps erreicht GT104 "nur" 512GB/s.

Rampage 2
2018-06-05, 18:29:23
Habe ich doch geschrieben. :confused:

btw.
Wenn man das ganze auf die TXP projeziert ergibt der Punkt von Botcruscher noch weniger Sinn. Denn mit 16Gbps erreicht GT104 "nur" 512GB/s.

Dann hast du dich wohl verschrieben (448 statt 484); so stand es zumindest in deinem letzten Beitrag - ist ja jetzt auch egal;)

512GB/sek. sollten locker reichen, eine TXp zu schlagen - ich bin mir sicher, dass NV wieder ein paar Prozent mit nochmals verbesserter FBC rausquetscht:)

Man muss auch bedenken, dass die TXp fast an der Kotzgrenze betrieben wird, was Speichertakt angeht: 11.4 Gbps - also müssen es 12Gbps-Chips sein - haben halt nicht mehr viel Luft fürs OC. Ich habe mir jetzt gerade ein paar TXp Reviews angeschaut: 6300MHz (also 12.6 Gbps) konnte durch Memory-OC erreicht werden - das sind satte 605GB/sek. SpeicherbandbreiteX-D

Je nachdem, wie gut NV die FBC noch verbessert hat (sofern das überhaupt der Fall ist), kann ich mir gut vorstellen, dass NV auch gleich 16Gbps GDDR6 verbaut, um die TXp schlagen zu können.

R2

basix
2018-06-05, 18:47:59
Je nachdem, wie gut NV die FBC noch verbessert hat (sofern das überhaupt der Fall ist), kann ich mir gut vorstellen, dass NV auch gleich 16Gbps GDDR6 verbaut, um die TXp schlagen zu können.

R2

Ausgehend von den 384bit @ 11 GBit/s wäre das praktisch eine 1zu1 Übersetzung der Bandbreite. Das würde mehr Leistung ermöglichen. Ob eine bessere FBC dazu nötig ist, ist schwer zu sagen. Die TXp ist nicht wirklich (stark) bandbreitenlimitiert. Evtl. muss man gar nichts machen. Eher wird das Tiling noch optimiert (grössere Caches, raffiniertere Algorithmen), damit Off-Chip FBC gar nicht erst relevant ist. An mehr als 16 GBit/s glaube ich zudem nicht, da zu teuer. Eher wird man auf 14 GBit/s setzen, falls wie gesagt das Tiling effizienter funktionieren sollte.

dargo
2018-06-05, 18:50:25
Dann hast du dich wohl verschrieben (448 statt 484); so stand es zumindest in deinem letzten Beitrag - ist ja jetzt auch egal;)

Autsch, sorry... liegt wohl an der Hitze. :usad:

Rampage 2
2018-06-05, 18:58:19
An mehr als 16 GBit/s glaube ich zudem nicht, da zu teuer. Eher wird man auf 14 GBit/s setzen, falls wie gesagt das Tiling effizienter funktionieren sollte.

Ich sagte ja auch 16 und nicht 18 Gbps;) - 16Gbps könnte man vielleicht durch OC auch auf 18 hochprügeln...


Eher wird man auf 14 GBit/s setzen, falls wie gesagt das Tiling effizienter funktionieren sollte.

Naja, 512GB/sek. versus 605GB/sek. sind doch schon fast 20% Unterschied - deswegen könnte ich es mir durchaus vorstellen, dass NV gleich 16Gbps verbaut und die User dann durch OC einen eventuellen Rückstand ausmerzen können...

Aber ja, ich rechne auch eher mit 14Gbps...

R2

scully1234
2018-06-05, 20:02:18
So hab heut Abend nix weiter vor da werde ich nebenan mal Infos besorgen gehen

Brauch nur noch ne Leiter...

https://abload.de/img/mobile.19xspo.jpeg

Adam D.
2018-06-05, 20:06:37
Viel Glück :usad:

BoMbY
2018-06-05, 20:30:00
Ich glaub in Würselen wissen die auch nix ...

Der_Korken
2018-06-05, 21:38:02
Fläche ist das eine, aber Energiebedarf das andere. Hier träumen ja schon welche von 1080Ti+30% bei deutlich unter 200W. Bei sehr ähnlichem Prozess dürfte das schwierig werden.

Genau das meinte ich. Dass Turing die Leistung aus der Chipfläche holen kann ist klar, aber man kann ja nicht einfach sagen, ich pack +50% SMs bei vllt noch 10% mehr Takt drauf und das Teil soll dann genauso viel verbrauchen wie vorher. Wenn Nvidia (Achtung Gedankenspiel!) die TDP auf 225W oder so anhebt und GT102 auslässt bzw. als zweite Turing-Gen in 7nm bringt, wäre der genannte Leistungssprung schon eher möglich.

Jetzt kann man natürlich wieder mit dem Maxwell-Argument kommen und sagen, dass Nvidia das schon mal mit der gleichen Fertigung geschafft hat. Das stimmt, aber wie oft soll ein solcher Sprung durch eine Architekturänderung kommen, vor allem so unmittelbar hintereinander? Maxwell (Pascal zähle ich einfach mal dazu) ist ja schon 50% effizienter als Kepler, d.h. Maxwell ist keine miese Architektur, von der aus man große Sprünge erwarten würde. Wenn Turing nochmal 70% mehr Leistung bei gleichem Verbrauch bringt (so viel schneller als die 1080 müsste er ja sein), wäre er fertigungsbereinigt 2,55x so effizient wie Kepler. Wenn es so einfach wäre, hätte man doch vor Jahren schon ständig solche "Verbesserungen" bringen können, statt immer auf neue Fertigungsverfahren zu warten. Hier hätten ja auch alle gelacht, wenn jemand prophezeiht hätte, dass AMD mit Ryzen 2 12 Kerne auf 4,5Ghz bei gleichem Verbrauch wie Ryzen 1 liefern würde oder dass sich die IPC um 30% erhöht.

Timbaloo
2018-06-05, 22:11:33
Mir ist nicht so ganz klar wie ihr zu euren Abschätzungen kommt, aber wenn ich mir die geschätzen Angaben (https://www.3dcenter.org/news/was-kann-nvidias-ampere-generation-mit-der-12nm-10nm-oder-7nm-fertigung-von-tsmc-erreichen) zu TSMC 16nm vs. 12nm hernehme und ich einen simplen (und dumm linear berechneten) "Shrink" von GP102 (471mm² bei ~230W@Gaming mittel (https://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_1080_Ti/28.html)) bei gleichem Takt ausrechne, komme ich auf:

471mm² * (1-0.2) = 377mm²
230W * (1-0.25) = 173W

Da sind nicht berücksichtigt:

Geringere Leistungsaufnahme durch kleineres SI
mehr ALUs pro Fläche durch kleineres SI
jedwede Architekturverbesserungen
Möglichkeit Chip größer auszulegen bei niedrigerem Takt für mehr Effizienz bei gleicher Performance (und Varianten davon)
...


Edit: Fairerweise würden Tensor Cores (bei nicht-Benutzung, also dem Status Quo der üblichen Spiele-Benchmarks) natürlich etwas kosten.

Der_Korken
2018-06-05, 22:27:10
Bei diesen Prozentangaben wäre ich etwas vorsichtig. Bei 14/16nm wurden damals auch phantastische Zahlen genannt, die am Ende gar nicht erreicht wurden oder als "entweder oder" statt als "und" zu verstehen waren. Dass mit 7nm 180-200% mehr Perf/W allein aus der Fertigung möglich sein soll (s. dein Link), ist doch auch völlig übertrieben.

Adam D.
2018-06-05, 22:31:24
Mir ist nicht so ganz klar wie ihr zu euren Abschätzungen kommt, aber wenn ich mir die geschätzen Angaben (https://www.3dcenter.org/news/was-kann-nvidias-ampere-generation-mit-der-12nm-10nm-oder-7nm-fertigung-von-tsmc-erreichen) zu TSMC 16nm vs. 12nm hernehme und ich einen simplen (und dumm linear berechneten) "Shrink" von GP102 (471mm² bei ~230W@Gaming mittel (https://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_1080_Ti/28.html)) bei gleichem Takt ausrechne, komme ich auf:

471mm² * (1-0.2) = 377mm²
230W * (1-0.25) = 173W

Da sind nicht berücksichtigt:

Geringere Leistungsaufnahme durch kleineres SI
mehr ALUs pro Fläche durch kleineres SI
jedwede Architekturverbesserungen
Möglichkeit Chip größer auszulegen bei niedrigerem Takt für mehr Effizienz bei gleicher Performance (und Varianten davon)
...


Edit: Fairerweise würden Tensor Cores (bei nicht-Benutzung, also dem Status Quo der üblichen Spiele-Benchmarks) natürlich etwas kosten.
Das ist ein "entweder/oder". Die Vorteile von 12nm werden minimal sein, NV wird ohne deutlich größeren DIE bzw. höheres TDP die erwarteten Performance-Zuwächse nicht erreichen können.

Timbaloo
2018-06-05, 22:37:29
Es ist eine transparente Rechnung anhand der Daten die wir haben. Mag sein, dass die womöglich nicht 100%ig stimmen, aber irgendwie finde ich das wesentlich nachvollziehbarer als "Architekurverbesserungen wird es nicht geben weil es in der Vergangenheit mal 50%-Sprünge gab". Weil die Argumentation ist... Sorry.

Das ist ein "entweder/oder". Die Vorteile von 12nm werden minimal sein, NV wird ohne deutlich größeren DIE bzw. höheres TDP die erwarteten Performance-Zuwächse nicht erreichen können.
Bitte lesen, ich habe keine 10% Taktsteigerung reingerechnet.

Tesseract
2018-06-05, 23:20:27
Die Pascal-Chips sind aber auch tendenziell klein (Fläche), ein GT104 mit >450mm² wäre ja kein Problem.

pascal-chips sind klein weil 16nm pro fläche deutlich teuer ist als 28nm. ein 12nm-chip mit >400mm² ist keine "104"-klasse mehr sondern "102", ganz besonders wenn wenn es kein salvage part wie die 1080ti werden soll.

Rampage 2
2018-06-05, 23:31:46
pascal-chips sind klein weil 16nm pro fläche deutlich teuer ist als 28nm. ein 12nm-chip mit >400mm² ist keine "104"-klasse mehr sondern "102", ganz besonders wenn wenn es kein salvage part wie die 1080ti werden soll.

Wieviel Prozent der Die-Size nimmt der Memory-Controller ein? Da GT104 nahezu garantiert bei 256Bit bleiben wird, sollte hier keine exakte Skalierung der Chipfläche mit der Einheitenanzahl vorherrschen (also z.B. trotz 40% mehr Einheiten ggü. GP104 "nur" 30-35% mehr Chipfläche). Außerdem bringt der 12nm-Prozess auch ein wenig Flächenersparnis (mindestens 5%) ggü. 16FF - sonst würde man es ja nicht 12nm nennen.

Ich finde schon, dass man einen GT104 (GP104 +40%) in 400-420mm^2 quetschen kann, aber es stimmt schon, dass Stromverbrauch und Herstellungskosten trotzdem ansteigen:wink:

R2

Timbaloo
2018-06-05, 23:34:36
@Tesseract: Ob das Ding nun als 104 oder als 102 klassiert wird ist ja erstmal total egal.

Tesseract
2018-06-05, 23:47:10
@Tesseract: Ob das Ding nun als 104 oder als 102 klassiert wird ist ja erstmal total egal.

es geht weniger um den namen als um die preisklasse. ein GT10x mit >400nm würde - besonders bei aktuellen rampreisen - eher für 700-800€ an den start gehen. das ist etwas völlig anderes als die 1080 damals.

Screemer
2018-06-05, 23:50:28
es geht weniger um den namen als um die preisklasse. ein GT10x mit >400nm würde - besonders bei aktuellen rampreisen - eher für 700-800€ an den start gehen. das ist etwas völlig anderes als die 1080 damals.

Warum? Die 1080 ist doch als Fe auch mit 789€ gestartet.

Tesseract
2018-06-05, 23:55:20
Warum? Die 1080 ist doch als Fe auch mit 789€ gestartet.

ich meine 700-800€ MSRP und normale verfügbarkeit der customs.

Wieviel Prozent der Die-Size nimmt der Memory-Controller ein?

schwer zu sagen. GDDR6 ist pro channel sicher größer als GDDR5x. ich würde sagen prozentuell etwas weniger als bei GP102, aber nicht viel.

Hübie
2018-06-06, 01:35:55
Diese theoretischen Bandbreitenschubsereien sind eigentlich nicht wirklich repräsentativ, da man in der Praxis wohl seltenst den Fall hat, dass ein dataset über sämtliche memory channels gestriped wird. Oftmals sind es kleinere Datenfragmente die hoch- oder heruntergeladen werden (on-/off-chip). Genau in die Kerbe sprang GDDR5X mit doppeltem Prefetching (8->16 Bit pro cycle) und springt GDDR6 mit zwei Speicherkanälen zu einem Modul hin und zurück. Interleaving kann hier also noch Latenzen "verstecken". Für einige Mining-Algorithmen könnte das nachteilig sein, wobei GDDR5X einen Fallback hat. Möglicherweise ginge dies auch bei GDDR6 und dann hat man zwei Kanäle.

Xavier hat übrigens 256 Bit LPDDR4. Soviel wie ne fette CPU (4x64 Bit I/O; alles >LGA-2011 aka Sockel R) . :D

robbitop
2018-06-06, 07:32:21
Auch wenn der FB Verkehr relativ fragmentiert ist, wird er dennoch gebündelt. Es werden ganze Tile gelesen und geschrieben (gecacht über den tile cache im Backend). Insofern gehe ich schon davon aus, dass man die einzelnen memorychannels schon relativ effizient nutzen kann in den meisten Fällen. Latenz ist, zumindest für Grafikberechnung, weniger kritisch. Caches, tiefe Pipelines, extrem viele wavefronts, recht lange Durchlaufzeiten etc. Mining ist natürlich was anderes. (IMO kein Verlust für die Gesellschaft wenn das auf gpus nicht mehr so toll funktioniert... reinste Energieverbrennung)

Hübie
2018-06-06, 08:11:18
Ja, effizient schon, aber alle gleichzeitig eher weniger. Ein Channel müsste demnach aus 2x2x8 Bit bei GDDR5 bestehen wenn ich nicht irre, 2x1x16 Bit bei GDDR5X und 2x2x16 Bit für GDDR6. Richtig so? Habe die Paper nicht mehr vor Augen. Müssten JESD235 & JESD236 sein.

Troyan
2018-06-06, 14:13:20
Interessant fand ich das hier:

https://abload.de/img/sizeperoperationpsu1j.png

Macht einfach deutlich, dass ein Int8 basierender Tensor Core viel kleiner wäre, als die FP16 Tensor Cores von V100 und ist auch so mal interessant zu sehen.

Laut nVidias FAQ zu Jetson Xavier unterstützen Xaviers TensorCores FP16:
https://developer.nvidia.com/embedded/jetson-xavier-faq

Oh und Xavier scheint der erste Prozessor zu sein, der PCIe 4.0 ebenfalls unterstützt.

Damit kann man wohl für Turing sagen: TensorCores mit (mindesten) FP16, PCIe 4.0, GDDR6.

AffenJack
2018-06-06, 14:19:21
Laut nVidias FAQ zu Jetson Xavier unterstützen Xaviers TensorCores FP16:
https://developer.nvidia.com/embedded/jetson-xavier-faq

Oh und Xavier scheint der erste Prozessor zu sein, der PCIe 4.0 ebenfalls unterstützt.

Damit kann man wohl für Turing sagen: TensorCores mit (mindesten) FP16, PCIe 4.0, GDDR6.

Hmm stimmt, dann hab ich da kein Plan. Int8 Geschwindigkeit wurde bei Volta nie genannt oder? Denn es bleibt immernoch die 2fache Int8 Geschwindigkeit bei Xavier. Wahrscheinlich müssen wir bis zur Hotchips Präsentation von Xavier und Next-Gen warten, bis wir mehr erfahren.

Dural
2018-06-06, 14:29:32
hmm da scheint NV Volta in 12/16nm für Gaming wirklich storniert und gleich Turing in 7nm bringen zu wollen.

Das dürfte so ziemlich das erste mal sein wo man eine Architektur mangels Konkurrenz gleich überspringt.

Troyan
2018-06-06, 14:30:09
Es wird kein 7nm von nVidia dieses Jahr geben. Turing wird 12nm sein.

Hmm stimmt, dann hab ich da kein Plan. Int8 Geschwindigkeit wurde bei Volta nie genannt oder? Denn es bleibt immernoch die 2fache Int8 Geschwindigkeit bei Xavier. Wahrscheinlich müssen wir bis zur Hotchips Präsentation von Xavier und Next-Gen warten, bis wir mehr erfahren.

Volta unterstützt auch die DL Operationen für 8bit und 16bit INT. Aber die Tensors haben eine Mindestgenauigkeit von FP16.

Geächteter
2018-06-06, 15:22:03
hmm da scheint NV Volta in 12/16nm für Gaming wirklich storniert und gleich Turing in 7nm bringen zu wollen.
Das dürfte so ziemlich das erste mal sein wo man eine Architektur mangels Konkurrenz gleich überspringt.
Wohl viel eher absichtlich verzögert, um sich noch ein bisschen Reifezeit für 7 nm und große Chips zu gönnen, was eine ähnlich schwere Geburt werden wird wie Intels 10 nm.
Wenn das so weiter geht, sind das dann schon die letzten Prozesse, die noch wirtschaftlich darstellbar sind. Die Hersteller sind hinter den Kulissen, also abseits der Power-Point-Folien wohl nicht wirklich weitergekommen. Von Fertigungsprozess zu Fertigungsprozess werden die Verzögerungen und das Theater größer und das Marketing übt sich im Umlabeln.

Dural
2018-06-06, 15:26:30
An 12nm glaube ich nicht mehr, AMD hält ja schon 7nm Chips in die Kamera!

Vor allem macht es doch null sinn so spät noch 12nm chips zu bringen, wenn spätestens 2019 definitiv 7nm Chips kommen müssen.

dargo
2018-06-06, 15:33:52
An 12nm glaube ich nicht mehr, AMD hält ja schon 7nm Chips in die Kamera!

Was soll der blödsinnige Vergleich schon wieder? Welcher Gamer zahlt solche Preise?
https://www.mediafrost.de/NVIDIA-Quadro-GV100-32GB-HBM2-4x-DisplayPort.html?partner=4
https://www.gamepc.com/shop/products?sku=AMD-INSTINCT-MI25

Was glaubst du wohl was ein V20 mit 32GB HBM2 kosten wird? Lasst mal endlich eure Träumerei weg. Vega20 in 7nm ist kein Gamingchip!

Dural
2018-06-06, 15:37:19
Ehm habe ich was anders gesagt?

Es zeigt nur das man grössere 7nm chips in Q3/Q4 ausliefern will, nicht mehr und nicht weniger. :rolleyes:

dargo
2018-06-06, 15:46:33
Und denke mal scharf nach warum AMD diesen Chip 2018 nicht im Gamingbereich ausliefert. :rolleyes: Du ziehst hier gerade Vergleiche zu einem Gamingchip von Nvidia @Turing, was kompletter Unsinn ist.

Adam D.
2018-06-06, 15:47:36
An 12nm glaube ich nicht mehr, AMD hält ja schon 7nm Chips in die Kamera!

Vor allem macht es doch null sinn so spät noch 12nm chips zu bringen, wenn spätestens 2019 definitiv 7nm Chips kommen müssen.
So früh wie man das hätte planen müssen, kann ich mir nicht vorstellen, dass NV das Doppelrisiko Speicher und Fertigungstechnologie so aggressiv eingegangen wäre.

Raff
2018-06-06, 15:55:53
So früh wie man das hätte planen müssen, kann ich mir nicht vorstellen, dass NV das Doppelrisiko Speicher und Fertigungstechnologie so aggressiv eingegangen wäre.

Eher nicht, die FX 5800 Ultra hatten wir ja schon. ;)

MfG,
Raff

yamamoto_dc
2018-06-06, 15:56:38
Die Frage ist, ob wirklich so viele Leute noch bei 12nm Chips zugreifen werden, wenn AMD schon mit 7nm winkt. Allerdings sollte man Nvidias Mindshare und die Marke Geforce nicht unterschätzen. Es wird wohl ein spannender Herbst. :wink:

Der_Korken
2018-06-06, 16:04:36
Die Frage ist, ob wirklich so viele Leute noch bei 12nm Chips zugreifen werden, wenn AMD schon mit 7nm winkt. Allerdings sollte man Nvidias Mindshare und die Marke Geforce nicht unterschätzen. Es wird wohl ein spannender Herbst. :wink:

Sehe kein Problem mit 12nm. Für Navi gibt es keinen genauen Termin außer "2019" und das Gerücht, dass Navi nur eine Midrange-Generation wie Polaris werden soll, d.h. Turing wäre mindestens 6 Monate früher am Markt und hätte im oberen Bereich ohnehin keine Konkurrenz. Dazu kommt, dass viele, die gerne aufrüsten wollten, es wegen der Mining-Preise lieber aufgeschoben haben.

BlacKi
2018-06-06, 16:09:07
Die Frage ist, ob wirklich so viele Leute noch bei 12nm Chips zugreifen werden, wenn AMD schon mit 7nm winkt. Allerdings sollte man Nvidias Mindshare und die Marke Geforce nicht unterschätzen. Es wird wohl ein spannender Herbst. :wink:
ein 400mm² chip mit gddr6 der in allen bereichen das alte schlägt wird doch blind gekauft. selbst wenn v20 als gamer chip aufschlagen würde, müsste sich turing nicht dahinter verstecken.

Dural
2018-06-06, 16:09:36
Und denke mal scharf nach warum AMD diesen Chip 2018 nicht im Gamingbereich ausliefert. :rolleyes: Du ziehst hier gerade Vergleiche zu einem Gamingchip von Nvidia @Turing, was kompletter Unsinn ist.

Bis jetzt ist kein Datum bekannt, die Karten können genau so gut erst nächstes Jahr kommen.


Aber mir soll hier mal einer erklären was eine Karten Generation bringen soll die maximal 1 Jahr auf dem Markt wäre? Vor allem nach dem Pascal satte 3 Jahre lang aktuell war.

Wie schon gesagt, 12nm macht ende 2018 null sinn.

Der_Korken
2018-06-06, 16:15:15
Aber mir soll hier mal einer erklären was eine Karten Generation bringen soll die maximal 1 Jahr auf dem Markt wäre? Vor allem nach dem Pascal satte 3 Jahre lang aktuell war.

Wie schon gesagt, 12nm macht ende 2018 null sinn.

Gründe für den späten Launch kann es viele geben.

- Nvidia wollte sich beim Mining-Boom noch mit alten GPUs die Taschen vollstopfen
- Nvidia sah generell nicht die Notwendigkeit nachzulegen
- GDDR6 war nicht oder nicht in ausreichender Geschwindigkeit verfügbar oder zu teuer

Das Geld für die Entwicklung hat man ja eh schon 2015/2016 ausgegeben, warum also das Design wegwerfen? 7nm wird erstmal ziemlich teuer sein.

Außerdem ist Pascal erst zwei Jahre alt, nicht drei. GP102 sogar nur 22 Monate und die 1080Ti nur knapp 15 Monate.

Dural
2018-06-06, 16:21:43
Schon mal auf die Idee gekommen das Turing nur ein Ampere/Volta in 7nm ist?

Zeit war völlig genug da um das auf die Beine zu stellen. Zudem NV mittlerweile raus hauen können was sie wollen, ich erinnere nur mal an GV100 vom letzten Jahr wo jeder über den Chip (Grösse, 12nm) überrascht war.

Adam D.
2018-06-06, 16:24:03
Schon mal auf die Idee gekommen das Turing nur ein Ampere/Volta in 7nm ist?
7nm-Volumenproduktion für Sommer 2018 ist einfach unrealistisch. Wer hindert NV zudem dran, Turing 2019 in 7nm zu refreshen?

dargo
2018-06-06, 16:24:57
Zudem NV mittlerweile raus hauen können was sie wollen, ich erinnere nur mal an GV100 vom letzten Jahr wo jeder über den Chip (Grösse, 12nm) überrascht war.
Warum haut NV dann kein =>800mm² Monster für das Gaming-Segment raus? :rolleyes: Man, man, man... manche haben hier eine Vorstellung was die Entwicklung von einem Chip angeht, das geht auf keine Kuhhaut.

Dural
2018-06-06, 16:26:58
Ja klar der Gaming Turing wäre 800mm2 gross?
Wir reden hier von einem ca. 300mm2 GT104 Chip...


7nm-Volumenproduktion für Sommer 2018 ist einfach unrealistisch. Wer hindert NV zudem dran, Turing 2019 in 7nm zu refreshen?

Ich habe auch nichts von Sommer gesagt, sondern eher Winter 2018/2019.

NV will ja gar nichts zu neuen Gaming Produkten sagen, das deutet für mich jetzt nicht auf einen baldigen Start hin.

VooDoo7mx
2018-06-06, 16:30:03
Die Frage ist, ob wirklich so viele Leute noch bei 12nm Chips zugreifen werden, wenn AMD schon mit 7nm winkt. Allerdings sollte man Nvidias Mindshare und die Marke Geforce nicht unterschätzen. Es wird wohl ein spannender Herbst. :wink:

Ja ich sehe mich schon vor dem virtuellen Regal stehen:

"Hmm... nehme ich jetzt diese neue High End nVidia Karte mit 12nm oder warte ich 6 Monate+ auf den nächsten AMD Chip der nur halb so schnell ist aber dafür in 7nm gefertigt ist? ich meine Seven fucking awsome NM, besser geht es doch gar nicht mehr!!!1 schließlich ist das einzige worum es beim High End Grafikkartenkauf ankommt die Größe der Fertigungstechnologie von der GPU. Weil es kommt doch nur auf die Größe an, nicht auf die Technik. :crazy::hammer::crazy:

Ja ne ist klar :facepalm:

Daredevil
2018-06-06, 16:32:05
Wer sagt überhaupt, dass Nvidia dieses Jahr genug Stückzahlen abbekommt um Flächendeckend zu produzieren?
Seit einem Jahr sind Big Player im Spiel, die es vor zwei Jahren noch nicht gab und die haben ebenfalls Interesse an 7nm Chips in diesem Jahr.
Wenn AMD ebenfalls bei TSMC bestellt hat für ihr 7nm Lineup..... ich meine, die können ja auch nicht zaubern.
https://pbs.twimg.com/media/DT7PuWIWsAA95W5.jpg
https://twitter.com/jwangARK/status/954429531678543872/photo/1?ref_src=twsrc%5Etfw&ref_url=https%3A%2F%2Fwww.computerbase.de%2F2018-01%2Ftsmc-wafer-bitmain-nvidia%2F

Adam D.
2018-06-06, 16:35:45
Ich habe auch nichts von Sommer gesagt, sondern eher Winter 2018/2019.

NV will ja gar nichts zu neuen Gaming Produkten sagen, das deutet für mich jetzt nicht auf einen baldigen Start hin.
Ich finde, es fühlt sich exakt wie 2016 an: Im April 2016 wurden die Gerüchte dichter, im Mai wurde gelauncht. Alle Medien, die auf der Computex mit der Industrie gequatscht haben, reden von Ende Juli/August.

dargo
2018-06-06, 16:35:50
Ja klar der Gaming Turing wäre 800mm2 gross?
Wir reden hier von einem ca. 300mm2 GT104 Chip...

Du hast gesagt NV kann machen was sie wollen!

yamamoto_dc
2018-06-06, 16:56:42
Ja ich sehe mich schon vor dem virtuellen Regal stehen:

"Hmm... nehme ich jetzt diese neue High End nVidia Karte mit 12nm oder warte ich 6 Monate+ auf den nächsten AMD Chip der nur halb so schnell ist aber dafür in 7nm gefertigt ist? ich meine Seven fucking awsome NM, besser geht es doch gar nicht mehr!!!1 schließlich ist das einzige worum es beim High End Grafikkartenkauf ankommt die Größe der Fertigungstechnologie von der GPU. Weil es kommt doch nur auf die Größe an, nicht auf die Technik. :crazy::hammer::crazy:

Ja ne ist klar :facepalm:


Mal abwarten ob Turing dann wirklich so viel schneller sein wird, wenn er überhaupt noch dieses Jahr kommt. :popcorn:

Troyan
2018-06-06, 17:03:27
Mal abwarten ob Turing dann wirklich so viel schneller sein wird, wenn er überhaupt noch dieses Jahr kommt. :popcorn:

Volta ist 50% effizienter als Pascal. Ein 400mm^2 GT104 wird daher locker flockig mit Vega@7nm mithalten. Der Unterschied ist, dass nVidia einen älteren, günstigeren Prozess und "billigen" GDDR6 Speicher verwenden kann.

7nm in diesem Jahr wird vor Allem von Apple und Qualcom verwendet werden. Und da nVidia, im Gegensatz zu AMD, eben ihre Kunden mit Massen von Chips beliefern muss, kann man keine Fake-Karte produzieren, um den Aktienkurs zu pushen.

Mangel76
2018-06-06, 17:36:45
Volta ist 50% effizienter als Pascal. Ein 400mm^2 GT104 wird daher locker flockig mit Vega@7nm mithalten. Der Unterschied ist, dass nVidia einen älteren, günstigeren Prozess und "billigen" GDDR6 Speicher verwenden kann.

7nm in diesem Jahr wird vor Allem von Apple und Qualcom verwendet werden. Und da nVidia, im Gegensatz zu AMD, eben ihre Kunden mit Massen von Chips beliefern muss, kann man keine Fake-Karte produzieren, um den Aktienkurs zu pushen.

50% effizienter? Wo hast du das her? Im Test bei HWLUXX (https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/45199-nvidia-titan-v-volta-architektur-im-gaming-test.html) ist die Titan V teilweise langsamer als eine 1080 Ti bei ähnlicher Leistungsaufnahme. Selbst in Spielen, die ihr gut liegen, sind es deutlich weniger als 50% (Wolfenstein 2 legt in UHD knapp 30% zu). In Witcher 3 liegt sie zwischen der 1080 Ti FE und 1080 Ti Custom, genau wie beim Verbrauch unter Last. Ich sehe da keinen architektur- oder prozessbedingten breiten Anstieg der Effizienz, höchstens in Spezialfällen.

Troyan
2018-06-06, 17:38:53
50% effizienter? Wo hast du das her? Im Test bei HWLUXX (https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/45199-nvidia-titan-v-volta-architektur-im-gaming-test.html) ist die Titan V teilweise langsamer als eine 1080 Ti bei ähnlicher Leistungsaufnahme. Selbst in Spielen, die ihr gut liegen, sind es deutlich weniger als 50% (Wolfenstein 2 legt in UHD knapp 30% zu). In Witcher 3 liegt sie zwischen der 1080 Ti FE und 1080 Ti Custom, genau wie beim Verbrauch unter Last. Ich sehe da keinen architektur- oder prozessbedingten breiten Anstieg der Effizienz, höchstens in Spezialfällen.

GV100 ist 50% effizienter als GP100. Das kommt direkt von nVidia. Jeder anderer Vergleich erübrigt sich ja...

Screemer
2018-06-06, 17:42:12
andere geben zumindest quellen für ihre angaben an. du wie immer nicht. warum? so schwer ist das doch nicht.

Mangel76
2018-06-06, 17:44:28
GV100 ist 50% effizienter als GP100. Das kommt direkt von nVidia. Jeder anderer Vergleich erübrigt sich ja...
:confused:

Der_Korken
2018-06-06, 17:45:52
Bei CB sind es +30% für die Titan V zur 1080Ti FE (Link (https://www.computerbase.de/2018-05/mifcom-miniboss-titan-v-test/2/#diagramm-performancerating-fps-3840-2160)). Stromverbrauch laut Luxx genauso wie die 1080Ti FE. Ist natürlich schwer zu sagen, wie groß beim Verbrauch der Ballast der DP- und Tensor-Units ist. Allerdings wird auch HBM2 verwendet, der (normiert) um einiges sparsamer als GDDR5X ist.

Troyan
2018-06-06, 17:47:03
andere geben zumindest quellen für ihre angaben an. du wie immer nicht. warum? so schwer ist das doch nicht.

Die Quelle ist hier im Thread verlinkt. Entweder du liest hier mit und bildest dich selbst weiter oder du lässt es andere anzugreifen.

Ich denke, dass Posting wirst du finden.

Bei CB sind es +30% für die Titan V zur 1080Ti FE (Link (https://www.computerbase.de/2018-05/mifcom-miniboss-titan-v-test/2/#diagramm-performancerating-fps-3840-2160)). Stromverbrauch laut Luxx genauso wie die 1080Ti FE. Ist natürlich schwer zu sagen, wie groß beim Verbrauch der Ballast der DP- und Tensor-Units ist. Allerdings wird auch HBM2 verwendet, der (normiert) um einiges sparsamer als GDDR5X ist.


Nicht bei 653GB/s. Hier wird exakt der selbe Fehler gemacht, wie bei GP100. GP100 steht nicht so gut gegenüber GM200 dar. GP102 ist rund 20% effizienter als GP100.

Screemer
2018-06-06, 17:50:18
Die Quelle ist hier im Thread verlinkt. Entweder du liest hier mit und bildest dich selbst weiter oder du lässt es andere anzugreifen.

Ich denke, dass Posting wirst du finden.
ich hab dich nicht angegriffen. es ist schlicht eine verdammte Unart zweimal auf einer Seite Zahlen in den Raum zu werfen ohne sie zu verlinken. Ich hab weder Lust noch Zeit mir jeden Post den ich vielleicht verpasst habe nachträglich durchzulesen. Mangels Quelle konnte ich nun nachlesen, denn er hat sie verlinkt. Du wie immer nicht. Ist es dir nicht zu dumm einfach noch mal einen Beitrag ohne den nachgefragten Inhalt zu verfassen? Ach was frag ich eigentlich.

AffenJack
2018-06-06, 17:58:49
Digitimes reiht sich ein in die Riege der Seiten die von August für Turing sprechen. Zusätzlich ein kleiner Hint zu 7nm.

New GeForce GPU to come in August

When asked about when Nvidia will release its next-generation GeForce GPU platform, Huang said it still takes some time. But industry sources expect the new platform to still be built using TSMC's 12nm process and hit the market by the end of August 2018 at the latest to stimulate demand in the gaming market.

The sources also expect Nvidia's new GPU built on TSMC's 7nm process will be available in 2019, with trial production likely to start in the fourth quarter of 2018.

The sources indicated that as Intel still dominates the global market for server platforms, it will take time for Nvidia to develop a solid presence in the market. They added that Nvidia will still rely on PC graphics card chipset solutions for profitability and face competition from Intel in AI chip market.

https://www.digitimes.com/news/a20180605PD206.html?mod=3&q=tsmc

Ich könnte mir gut vorstellen, dass es bei der hier erwähnten 7nm GPU um den Volta Nachfolger für HPC geht. Würde da dann für Q2 Verfügbarkeit sprechen.

Mangel76
2018-06-06, 17:59:19
Bei CB sind es +30% für die Titan V zur 1080Ti FE (Link (https://www.computerbase.de/2018-05/mifcom-miniboss-titan-v-test/2/#diagramm-performancerating-fps-3840-2160)). Stromverbrauch laut Luxx genauso wie die 1080Ti FE. Ist natürlich schwer zu sagen, wie groß beim Verbrauch der Ballast der DP- und Tensor-Units ist. Allerdings wird auch HBM2 verwendet, der (normiert) um einiges sparsamer als GDDR5X ist.

Ist schon eigenartig, Wolfenstein 2, der Bestcase bei HWLUXX mit fast +30%, zeigt bei CB nur +6% auf die FE, bei P99 sogar schlechter. Aber das die Ergebnisse bei W2 sehr unterschiedlich ausfallen können, haben wir ja schon mehrfach gesehen.

Selbst hier erreicht kein Spiel die 50%. Kann ja sein, dass Titan V bei bestimmten professionellen Anwendungen 50% effizienter ist als Pascal, aber daraus jetzt auf eine ebenso große Steigerung der Spieleffizienz zu schließen, halte ich für sehr gewagt.

Troyan
2018-06-06, 18:05:56
Digitimes reiht sich ein in die Riege der Seiten die von August für Turing sprechen. Zusätzlich ein kleiner Hint zu 7nm.



https://www.digitimes.com/news/a20180605PD206.html?mod=3&q=tsmc

Ich könnte mir gut vorstellen, dass es bei der hier erwähnten 7nm GPU um den Volta Nachfolger für HPC geht. Würde da dann für Q2 Verfügbarkeit sprechen.

Ampere wird in März 2019 angekündigt. Dann ist Volta auch schon 20 Monate alt...

BlacKi
2018-06-06, 18:23:47
Selbst hier erreicht kein Spiel die 50%. Kann ja sein, dass Titan V bei bestimmten professionellen Anwendungen 50% effizienter ist als Pascal, aber daraus jetzt auf eine ebenso große Steigerung der Spieleffizienz zu schließen, halte ich für sehr gewagt.
ich sehe weder bei dem vergleich gp102 vs gv100 noch gp100 vs gv100 ansätze die man auf turing aka "gaming volta" übertragen könnte. da sind doch viel zu viele unbestimmte faktoren.

Mangel76
2018-06-06, 18:31:53
ich sehe weder bei dem vergleich gp102 vs gv100 noch gp100 vs gv100 ansätze die man auf turing aka "gaming volta" übertragen könnte. da sind doch viel zu viele unbestimmte faktoren.
Das war genau das, was ich damit sagen wollte. Jemand behauptete aber, dass Volta 50% effizienter ist, und dies daher für Gamingableger auch gelten würde.

Troyan
2018-06-06, 18:48:47
Das war genau das, was ich damit sagen wollte. Jemand behauptete aber, dass Volta 50% effizienter ist, und dies daher für Gamingableger auch gelten würde.

Richtig, Turing könnte viel effizienter sein. ;D

Natürlich gilt es auch für die Gaming-Ableger. Die sind nämlich, oh Wunder, auf Gaming optimiert.

Der_Korken
2018-06-06, 20:16:17
Nicht bei 653GB/s. Hier wird exakt der selbe Fehler gemacht, wie bei GP100. GP100 steht nicht so gut gegenüber GM200 dar. GP102 ist rund 20% effizienter als GP100.

Selbst bei 653GB/s HBM2 vs 484GB/s GDDR5X würde ich noch sagen, dass ersteres weniger verbraucht, wenn man IMC+PHYs mit einrechnet. Oder was genau willst du sagen?

Gibt es irgendwo gescheite Gaming-Benchmarks von GP100 vs GP102? Am besten von der 250W-Version, damit man besser mit der 1080Ti vergleichen kann. Wenn man GP100 einfach auf 300W hochzieht und der Chip den Mehrverbrauch nicht 1:1 in Mehrleistung umsetzt, ist das ja nicht gleich ein Effizienzgewinnverlust. Eine 1080Ti@+20%PT (ohne manuelles UV) ist auch nicht 20% schneller als stock.

robbitop
2018-06-06, 20:30:16
Was nicht genutzt wird, sollte an sich auch powergaten. Bedeutet, dass Tensorcores in (heutigen) Spielen zu keiner Leistungserhöhung führen sollten.
Der 12nm Prozess führt laut TSMC auch zu einer Erhöhung der Perf/W. ~10 %.

Mancko
2018-06-06, 20:30:55
Ich könnt mir vorstellen, dass Nvidia jetzt erstmal GT104 und GPUs darunter in 12nm bringt. Der Prozess ist billiger als 7nm und nicht mit so hoher Nachfrage in der Anfangszeit behaftet. Die eigenen Pascal Produkte haben schon eine irrsinnige Effizienz. Die wird beim Nachfolger eher nochmal zulegen. Da kommt man mit 12nm sehr gut hin und hat keine Kapazitätsengpässe. Insbesondere letzteres ist in den Preissegmenten dann schon sehr wichtig. Bei 7nm wird man da vermutlich nicht genug Kapazität haben und wenn man die selber nicht hat weiß man auch, dass der Konkurrent diese nicht hat. Sprich für die Produkte GT104 und abwärts wird man keine 7nm Konkurrenz fürchten müssen schon gar nicht in Unmengen lieferbar. Insofern kann man da schon in aller Ruhe erstmal 12nm nutzen und den Markt dann schön mit Karten zumüllen.

7nm wird man dann m.E. in 2019 bringen und zwar einmal für einen V100 Nachfolger im HCP/AI Bereich und dann etwas später für eine Enthusiast Gaming GPU ala GT102. Bei beiden, insbesondere ersterem ist das Preisniveau so hoch, dass auch die Kosten für 7nm egal sind. Nvidia wird diese Teile im 8.000 Euro aufwärts Bereich verkaufen, idealerweise noch durch eigene Server gleich abgerundet. Nvidia mausert sich da eh immer mehr zum Komplettanbieter. Die verkaufen da zunehmend nicht nur die GPU sondern lieber gleich den ganzen Server. Macht auch Sinn weil es mehr Asche bringt.

Tesseract
2018-06-06, 21:39:50
Bei 7nm wird man da vermutlich nicht genug Kapazität haben und wenn man die selber nicht hat weiß man auch, dass der Konkurrent diese nicht hat. Sprich für die Produkte GT104 und abwärts wird man keine 7nm Konkurrenz fürchten müssen schon gar nicht in Unmengen lieferbar.

da muss ich widersprechen: selbst wenn ein konkurrenzprodukt nicht lieferbar ist können allein die daten am papier die absatzzahlen der erhältlichen produkte drücken. paperlaunches existieren aus genau diesem grund. wenn der durchschnittskäufer eine karte kauft ist er erstmal ein paar jahre weg vom markt. diese leute will man dazu bringen ein paar monate zu warten.

Daredevil
2018-06-06, 21:48:34
Jap, definitiv.
Die Leute haben ja aktuell auch "Angst" eine Pascal Karte zu kaufen, weil sie in Turing den heiligen Gral sehen. Das ist aber nicht mal ein Paper Launch sondern ein.... Fantasie Launch. :D

scully1234
2018-06-06, 23:14:55
Selbst hier erreicht kein Spiel die 50%. Kann ja sein, dass Titan V bei bestimmten professionellen Anwendungen 50% effizienter ist als Pascal, aber daraus jetzt auf eine ebenso große Steigerung der Spieleffizienz zu schließen, halte ich für sehr gewagt.

Rechne mal nach für den Singlechip ,u gemäß der zweiten Aussage ,selbst wenn es hypothetisch ne miese SLI Skallierung wäre

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11704074&postcount=420

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11677204&postcount=386

und das bei der Titan V keine Spannungserhöhung drin ist jenseits der 300 Watt Marke ,sollte dir bei deiner pessimistischen Einschätzung zum gaming optimierten Turing auch zu denken geben zwecks Effizienz

Da geht gewiss noch um einiges mehr wie bei diesem Workstation Monster

Wenn er taktnominiert bei etwa gleichen Verbrauch, 40-50% drauflegt an Performance, um wieviel effizienter ist der Chip dann wohl?

Und da sind wir ja immer noch nicht beim optimierten Turing ohne den ganzen Ballast...

maximus_hertus
2018-06-06, 23:48:44
Jap, definitiv.
Die Leute haben ja aktuell auch "Angst" eine Pascal Karte zu kaufen, weil sie in Turing den heiligen Gral sehen. Das ist aber nicht mal ein Paper Launch sondern ein.... Fantasie Launch. :D

Wofür Pascal kaufen? Gibt doch aktuell keine großen Spiele-Releases? Entweder ich habe die Spiele vom Winter schon mit der bisherigen Hardware durch oder man wartet bis man die perfekte Hardware dafür hat. Pascal ist leider häufig noch zu lahm. Für UHD ist selbst die 1080 Ti nicht immer leistungsstark genug.

Warum also viel Geld für alte, zu langsame Hardware ausgeben?

Bei Turing gibt es die Hoffnung auf evtl. stabile 60 fps @ UHD.

Linmoum
2018-06-06, 23:59:03
Warum also viel Geld für neue, nur ähnlich schnelle (oder "langsame") Hardware ausgeben? ;)

Ich denke, hier lehnt sich niemand weit aus dem Fenster, wenn man einen potentiellen GT102 erst weit nach dem Turing-Launch irgendwann in den kommenden Monaten erwartet. Da dürfte es sehr wahrscheinlich erst einmal GT104 werden.

Ich behaupte mal, dass sich aus heutiger Sicht nur GT102 lohnen wird, wenn man wirklich spürbar bessere Performance will. Und GT104 in Form der XX80 leistungsmäßig in den Gefilden der 1080ti unterwegs sein wird. Also das, was man schon seit längerem bekommen kann.

Adam D.
2018-06-07, 00:06:49
Ich behaupte mal, dass sich aus heutiger Sicht nur GT102 lohnen wird, wenn man wirklich spürbar bessere Performance will. Und GT104 in Form der XX80 leistungsmäßig in den Gefilden der 1080ti unterwegs sein wird. Also das, was man schon seit längerem bekommen kann.
Die 1180 wird schon ein paar Prozente draufsetzen, aber wer mit der 1080 Ti in UHD nicht hinkommt, wird auch mit GT104 nicht glücklich werden.

Linmoum
2018-06-07, 00:16:48
Und was sind jetzt ein paar Prozente? 2, 5 oder doch 10? :tongue:

Gut möglich und auch nicht unwahrscheinlich, dass sich die XX80 leicht vor einer 1080ti platziert. Aber das ist halt einfach nichts, was einen jetzt ggü. Pascal zum staunen bringen würde und warum man unbedingt auf Turing warten sollte, anstatt noch jetzt bei Pascal zuzuschlagen. Das wird dann irgendwann später erst auf GT102 zutreffen.

Daredevil
2018-06-07, 01:58:30
Die Karte sollte ja nicht nur Prozente drauflegen, sondern muss ebenfalls mehr RAM haben als die 1080ti und der ist heutzutage ja nicht unbedingt ein Schnäppchen. :tongue:
Ne 1080ti bekommste gerade für ~680€. Wo will man da eine "1180" mit deutlich teurerem 12GB+ GDDR6 Ram einordnen? 500€? :D

Screemer
2018-06-07, 02:13:52
Im gleichen Preisbereich wie die 1080fe zum Release mit ihren 789€ vielleicht? Warum gehen immer alle von den aktuellen Preisen aus. Die gp104 Karten haben zum Release alle locker 200€ auf die gm104 oben drauf gepackt und das wurde damals von vielen als "berechtigt" gelobt und von vielen als preistreiberei kritisiert. Turing wird sicher nicht günstiger als Pascal zur Einführung.

BlacKi
2018-06-07, 02:30:56
Im gleichen Preisbereich wie die 1080fe zum Release mit ihren 789€ vielleicht? Warum gehen immer alle von den aktuellen Preisen aus. Die gp104 Karten haben zum Release alle locker 200€ auf die gm104 oben drauf gepackt und das wurde damals von vielen als "berechtigt" gelobt und von vielen als preistreiberei kritisiert. Turing wird sicher nicht günstiger als Pascal zur Einführung.
du vermischst das etwas, das hatte mit dem euro zu tun und dem zustand, das man die fe 2016 das erste mal teurer gemacht hat. msrp preis ging nur um 50$ nach oben und das ist nunmal noch so ok. nichts desto trotz, die 2080 non fe wird wohl erneut 50$ teurer, und die fe ebenfalls. zumindest wenn die performance wie in der vergangenheit zunimmt.

Screemer
2018-06-07, 02:40:49
Ich vermische gar nichts. Der Umstand ist der, dass es von nv festgelegte Preise zur Einführung von Pascal und Maxwell gab und zwar auch in Euro. Den Endkunden in Europa interessieren Wechselkursschwankungen und der US MSRP nicht die Bohne. Mal davon ab, dass inflationsbereinigt der Wechselkursunterschied bei nicht Mal 10% (0,81->0,89 €/$) lag. Der Preisanstieg im Euroraum jedoch bei >45% lag (540€->790€). Wer sich das schönreden möchte kann das gerne tun.

Eins ist sicher, wir werden keinen anderen Performance-Chip von nv im Preisbereich von gm104 mehr sehen. Das hat diverse Gründe. Von gestiegenen Entwicklungskosten, über höhere Herstellungskosten bishin zu höherem shareholder value ist es bunt gefächert. Schaut man sich die Zahlen bei NV aber an, dann könnte man ja auf die Idee kommen, dass letzteres der hauptausschlaggebende Grund ist.

BlacKi
2018-06-07, 03:25:34
Ich vermische gar nichts. Der Umstand ist der, dass es von nv festgelegte Preise zur Einführung von Pascal und Maxwell gab und zwar auch in Euro. Den Endkunden in Europa interessieren Wechselkursschwankungen und der US MSRP nicht die Bohne. Mal davon ab, dass inflationsbereinigt der Wechselkursunterschied bei nicht Mal 10% (0,81->0,89 €/$) lag. Der Preisanstieg im Euroraum jedoch bei >45% lag (540€->790€). Wer sich das schönreden möchte kann das gerne tun.

Eins ist sicher, wir werden keinen anderen Performance-Chip von nv im Preisbereich von gm104 mehr sehen. Das hat diverse Gründe. Von gestiegenen Entwicklungskosten, über höhere Herstellungskosten bishin zu höherem shareholder value ist es bunt gefächert. Schaut man sich die Zahlen bei NV aber an, dann könnte man ja auf die Idee kommen, dass letzteres der hauptausschlaggebende Grund ist.

bleiben wir bei der non FE, bei der evga acx2 für 500-550€ vs die acx3 670-800€ die ersten 1-2 monate. dann den wertverfall von 1,35 dollar/euro im september/oktober14 und 1.10 juni/juli16. das sind alleine 22%. dann kommst du mit den 50$ aufpreis die ich ja schon genannt hatte ziemlich genau auf den 1080 preis.

das problem ist das die meisten gar nicht so weit denken und denken nur in euro, oder am besten noch in DM:freak:

statt lieber mal das große ganze zu sehen pickst du dir die shareholder raus, das ist einfacher und die sind eh immer schuld.

tatsache ist nun einmal, das die msrp preise selbst nur um 50$ gestiegen sind. das werden sie diesmal ebenfalls tun, davon bin ich überzeugt.

Screemer
2018-06-07, 03:39:44
Ich spreche vom Einführungspreis durch NV und der FE. Das habe ich glaube ich auch mehr als deutlich gemacht. Btw. zur Einführung der 980 am 19.9.14 war der Peak der Euroschwäche fast erreicht 0,79 €/$ und zur Einführung der 1080fe am 27.5.16 lag der $ bei 0,89€. Lass es wegen mir 10-15% ohne inflationsbereinigt sein. Selbst die von dir kolportierten 22% Wechselkursanstieg sind immer noch weit weg von >45% Preisanstieg im Euroraum.

Außerdem wiederhole ich mich gerne, denn die 10% Anstieg des MSRP in den USA interessieren im Euroraum keinen Menschen. Bei uns waren es halt nun Mal mehr als 45%. Im übrigen stieg der MSRP von der 980 mit $549 zur 1080fe auf $699.

Von welchem großen und ganzen sprichst du denn? Ich habe einige Punkte genannt, die den Preis beeinflussen. Solche Sprünge wie bei uns sind imho damit aber eben nicht zu rechtfertigen oder subventionieren die Europäer die Karten für den Rest der Welt?

BlacKi
2018-06-07, 03:59:15
es ist träumerei wenn du glaubst das die dollarpreise niemanden hier in Europa interessiert. fast alles elektronisches wird in dollar abgerechnet, es beinflusst den europreis sehr stark wenn die kurse fallen. da kann ich doch nicht NV und den shareholdern die schuld zu schustern das die kurse gefallen sind... deshalb kann ich doch keine hardware preise eines herstellers kritisieren wenn die kurse an der börse fallen und steigen. das muss man akzeptieren so wie es kommt.

das die referenz designs um ziemlich genau 110€ teurer geworden sind, ist eine sache, aber nicht um 200€ oder 45%. man ist ja zum glück nicht gezwungen diese jene zu kaufen und sollten eigentlich auch nicht in konkurenz zu den custom karten mehr stehen, deshalb hat man sie preislich abgesetzt. deshalb abzuleiten jaaaa die 1080 ist 45% teurer geworden, brennt NV nieder ist einfach nur daneben.

pixeljetstream
2018-06-07, 04:14:37
Mehrwertsteuer kommt im Euroraum auch noch drauf im Vergleich zu USD MSRP.

Screemer
2018-06-07, 04:25:54
das die referenz designs um ziemlich genau 110€ teurer geworden sind, ist eine sache, aber nicht um 200€ oder 45%. man ist ja zum glück nicht gezwungen diese jene zu kaufen und sollten eigentlich auch nicht in konkurenz zu den custom karten mehr stehen, deshalb hat man sie preislich abgesetzt. deshalb abzuleiten jaaaa die 1080 ist 45% teurer geworden, brennt NV nieder ist einfach nur daneben.
Du scheinst wirklich ein Problem damit zu haben den prozentualen Unterschied zwischen 540€ und 790€ zu errechnen.

Was du Mal wieder in meine Aussagen hineininterpretierst ist richtig lächerlich. Weder will ich NV niederbrennen noch mache ich nur die shareholder für die Einführungspreise verantwortlich.

Mehrwertsteuer kommt im Euroraum auch noch drauf im Vergleich zu USD MSRP.
Und die ist anteilig genau so hoch wie vorher?!

pixeljetstream
2018-06-07, 04:31:22
Ja, dachte du gingst von USD aus, statt von 980 in EUR. Mein Fehler. Aber vergleichst Du nun nicht-FE mit FE, während BlacKi das nicht tut?

Screemer
2018-06-07, 04:52:45
Nein. Zur Zeit der 980 gab's schlicht keine Fe. Da hat das ref Design schlicht 540€ gekostet. Die Fe hingegen 790€. Die Partnerkarten gab's so ab 670€. da muss man dann aber auch sagen, dass die Straßenpreise bei der 980 schon zur Einführung bei weniger als UVP lagen. Verfügbare Karten zum Start ab 499€.

Korvaun
2018-06-07, 08:34:55
Eine "1180 FE" mit 16GB GDDR6 + >10% schneller als eine "1080ti FE" für 799€ ist ok. Allerdings glaube ich nicht an 16GB, das ist aktuell einfach zu teuer und nicht wirklich nötig, nächste Generation dann...

8/12GB sehe ich für die 1170/80, 16GB dann für die 1180ti...

Wenn die 1180 aber wirklich "nur" so schnell ist wie eine 1080ti dann wäre es schon etwas unschön für nV wenn es noch viel Ware (1080ti) bei den Händlern gibt. Würde den Verkaufspreis doch einschränken mMn. Wenn die 1080ti knapp werden ists bald soweit mit Release ;)

dargo
2018-06-07, 08:55:01
8/12GB sehe ich für die 1170/80, 16GB dann für die 1180ti...

Es wird weder einen 12GB GT104 noch einen 16GB GT102 geben. Das ergibt sich schon alleine aus dem SI.

Radeonfreak
2018-06-07, 09:05:32
8Gb für die 1180 würd ich ein wenig mager finden. :( Das reicht jetzt schon kaum und wie soll es denn dann in 2 Jahren aussehen?