PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: nVidias Turing-Generation wahrscheinlich ohne Fortschritte bei der ...


Leonidas
2018-07-05, 16:47:54
Link zur News:
https://www.3dcenter.org/news/nvidias-turing-generation-wahrscheinlich-ohne-fortschritte-bei-der-speicherbestueckung

Gast
2018-07-05, 18:44:24
Ich würde lachen wenn NVIDIA entgegen dem ganzen Spekulatius hier einfach durch Architekturänderungen wie seinerzeit beim Wechsel von Kepler auf Maxwell mit weiterhin kleinen Chips Die Performance nach oben verschiebt.
Zeit genung hatten sie , Geld auch nur der Druck der Konkurrenz fehlt schon seit Jahren.

AMDoderNvidia
2018-07-05, 19:00:10
Also scheint man inzwischen als ziemlich sicher davon auszugehen, dass Turing in 12nm gefertigt wird. Schade, hätte mir mehr versprochen.

Was ist denn aus der Speku geworden, dass man den inzwischen eingefahrenen 10nm Prozess verwendet?

Wenn nun Turing in 12nm kommt und AMD mit 7nm nächstes Jahr den Navi/Vega bringt, dann sollte Nvidia alsbald einen Refresh in 7nm nachlegen, korrekt? Andererseits würde das für einen Refresh doch einen zu großen Leistungssprung bedeuten. Also Turing demnach nur als kurzer Lückenfüller?

Dorn
2018-07-05, 19:21:57
Den nächsten großen Speicherschub gibts dann 2020 mit den neuen Konsolen.

OBrian
2018-07-05, 19:46:45
Wenn nun Turing in 12nm kommt und AMD mit 7nm nächstes Jahr den Navi/Vega bringt, dann sollte Nvidia alsbald einen Refresh in 7nm nachlegen, korrekt? Andererseits würde das für einen Refresh doch einen zu großen Leistungssprung bedeuten. Also Turing demnach nur als kurzer Lückenfüller?Das kann durchaus reichen, AMD hinkt ja etwas hinterher, mit 7nm hätten sie einen Vorsprung bei der Fertigung, aber der dürfte in etwa nur den Nachteil in der Effizienz der Architektur ausgleichen. Also bzgl. Spieleperformance meine ich, und ob der durch die Hardware, die Treiber oder die Spieleprogrammierung entsteht, ist ja letztlich gleich.

Platos
2018-07-05, 20:16:33
Dass es mehr speicher gibt, wahr sowieso immer nu spekulation.

Aber auf jeden Fall keine Karten, die man sich kaufen sollte, wenn man bei der nâchsten Gen nicht schon wieder umsteigt.

Was ich mich aber frage, wie eine Grafikkarte mit (spekulierter) 1080 ti Rechenleistung mit 8GB auskommt. das die 1080 Ti in einigen Spielen mehr als 8 GB braucht, sieht man ja.

Mortalvision
2018-07-05, 21:08:31
Nur langsam, die 6 GB gelten für die 1160, eine 1170 vielleicht mit 8GB und die 1180 doch sehr wahrscheinlich mit 11 oder 12 GB!

Edit: Ups! Der Artikel spricht anders. Aber 8GB sind doch Radeon 390 und das ist sooo 2014/15...

Gast
2018-07-05, 21:47:03
Da schreien alle 8GB ist zu wenig, aber 16GB vom neuen teurem GDDR6 bezahlen will dann Höchstwahrscheinlich auch keiner und es wird gemeckert...

Geldmann3
2018-07-05, 22:01:29
Ich erwarte ja eigentlich 12GB für die GTX 1170 und GTX 1180, sowie 16GB für die GTX 1180 Ti. Gleiche Speichermengen wären schon höchst enttäuschend und würden ein Aufrüsten von meiner 1080 Ti AORUS sehr fraglich machen, da der VRAM in den Auflösungen in denen ich zocke jetzt bereits oft zum Hindernis wird. (Minimum 4k, eher 6k) Von der 1180 Ti hätte ich mir 8k bei 30FPS in vielen Games erhofft. Doch da schlage ich bei vielen aktuellen Games einfach an die Vram Grenze.

Wünschenswert wären eventuell auch jeweils 2 Versionen mit unterschiedlichen Speicherbestückungen. Ich wäre aber nur so lange dabei, wie die 1000€ Marke nicht überschritten wird.

Wer wirklich "nur" in 3k/4k zocken will, dem reichen 12GB Vram natürlich dicke.

Leonidas
2018-07-06, 04:34:32
Die zwei verschiedenen Speicherbestückungen wären durchaus die Lösung. Hoffen wir darauf, das NV das durchzieht (wenn auch sicher zum erhöhten Preis).

paul.muad.dib
2018-07-06, 07:37:35
Würde Sinn machen, wenn NV ohnehin bald auf 7nm wechselt und Turing sozusagen die Übergangslösung ist.

Eine doppelte Speicherbestückung wäre schon recht viel und mehr Speicherbanbreite bringt NV zumindest bei Pascal auch nicht so viel.

Fragman
2018-07-06, 11:00:11
Würde Sinn machen, wenn NV ohnehin bald auf 7nm wechselt und Turing sozusagen die Übergangslösung ist.

Eine doppelte Speicherbestückung wäre schon recht viel und mehr Speicherbanbreite bringt NV zumindest bei Pascal auch nicht so viel.

haette jetzt auch die ti und titan in 7nm erwartet.
aber aktuell schaut es so aus, als wenn sie alles in 12nm bringen und 7nm nur fuer low end planen, zumindest bei turing?

Timbaloo
2018-07-06, 11:04:15
Also "bis zu 230W" für einen 440-460mm² GT104 ist ja mal völlig daneben...

iamthebear
2018-07-06, 11:12:16
Ich würde lachen wenn NVIDIA entgegen dem ganzen Spekulatius hier einfach durch Architekturänderungen wie seinerzeit beim Wechsel von Kepler auf Maxwell mit weiterhin kleinen Chips Die Performance nach oben verschiebt.
Zeit genung hatten sie , Geld auch nur der Druck der Konkurrenz fehlt schon seit Jahren.

Also ich würde lachen wenn die ganzen Berichte mit dem GDDR6 Speicher eine Zeitungsente wären und Nvidia nur die bestehenden Chips in 12nm Fertigung auflegen würde und das Entwicklerboard nur irgendeine sauteure GPU für wisschenschaftliche Anwendungen um die 5K Euro ist.

Generell bin ich bei allem etwas skeptisch. Die Preise haben noch keine Spur nachgegeben. Wenn die 1080 bei 500 Euro bleibt und die neue 1180 bei 900 Euro angesiedelt ist wo will Nividia mit der 1180 Ti hin? Und irgendwie zweifle ich daran dass Nvidia einfach so ohne Zwang 50% mehr Leistung für das selbe Geld bringen will.

Timbaloo
2018-07-06, 11:41:51
Und irgendwie zweifle ich daran dass Nvidia einfach so ohne Zwang 50% mehr Leistung für das selbe Geld bringen will.
Und warum sollte NV, deiner Argumentation nach ja ohne Zwang, die bestehenden Chips in 12nm neu aufsetzen?

Gründe für eine neue Generation von NV:

- 2 Jahre seit letzter Gen sind wieder vorbei (der recht übliche NV-Zyklus)
- man will mit der den neuen 12nm Chips den Markt bedienen bevor AMD mit 7nm kommt (da kann man mit einem reinen Shrink auf 12nm nicht bedienen)
- und sich gleichzeitig mehr Zeit für den eigenen Umstieg auf 7nm zu geben

Es könnte natürlich auch sein, dass NV einfach aufhört Grafikkarten zu bauen und in die Pharmabranche wechselt, die Preisgestaltung können sie ja schon.

Gast
2018-07-06, 12:25:41
Dass es mehr speicher gibt, wahr sowieso immer nu spekulation.

Aber auf jeden Fall keine Karten, die man sich kaufen sollte, wenn man bei der nâchsten Gen nicht schon wieder umsteigt.

Was ich mich aber frage, wie eine Grafikkarte mit (spekulierter) 1080 ti Rechenleistung mit 8GB auskommt. das die 1080 Ti in einigen Spielen mehr als 8 GB braucht, sieht man ja.
Gegenüber GDDR5(x) steigt der Durchsatz um bis zu 17-56% und Nvidia kann es wie AMD machen, eben nicht alles im VRAM halten, was da nicht hingehört. Ist vermutlich eine Frage welche Neuerungen Turing mitbringt (siehe AMDs HBCC). Die höhere Bandbreite bewirkt dann bei Auslagerung schon einen Geschwindigkeitsvorteil und preislich hält Nvidia die Karten im Rahmen, mehr GDDR6 hätte wohl auch höhere Preise bedeutet.

Daher können 8GB trotzdem für das Meiste reichen...AMD macht es bei den Consumervarianten von Vega mit HBCC ja vor und RAM dürfte bei den Meisten zu genüge vorhanden sein.

Leonidas
2018-07-06, 15:07:00
Ich würde lachen wenn NVIDIA entgegen dem ganzen Spekulatius hier einfach durch Architekturänderungen wie seinerzeit beim Wechsel von Kepler auf Maxwell mit weiterhin kleinen Chips Die Performance nach oben verschiebt..


Kein Problem damit. Sofern es gut für die Graka-Käufer ist, irrre ich mich gern beim "Spekulatius".




Also "bis zu 230W" für einen 440-460mm² GT104 ist ja mal völlig daneben...


Irgendwo muß es herkommen. Wenn die 1180 die Performance einer 1080Ti (236W) hat und 12nm eigentlich kaum echte Verbesserungen bietet - wie soll es anders gehen? Vielleicht kalkuliere ich zu hoch - dies wäre dann nur besser für die späteren Grafikkarten. Die dürften ruhig positiv überraschen.

Gast
2018-07-07, 13:29:29
Es kann für die nächste Generation nach heutigem Wissensstand eigentlich nur eine sinnvolle Auflösung geben.

Die nächste Generation muss ein Mix aus 7nm und 12nm GPUs sein.

Das Performancelimit im Highend-Bereich ist heutzutage praktisch nur die erreichbare Energieeffizienz.

Für eine nennenswerte Performancesteigerung muss also die Energieeffizienz entsprechend ansteigen.

Dafür gibt es eigentlich nur ein paar Möglichkeiten:
- bessere Fertigung, nachdem 12nm wohl ziemlich sicher ist lässt sich daraus nur ein geringfügiger Vorteil erreichen.

- neue Architektur: Ist aufgrund der langen Zeit eigentlich zu erwarten, Pascal --> Turing wird wohl eher vergleichbar mit Kepler --> Maxwell als mit Maxwell --> Pascal, wobei es fraglich ist ob man nochmal annähernd so viel Effizienz finden kann.

- Takt/Verbrauch-Skalierung

Nachdem ersteres nur wenig bringt und bei zweiterem eher unsicher ist wie viel überhaupt noch möglich ist muss ein großer Teil der Perfromanceverbesserung von letztem kommen.

Turing wird also vermutlich auch im Desktop deutlich näher am Sweetspot betrieben als es noch bei Pascal der Fall war. Wir bekommen quasi Max-Q am Desktop. Ich erwarte also eher geringere Taktraten bei Turing als es noch bei Pascal der Fall war.

Damit dies trotzdem zu Performancesteigerungen reicht muss der Chip wesentlich breiter werden.

Die logische Schlussfolgerung ist also, dass das gezeigte Testboard eines für GT104 war. GT104 muss also richtig groß sein, die kolportierten 670mm² werden es wohl nicht sein, aber in die Richtung 550-600mm² sollte es schon gehen.

Daraus ergibt sich natürlich auch, dass GT104 im Vollausbau mit einem 376bit Interface und 12 GiB kommt.

Die nächste Titan/Ti wird noch einige Zeit auf sich warten lassen und GT102 wird bereits 7nm verwenden um die Performance weiter zu steigern.

Platos
2018-07-07, 18:38:45
Gegenüber GDDR5(x) steigt der Durchsatz um bis zu 17-56% und Nvidia kann es wie AMD machen, eben nicht alles im VRAM halten, was da nicht hingehört. Ist vermutlich eine Frage welche Neuerungen Turing mitbringt (siehe AMDs HBCC). Die höhere Bandbreite bewirkt dann bei Auslagerung schon einen Geschwindigkeitsvorteil und preislich hält Nvidia die Karten im Rahmen, mehr GDDR6 hätte wohl auch höhere Preise bedeutet.

Daher können 8GB trotzdem für das Meiste reichen...AMD macht es bei den Consumervarianten von Vega mit HBCC ja vor und RAM dürfte bei den Meisten zu genüge vorhanden sein.

Gibt es überhaupt irgendwelche (ausführliche) Test unter mind. 2160p und einer Auslastung von mehr als 8GB bezüglich HBCC on/off ? Habe auf die Schnelle nichts belastbares gefunden, dass auch nur in geringster Weise einen Vorteil wäre.

Edit: Wobei das auch schwierig zu testen ist. Man sieht ja nur, was passiert, wenn man "out of Memory" ist. Man sieht aber nicht, wie viel schlechter HBCC gegenüber Grafikspeicher ist. Man müsste eine Vega 64 mit 8GB und eine mit 4GB haben. Bei beiden 7GB Verbrauch ausreizen. Dann sieht man schon, ob eine Auslagerung so toll ist.

Zu mal Grafikspeicher einfach viel schneller ist. Und selbst wenn, man müsste bei 8 bzw. 12 GB Grafikspeicher einfach noch zusätzlich 8GB RAM haben. Das kostet gleich auch nochmals Kohle.

Gast
2018-07-07, 19:04:59
Irgendwo muß es herkommen. Wenn die 1180 die Performance einer 1080Ti (236W) hat und 12nm eigentlich kaum echte Verbesserungen bietet - wie soll es anders gehen? Vielleicht kalkuliere ich zu hoch - dies wäre dann nur besser für die späteren Grafikkarten. Die dürften ruhig positiv überraschen.


Wenn eine neue Architektur bei gleicher Performance und gleicher Fertigung immer noch den selben Verbrauch aufweist hat man irgendwas falsch gemacht (hallo AMD).

Dass man nochmal +50% nur aus der Architektur rausholt wie damals bei Maxwell ist eher unrealistisch, aber was im Bereich von +20-+30% nur durch die Architektur alleine kann man eigentlich schon erwarten.

AffenJack
2018-07-07, 20:08:36
Irgendwo muß es herkommen. Wenn die 1180 die Performance einer 1080Ti (236W) hat und 12nm eigentlich kaum echte Verbesserungen bietet - wie soll es anders gehen? Vielleicht kalkuliere ich zu hoch - dies wäre dann nur besser für die späteren Grafikkarten. Die dürften ruhig positiv überraschen.

Schon die Titan V als non-Gaming Architektur ist 30% schneller pro W bei Games als GP102. Damit hättest du schonmal 1080Ti Geschwindigkeit bei gleichbleibenden 180 W. In Compute macht die TV aber 40-50% mehr Perf/W als GP100. Das gleiche dürfte mit einer reinen Gamingarchitektur auch erreichbar sein. Wenn man wirklich Richtung 60% mehr Perf geht, dann könnte es 200W werden. Aber wer weiß ob man nicht noch mehr rausholen kann. Turings Tapeout war 18 Monate nach Volta. Das ist noch eine Menge zusätzliche Entwicklungszeit um etwas draufzulegen bei der Perf/W. 230 W halte ich für ziemlich daneben für GT104. +50% Leistung bei gleichbleibendem Verbrauch ist mein Tipp.

Leonidas
2018-07-09, 11:21:05
Schon die Titan V als non-Gaming Architektur ist 30% schneller pro W bei Games als GP102.


Aber nur auf ihrem superoptimierten Takt. Das kannste im Gaming-Bereich nicht bringen. Demzufolge sind diese +30% ein Einzelfall, der nicht übernehmbar ist. NV müsste bei Turing wirklich (nochmals) explizit in Perf/Watt investiert haben, damit dies klappt.

Interessant ist, das bei der GP102-Meldung kaum jemand ein Problem mit 300W Stromverbrauch hatte - und eher die Frage aufkam, wieso nicht noch mehr Watt?

Gast
2018-07-09, 20:30:53
Aber nur auf ihrem superoptimierten Takt. Das kannste im Gaming-Bereich nicht bringen. Demzufolge sind diese +30% ein Einzelfall, der nicht übernehmbar ist.

Genau das wird NV machen, größere GPUs dafür bei effizienteren Taktraten.

NV müsste bei Turing wirklich (nochmals) explizit in Perf/Watt investiert haben, damit dies klappt.

Seit Maxwell (bzw. eigentlich schon seit Kepler) investiert NV alles in Perf/Watt.
Der Stromverbrauch ist mittlerweile so hoch, dass die erreichbare Performance quasi nur mehr vom Verbrauch abhängt. Der einzige Weg die Performance zu steigern ist Perf/Watt zu steigern.


Interessant ist, das bei der GP102-Meldung kaum jemand ein Problem mit 300W Stromverbrauch hatte - und eher die Frage aufkam, wieso nicht noch mehr Watt?
Niemand hat Probleme mit hohem Verbrauch, wenn auch die Performance dazu passt. (Fast) jeder hat lediglich Probleme wenn der Verbrauch extrem von der gezeigten Performance abweicht.

MasterElwood
2018-07-10, 12:55:28
Wenn die 1080 bei 500 Euro bleibt und die neue 1180 bei 900 Euro angesiedelt ist wo will Nividia mit der 1180 Ti hin?

Dasselbe wie letztes Mal: Die TI wird vom Preis her genauso wie die 1180 - und zugleich geht die 1180 um paar Hunderter im Preis runter.