PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: nVidias Turing auf ~676mm² Chipfläche ermöglicht 48% mehr Transist...


Leonidas
2018-06-27, 18:58:57
Link zur News:
https://www.3dcenter.org/news/nvidias-turing-auf-676mm%C2%B2-chipflaeche-ermoeglicht-48-mehr-transistoren-sowie-50-60-mehrperforma

Gast
2018-06-27, 20:01:48
Und jetzt erklärt mir bitte wer, warum Gamer in dem Segment keine Karte mit 300+ Watt kaufen würden.
So lange das mit vertretbarem Aufwand auf akzeptablen Lärmpegel kühlbar ist, spielt der Spitzenverbrauch doch absolut keine Rolle. Kauft man halt ein größeres Netzteil dazu.

Dass das bei Mining, HPC, usw. anders aussieht, ist doch völlig pups.

Gast
2018-06-27, 21:28:11
Soll nVidia das Teil doch im Auslieferungszustand auf 250W begrenzen.

Die meisten werden dieses Geschoss ohnehin die Spuren geben und diejenigen interessiert auch nicht die durchbrochene 300W Grenze.

Geldmann3
2018-06-27, 22:17:32
Sehe ich genauso wie der Gast. Ich würde mir auch eine 600 Watt Karte in den Rechner knallen, wenn sie für unter 1000€ zu haben und problemlos kühlbar ist.

Daredevil
2018-06-27, 22:31:25
Zumal manche Custom 1080ti heute schon sehr Energieeffizient werkeln bei 250w, z.B. eine 1080ti Aorus.
Die 50w bekommt man halt mit einem noch dickerem Kühler hin bzw. mit einer kleinen WaKü?

Eine 300w Karte wird nun bestimmt auch nicht im LowEnd angesiedelt sein und wenn sie Performance auf die Straße bringt, nimmt man auch teurere bessere Kühler in kauf.

Geldmann3
2018-06-27, 22:49:37
Jop, meine übertaktete AORUS kratzt schon jetzt hin und wieder an der 350 Watt Grenze, also was solls.

OBrian
2018-06-27, 23:29:25
Fürs Marketing wärs aber schlecht. AMD wird in der Luft zerrissen, weil die HighEnd-Karten so viel verbrauchen, z.B. bei gleicher Performance und gleichem Preis wird dann immer der sparsamere Chip empfohlen. Ob die Leute dann auch so kaufen, ist ne andere Frage, und die Vegas werden ja auch meist untervoltet, dann passen die Abstände aus den Tests eh nicht mehr. Trotzdem bleibt ein negatives Image.

Aber ist schon richtig, bei den absoluten Topkarten ist es wirklich egal, auch den effizienzbewußten Minern wären die 300+ W recht, wenn dafür genug Hashes rausspringen (man kann ja pro Mainboard auch nur soundsoviele Karten verbauen, also sind starke Einzelkarten für's Mining immer vorzuziehen, sonst steigt bei den Rigs der Kostenanteil für Mainboards, CPUs und RAM).

Die Performanceklasse muss dann relativ sparsam werden, also die 1170/1180, aber da muß man abwarten, mit was AMD ankommt. Wenn Nvidia dann mit 12 nm gegen AMDs 7nm antreten muss, wird es wahrscheinlich bzgl. Energieeffizienz knapper als es momentan ist.

Leonidas
2018-06-28, 05:26:27
Fürs Marketing wärs aber schlecht. AMD wird in der Luft zerrissen, weil die HighEnd-Karten so viel verbrauchen,


Exakt hier liegt der Grund. Und 300W gehen ja auch noch. Aber mehr? Ruft selbst bei entsprechender Performance die Spötter auf den Plan. Vermeidet man, wenn man es vermeiden kann.

NV hat sich ja zuletzt immer an die 250W gehalten. Dabei hätten die Chips mehr gekonnt - NV hat es somit bewußt nicht genutzt. Ergo sieht NV hier durchaus eine gewisse Grenze - und wird diese erst überschreiten, wenn es wirklich notwendig wird.

Platos
2018-06-28, 06:27:37
Ich glaube kaum, dass nv je die Chips bis (fast) ans Ende treibt mit dem Stromverbrauch, wenn es überhaupt nicht nötig ist. (Wie Vega 64 z.B) Ich sehe selbst als Übertakter 0 Gründe, warum das im Auslieferugszustand so sein sollte. Hauptsache, das Powertarget bremst die Karten nicht aus, aber ein paar Bälckchen im Afterburner oder nv tool wird man ja jetzt noch bedienen können. man muss ja nicht mal übervolten, das bringt dann auch nur noch die letzten 50MHz. Und Garantie ist auch kein Grund. Niemand wird einem je nachweisen können, dass man übertaktet hat, solange man kein BIOS flasht oder durch übervolten die Karte bruzelt. Wenn man's nicht übertreibt, wird man auch keine Probleme habe (auch wenn's hier manche mit dem nicht Übertreiben nicht so ganz ernst nehmen :D


Sehe ich genauso wie der Gast. Ich würde mir auch eine 600 Watt Karte in den Rechner knallen, wenn sie für unter 1000€ zu haben und problemlos kühlbar ist.

Und was machst du, wenn du mal im Sommer lust auf ne Runde Zocken hast? :biggrin: 1000 Watt PC oder was? Bei 30°:biggrin: ?

Gast
2018-06-28, 09:19:28
Fürs Marketing wärs aber schlecht. AMD wird in der Luft zerrissen, weil die HighEnd-Karten so viel verbrauchen

AMD wird in der Luft zerrissen weil die Karten viel Verbrauchen und gleichzeitig langsamer sind als die Konkurrenz ... also einfach ne schlechte Effizienz haben

wäre Vega doppelt so schnell wie ne 1080Ti könnte das Ding auch 600W ziehen und es würde gekauft wie blöde

Daredevil
2018-06-28, 09:43:34
Ergo sieht NV hier durchaus eine gewisse Grenze - und wird diese erst überschreiten, wenn es wirklich notwendig wird.
Vielleicht wird diese ja überschritten, eben weil Nvidia sich bewusst von seiner alten Generation abgrenzen möchte und mehr mit 12nm einfach nicht drin ist.
Also halt die Dampfhammer Methode, aber so wirklich glaube ich da auch nicht dran. Eine xxxxti, sollte sie es sein, kann natürlich auch mit einer kleinen WaKü kommen. Bei soviel Leistung ist manchen der Preis auch egal.

etp_inxession
2018-06-28, 10:15:46
Wird irgendwie schon mal wieder Zeit für eine neue "Thermi"

X-Bow
2018-06-28, 10:54:08
Exakt hier liegt der Grund. Und 300W gehen ja auch noch. Aber mehr? Ruft selbst bei entsprechender Performance die Spötter auf den Plan.

Ich seh hier absolut keinen Grund. AMD wird nicht weg ihrem hohen Verbrauch zerrissen, sondern weil die Konkurrenz den Verbrauch nicht hat. Würde nVidia jetzt auch 300 - 400W verbrauchen dann ist der Verbrauch auf beiden Seiten plötzlich egal, weil normal.

Ich sehe hier bei Turing mich in meinem Gedanken immer mehr bestätigt das AMD mit 7nm TSMC nVidia sehr arg in die Suppe gespuckt hat. So wie es bis jetzt aussieht braucht nVidia riesen Chips mit dementsprechenden Verbrauch um Ihren eigenen, alten Grafikchips überhaupt angemessen überbieten zu können. Das kann nicht im Plan von nV gewesen sein. Entweder ist Turing architekturtechnisch ein Fail, oder nV kann nicht auf die Strukturbreite zurückgreifen wie sie gerne würde. 12nm im Massenmarkt erst über ein halbes Jahr später nachdem 815mm² große Chips möglich sind?!? Das ist aus meiner Sicht sehr verdächtig. Und GPP wenn man dem Konkurrenten eigentlich so überlegen ist? Niemals. Dazu kommt das AMD relativ überraschend schon mit 7nm bei nVidias Haus und Hoffertiger sehr weit ist?!?

Ich betrachte das gerne aus Sicht von TSMC. Für TSMC ist nVidia ein relativ kleiner Kunde welcher eigentlich in der Sackgasse ist. Er kann nicht groß zu einem Konkurrenten von TSMC wechseln, wo soll nV auch plötzlich hin. TSMC wird aber mit Sicherheit mehr Interesse haben das AMD zu TSMC wechselt, da steckt Umsatzpotenzial mit drin.
Aus der Konstellation könnte sich ein guter Vertrag für TSMC und AMD ergeben haben der nicht sehr zum Vorteil von nVidia ist. Und dies wird nVidia ganz und gar nicht passen...

BlacKi
2018-06-28, 11:01:56
doch, 300w+ gehen im blowerstyle einfach garnicht. siehe 375w titan Z, das war kühlungstechnisch trotz triple slot einfach zuviel.
da muss, wie bei vega, schon eine wakü her.
sowas hat man zwar schon bei der DGX STATION schon gesehen, aber trotzdem würde nv sowas für den cosumer aktuell nicht bringen. so verzweifelt sind die nicht.

X-Bow
2018-06-28, 11:47:32
Die Rede war ja vom Stromverbrauch weg Stromverbrauch. Die Kühllösung steht doch auf einem ganz anderen Blatt. Man reduziert ja nicht den maximalen Verbrauch nur damit die Kühllösung passt sondern man macht eine passende Kühllösung für den maximalen Verbrauch.

BlacKi
2018-06-28, 12:43:00
bei amd vl^^

ich glaube schon das die 250w das sind was nv dem blower design zumuten möchte. das sie ja so stolz auf ihr kühldesign sind, glaube ich nicht das sie in der nächsten zeit daran was ändern wollen.

Daredevil
2018-06-28, 13:13:53
Und nicht vergessen, je größer der Chip ist, desto leichter lässt sich die Wärme auch abführen. (:
471mm² und 250w sind ja nochmal ein anderes Kaliber als ~676mm² und "bis 300w".

Ich will jetzt nicht sagen, dass die Founders Karten gute Karten waren, aber schlecht waren sie auch nicht. Halt eher so ein grundsolides Produkt.

Gast
2018-06-28, 15:58:43
Ich seh hier absolut keinen Grund. AMD wird nicht weg ihrem hohen Verbrauch zerrissen, sondern weil die Konkurrenz den Verbrauch nicht hat. Würde nVidia jetzt auch 300 - 400W verbrauchen dann ist der Verbrauch auf beiden Seiten plötzlich egal, weil normal.
Normal wäre es allenfalls dann, wenn die Effizienz dieselbe wäre.
Extrembeispiel: wenn eine 1180Ti 400W braucht, eine Radeon 660 aber ebenfalls bei einem Bruchteil der Leistung, dann wäre der Verbrauch der 660 alles andere als egal.

Gast
2018-06-28, 20:57:55
*gelöscht*

Wo soll man da anfangen?
Damit, dass das Posting sich selbst widerspricht?
Oder damit, dass es es nicht um Performance-Klasse geht?
Oder nicht um Mining-Karten geht?
Oder gleich gar nicht um "gleiche Performance" oder "gleichem Preis"?
Usw.

Wobei Fanboys letzteres sogar in Kauf nehmen würden.

MrSpadge
2018-06-29, 12:11:11
Der 12nm-Flächenvorteil scheint also seitens TSMC etwas übertrieben angegeben zu sein, zwischen den nVidia-Chips GP100 (15,3 Mrd. Transistoren auf 610mm² Chipfläche in 16FF+) und GV100 (21,1 Mrd. Transistoren auf 815mm² Chipfläche in 12FFC) liegt nominell nur ein durch das bessere Fertigungsverfahren erzeugter Flächenvorteil von gerade einmal -3%
Man muss hier zwischen Prozess und Implementierung unterscheiden. Beispiel: Zen in 12 nm ist exakt genauso groß wie in 14 nm, weil AMD eine schnelle Implementierung gewählt hat. Das könnte bei GV100 auch so gewesen sein. Mit mehr Zeit kann man das physikalische Layout optimieren und sollte dann auch nahe an den Wert von TSMC herankommen können. Falls die zugrunde liegenden Annahmen zutreffen: welcher Transistor-Typ hat welchen Flächenanteil, wieviel SRAM etc.

@X-Bow: TSMC wird für eine ganze Weile jeder einzelne 7 nm Wafer aus den Händen gerissen. AMD mit in's Boot zu holen kann mittelfristig helfen, wenn irgendwann mal genug Kapazität da ist. Aber momentan sehe ich es eher so: AMD wollte eine Miniserie - die ist machbar. nVidia will wenn dann richtig viele Chips (nein, das ist für TSMC kein unwichtiger Kunde). Da kommt 7 nm einfach noch eine Weile lang nicht in Frage.

MrS

Gast
2018-06-30, 17:41:18
Bisher kein einziges brauchbares Gegenargument dabei.

Ich weise in dem Zusammenhang desweiteren darauf hin, dass es längst Karten mit sogar erheblich mehr als 300Watt gegeben hat: R9 295 X2 und GTX Titan Z waren vermutlich der Gipfel.

Gast
2018-07-03, 01:23:25
@X-Bow: TSMC wird für eine ganze Weile jeder einzelne 7 nm Wafer aus den Händen gerissen. AMD mit in's Boot zu holen kann mittelfristig helfen, wenn irgendwann mal genug Kapazität da ist. Aber momentan sehe ich es eher so: AMD wollte eine Miniserie - die ist machbar. nVidia will wenn dann richtig viele Chips (nein, das ist für TSMC kein unwichtiger Kunde). Da kommt 7 nm einfach noch eine Weile lang nicht in Frage.

MrS

AMD hat nicht ohne Hintergrund "poor Volta" und Vega als "worldwide first 7nm GPU" tituliert. NV hatte einfach nichts parat und war/ist mit dem riesen 815mm² Chip beschäftigt in diversen Messen.
676mm² fürn den Consumer ist schon ein Novum, der für die nächsten Jahre dann auch halten muss.
Die physischen 5376SP (davon 5120aktiviert) in 7nm zu packen, dafür ist NV/TSMC einfach nicht soweit.

Die im Artikel spekulierten 6144SP sind eher unrealistisch, weil der L2-Cache ebenfalls zunimmt und NV nicht plötzlich ein anderes Grunddesign für den Gamer hervorzaubert.