PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Was kann nVidias Ampere-Generation mit der 12nm-, 10nm- oder 7nm- ...


Leonidas
2018-02-10, 06:53:09
Link zur News:
https://www.3dcenter.org/news/was-kann-nvidias-ampere-generation-mit-der-12nm-10nm-oder-7nm-fertigung-von-tsmc-erreichen

Gast
2018-02-10, 07:04:45
"Poor" Volta wäre dann die einzige 12nm GPU von Nvidia?
Kann ich mir nicht vorstellen. Auf jeden Fall explodieren die Kosten wenn man 12-16GB verbauen will und dazu einen größeren Chip. Die neue 2080 > TitanX-P? Kostet dann auch >1300$

MrSpadge
2018-02-10, 13:39:23
Schön ausgewogener Artikel, Leo!

Stimme auch der Einschätzung zu, dass sie 10 nm nehmen. Sie brauchen einen soliden Prozess mit guter Ausbeute und verfügbarer Kapazität (gerade letzteres kann ein frühes 7 nm nicht leisten, da sich erstmal Apple und Qualcomm bedienen werden), der aber trotzdem nen deutlichen Fortschritt bringt (schafft 12 nm nicht, wie du geschrieben hast). Gut möglich, dass sie mit den kleineren Chips recht lange warten, damit diese nicht teurer als die Vorgänger werden. War bei Pascal ja auch schon so.

MrS

BlacKi
2018-02-10, 16:07:57
Auf jeden Fall explodieren die Kosten wenn man 12-16GB verbauen will und dazu einen größeren Chip. Die neue 2080 > TitanX-P? Kostet dann auch >1300$
also die vergangenheit hat eigentlich anderes gezeigt. seit 8 jahren gab es immer eine verdoppelung mit fast keiner preissteigerung von chip zu chip. jetzt soll plötzlich alles anders sein? sehe ich nicht so.

iamthebear
2018-02-10, 16:28:23
1.) Man darf nicht vergessen dass die Produktionskosten mit jeder neuen Fertigungsstufe steigen.
Umgekehrt sind die derzeit herrschenden Grafikkartenpreise nur durch das Mining bedingt. Allerdings sind die Kurse schon wieder gefallen mit Tendenz nach unten während die Hashraten stark steigen und bald einen Punkt erreichen wo Neuinvestitionen sich nicht mehr lohnen werden und wir normalerweise kurz vor einer neuen Generation Preise um die 400 Euro für die 1080 sehen würden bzw. 300 Euro für die 1070.

2.) Das mit der Stromeinsparung schließt sich nicht nur mit der Takrate aus sondern auch mit der Transistoranzahl bzw. der erhöhten Performance. Ehrlich gesagt kann man die Taktratensteigerung komplett ausschließen da das bei Grafikkarten keinen Sinn ergibt.

3.) 7nm wird es noch längere Zeit nicht für Grafikkarten geben. Die Fertigungsgröße ist für die verlustleistungslimitierten Smartphones viel wichtiger. Genauso gibt es am Anfang einer neuen Fertigungstechnologie auch Probleme mit dem Takt, was auch der Grund ist warum TSMC und Samsung schon lange in 10nm fertigen Intel jedoch nicht bzw. warum Intel auch immer die Mobilsparte zuerst ins Rennen schickt (siehe Broadwell)

Gast Ritis
2018-02-10, 18:24:56
Grafikkarten sind so teuer wie sich die Konsumenten melken lassen. Alles andere ist Augenwischerei. Die Preisunterschiede von Launch bis zum Abverkauf sprechen für sich.

MrSpadge
2018-02-10, 21:01:54
Zu deinem 2. Punkt, Bear: der Stromverbrauch ist auf gleichen Takt und natürlich die gleiche Schaltung bezogen. Dass sich der Verbrauch ändert, je nachdem wie komplex der Chip wird, ist da quasi trivial.

Und warum schließt du eine Steigerung der Taktraten aus? Ist es historisch so, dass sich der Takt beim Schritt zum nächst-besseren Prozess nie erhöht hat? Natürlich nicht. Was meist passiert: statt 20% mehr Takt bei gleicher Effizienz nimmt man 10% mehr Takt bei gut 10% weniger Verbrauch (pro Shader). Je nach dem, wie sehr man von der Konkurrenz gerade zum "Vollgas bis zur Schmerzgrenze" getrieben wird, oder auch nicht.

Grundsätzlich stimme ich dir zu, außer in einem Punkt: die dicken GPUs sind auch durch die Verlustleistung limitiert und könnten entsprechend von besseren Prozessen profitieren. Den Unterschied zu den mobilen Chips sehe ich darin, dass deren Gewinnmargen im High-End-Bereich noch höher sind (Stichwort iTelefon X) und die viel kleineren Chips weniger anfällig für die höhere Defektdichte der neuen Prozesse sind.

Und @Gast: die Speicherpreise haben zwar angezogen, aber nicht so weit dass solche Preise nötig wären. Wenn es sie geben sollte, dann nur weil die Miner mit der verbesserten Energieeffizienz profitabler werden können (bis die Anderen und die Schwierigkeit nachgezogen haben, dann isses wieder völlig egal).

MrS

Cubitus
2018-02-10, 21:13:55
Ich denke es werden 12nm.
Siehe Volta, und Nvidia braucht das Rad nicht neu Erfinden, dem jetzigen Markt genügen 12nm völlig.

Und bei 10nm ist die Ausbeute gegenüber 12 doch nicht rentabler?
Nvidia könnte auf die 10 nm gehen wenn se in der Defensive wären und dringend harte Innovationen bräuchten
aber das Gegenteil ist der Fall. Nvidia gestaltet den Markt mit und wie gesagt dafür reichen die 12nm dicke.

BlacKi
2018-02-10, 21:20:23
Ich denke es werden 12nm.
Siehe Volta, und Nvidia braucht das Rad nicht neu Erfinden, dem jetzigen Markt genügen 12nm völlig.

nur wenn man wirklich auf 600-650mm² gehen will bei GA102. 550mm² oder weniger werden für +60% ggü. der 1080ti nicht reichen.

Cubitus
2018-02-10, 21:35:26
was wäre wenn wir durch den besseren Prozess 2200-2500 Mhz sehen würden, in Verbindung mit mehr Shader Cores und eben GDDR6.

Sollte eigl ausreichen um die gewünschten Ziele zu erreichen.
Aber selbst eine Karte welche "nur" knapp 50 Prozent schneller als die jetzige TI wäre, würde sich super Verkaufen. Mehr brauchts doch auch gar nicht.

Nvidia zieht traditionell, bei den Gaming Karten, viel Leistung aus dem Takt.

Wechsler wie ich, die von einer 1080 GTX kommen, greifen auch bei knappen 50 Prozent zur TI gerne zu.
Und selbst wenn es nur 30-40 Prozent sind, die 2080 GTX findet ihre Käufer. Nvidia holt die TI Besitzer dann eben mit der nächsten TI ab.

Möglich wäre für Nvidia vieles, aber wieso sollen die das machen. Der Markt ist insofern von Nvidia konstruiert, dass zuviel Leistung aufeinmal sich eher kontra produktiv auf Nvidias Gewinn auswirken würde.

Ferenzo
2018-02-11, 12:04:23
Ich denke auch, dass es die 10nm werden, Nvidia hatte die Zeit und den imaginären Druck durch AMD. Jetzt ärgern sie sich vielleicht ein bisschen, dass es nicht auch die 12nm getan hätten :rolleyes:
Aber mit Taktreduzierung kann man den Chip ja genau da hin trimmen wo es passt und in 1 - 1,5 Jahren bekommen wir dann den 10nm Refresh mit voll ausgefahrenem Design (wenig Kosten, viel Gewinn). Also lieber gleich auf 10nm mit leichter Handbremse.

MrSpadge
2018-02-11, 13:31:06
NVidia lag auch früher schon öfters vorne. Allerdings sind sie heute Marktführer, weil sie sich in solchen Phasen eben nicht auf dem Allerwertesten ausgeruht haben, sondern weiter Vollgas gegeben haben. Ihre Architektur ist immer ambitioniert.

Sollten die Chips unerwartet gut gegenüber der Konkurenz ausfallen, haben sie (wie teilweise schon gesagt) einige Korrekturmöglichkeiten:

- höhere Preise pro Chipfläche (so gesehen in den letzten Generationen)
- weniger freigeschaltete Einheiten (bessere Ausbeute -> etwas geringerer Herstellungspreis)
- weniger Takt und damit höhere Energieeffizienz

Ich denke, nVidia nutzt vor allem Option 1, da das Modell "mehr Leistung für mehr Geld" momentan super funktioniert. Darüber kann man schimpfen wie man will und kann sich dem auch gerne entziehen, aber es gibt offensichtlich genug Kaufwillige.

MrS

Lowkey
2018-02-11, 13:41:40
Alle Marktteilnehmer für Einzelteile erhöhen die Preise. Und bei den Quasi-Monopolen interessiert mich weniger die Leistung (die grundsätzlich immer zunimmt), sondern der Endpreis. Ich habe nicht den Eindruck, dass die Preise überhaupt fallen werden/sollen.

Knuddelbearli
2018-02-11, 16:00:35
NVidia lag auch früher schon öfters vorne. Allerdings sind sie heute Marktführer, weil sie sich in solchen Phasen eben nicht auf dem Allerwertesten ausgeruht haben, sondern weiter Vollgas gegeben haben. Ihre Architektur ist immer ambitioniert.


Interessant ich sehe das genau umgekehrt. AMD versuchte immer wieder neues und integrierte Features, leider hat sich das nie durchgesetzt und AMD flog damit auf die Nase, bei NV gabs seit G80 eigentlich nur Evolution ( Hot Clock dazu, dann Hotclock wieder weg danach weit höherer Takt usw )

Gast
2018-02-11, 20:02:47
Interessant ich sehe das genau umgekehrt. AMD versuchte immer wieder neues und integrierte Features, leider hat sich das nie durchgesetzt und AMD flog damit auf die Nase, bei NV gabs seit G80 eigentlich nur Evolution ( Hot Clock dazu, dann Hotclock wieder weg danach weit höherer Takt usw )

Klarerweise ist jede GPU nur eine Weiterentwicklung des Vorgängers.

Bei Nvidia gab waren diese allerdings signifikant von Fermi auf Kepler und Kepler auf Maxwell. Einzig bei Maxwell auf Pascal sind die Architekturänderungen eher gering und ein Großteil der Mehrperformance kommt von der Fertigung. Insofern sollte man von der nächsten Generation wieder größere Änderungen erwarten.
Bei AMD gibt es seit GCN immer nur minimalste Änderungen.

N0Thing
2018-02-12, 11:40:10
Wo kommen eigentlich die +20% Taktrate und -40% Stromverbrauch für den 10nm Prozess her? TSMC schreibt selber (http://www.tsmc.com/english/dedicatedFoundry/technology/10nm.htm) doch nur von ~15% faster speed und ~35% less power consumption gegenüber 16nm.

MrSpadge
2018-02-12, 23:04:46
@NOThing: es könnte sich erklären, je nachdem ob man mit der "early", "plus" oder "compact" Variante von TSMCs 10 nm Prozess vergleicht.

@Knuddelbearli: ich würde es eher so sehen, dass AMD vergleichsweise viel über vergleichsweise kleine Änderungen redet. Nimm als Beispiel den tile based renderer, Maxwells Geheimwaffe. Eine heftige Änderung an der Rendering-Pipeline und imTreiber mit durchschlagendem Erfolg für Spiele, die erst 1-2 Jahre später herauskam. Oder beim Schritt von Fermi zu Kepler, wo zugunsten der Energieffizienz das dynamische Scheduling aufgegeben und in den Treiber verlagert wurde. Stell dir vor, Intel würde einfach ein paar Pipeline-Stufen komplett streichen und das dem Compiler überlassen - das wäre wahrscheinlich eine größere Änderung als jeder andere Evolutionsschritt seit dem Pentium, vielleicht sogar größer als dieser.

Und diese Dinge setzt nVidia einfach so um, ohne dass man etwas davon merkt. Die Software läuft, im Großen und Ganzen. Un damit stehen oder fallen solche Architekturänderungen. Ein wesentlicher Unterschied zu AMD ist hier, dass AMD häufig optionale Funktionen anbietet und auf die Unterstützung der Entwickler setzt. Kommt diese nicht, verläuft die Geschichte im Sand. NVidia dagegen bevorzugt Lösungen, in denen sie alles unter Kontrolle haben - um die Sache dann mit entsprechendem Programmier-Einsatz durchzuziehen.

MrS

Bucklew
2018-02-13, 09:40:18
Interessant ich sehe das genau umgekehrt. AMD versuchte immer wieder neues und integrierte Features, leider hat sich das nie durchgesetzt und AMD flog damit auf die Nase, bei NV gabs seit G80 eigentlich nur Evolution
NVIDIA hat mit Fermi die Geometrieeinheiten parallelisiert. Das war eine absolute Revolution für den modernen Grafikchip. Das als Evolution zu bezeichnet zeugt nicht gerade von viel Ahnung, die ein Urteil erlauben.