Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)
maximus_hertus
2020-01-23, 17:30:08
Interessant, dass es die jetzt erst gibt und nicht als NVIDIA noch viele Wafer abgenommen hat.... :eek:
What? Die letzten Launches von NVIDIA waren immer Hardlaunch, speziell Pascal.
Zu 1.) Was willst du? Ehrlich?! Was soll das?
Warum in aller Welt soll es das erst jetzt geben? Wer hat das behauptet?
AMD war bisher eher ein kleiner Kunde bei TSMC und ist jetzt in einer ganz neuen Position. Das gibt eher Vorteile für AMD. Für nV kann es entweder nichts bedeuten oder evtl. kleinere Nachteile. Nicht mehr, aber auch nciht weniger. Alles andere gibt es nur in deinem Kopf. Und nur dort.
Zu 2.) RTX 2000 in 2018. Launch auf der Gamescom, so ein bisschen. Dann irgendwann später Benchmarks. Und noch viel später (2 Monate nach der Gamescom) dann kaufbare Flagschiffkarten (ich rede nicht von Custom Designs).
Bei Pascal gab es ja auch diese ominöse LAN-Party-Keynote und erst Wochen später Reviews und nochmals knapp 2 Wochen später bzw. je nach Model noch längere Wartezeit dann der echte Verkaufsstart.
Das ist ein Paperlaunch. Das muss ja nichts schlimmes sein, es ist eben kein HArdlaunch.
==========================
Warum hat es sich nicht positiv für NV entwickelt?
Also jetzt für mein Empfinden: NV bekommt die Chips in 7nm produziert, also gut. NV muss vielleicht bissel was mehr springen lassen -> fangen die Kunden auf. Kapazitäten sind bei TSMC mehr als frei um einen 2. Kunden in der Größe von AMD beliefern zu können. Sieht ergo nicht nach langen Wartezeiten aus.
Wo ist NVs Problem?
Meinst Du die Kunden machen keine weitere Preiserhöhung mit? Bedenke wir sprechen über Nvidias Kunden und nicht über P/L AMD Boys.
Jeder USD, der mehr an TSMC geht, fehlt in der eigenen Marge. Jeder USD, der die KArten dann teurer macht, könnte Kunden kosten. Auch nV-Fanboys haben nicht unendlich Kohle. Es gibt ja z.B. die 999 USD Schallmauer. 1049 ist einfach extrem unsexy.
Siehe Apple und andere, 999 ist der psychologische Preis der möglichst immer kommt. Lediglich wenn man deutlich drüber agiert, dann spielt es keine größerere Rolle. Aber auch hier: Apple => lange Zeit war immer das Flagsiop das Top-Seller Produkt, seit gut einem Jahr nicht mehr. Die deutlich über 999 liegenden Preise verschrecken selbst Fanboys.
==========================
Interessant, dass es die jetzt erst gibt und nicht als NVIDIA noch viele Wafer abgenommen hat.... :eek:
Interessant, dass NVIDIA nicht mehr viele Wafer abnimmt.... :eek:
basix
2020-01-23, 18:01:13
Es geht nicht um die Yield in 12nm.
Ach nicht? Yield von 7nm, wo die Chips kleiner werden und somit weniger Wafer benötigt werden? :freak: Nicht falsch verstehen, Nvidia benötigt sicher viele Wafer. Aber der grösste Kunde sind sie nicht und vom Umsatz her schon gar nicht. Das ist meine Aussage, nicht mehr und nicht weniger.
Fehlen da nicht die Leute die selber aufrüsten, also der DIY Markt?
DIY sollte im Gesamtmarkt ja integriert sein. Aber ja, in gewissem Masse hast du recht. Da 2/3 GPU-Marktanteil bei Intel liegt und hier der Aufrüstanteil sehr gering sein dürfte (Dank an Intels Sockelpolitik), wird der DIY Marktanteil deutlich geringer sein als der OEM Anteil. Herleitung: Wenn man annimmt, dass alle 261 Mio verkauften CPUs von Intel sind und alle Intel CPUs eine iGPU tragen, käme man im absoluten Maximum auf 66 Mio GPUs von Nvidia (261 / 0.67 * 0.17). Da gibt es aber noch AMD sowie CPUs ohne iGPU. Evtl. ist es am Schluss irgendwo zwischen 50-60 Mio GPUs von Nvidia. Ändert nichts daran, dass Nvidia nicht der grösste Kunde von TSMC ist. Selbst wenn ich 60 Mio GPUs mit 300mm2 bei Defect Density = 0.1 rechne (was in Realität besser sein wird) und keine Salvage Chips verwerte, komme ich auf gerade mal 35-36k Wafer pro Monat. Jetzt kannst du noch Wafer bei Samsung abziehen und du liegst knapp bei 30k. Und was ist das lustige? AMD hat alleine in 7nm 30k Wafer pro Monat geordert für H2/2020. Apple soll mit 2/3 den Grossteil der 65k 5nm Wafer für sich beanspruchen (https://www.computerbase.de/2019-12/foundry-tsmc-5-nm-fertigung-apple-iphone/).
Marktanteile unter den GPU-Herstellern siehe hier: https://www.jonpeddie.com/press-releases/global-gpu-shipments-up-in-q219-reports-jon-peddie-research/
MiamiNice
2020-01-23, 19:08:01
Jeder USD, der mehr an TSMC geht, fehlt in der eigenen Marge. Jeder USD, der die KArten dann teurer macht, könnte Kunden kosten. Auch nV-Fanboys haben nicht unendlich Kohle. Es gibt ja z.B. die 999 USD Schallmauer. 1049 ist einfach extrem unsexy.
Ich denke jeder USD der mehr an TSMC geht kommt auf der anderen Seite wieder rein. Der Name "GeForce" ist am Markt unglaublich stark bzw. hat eine Menge Gewicht. Die Produktpalette kennt auch nicht nur 1000€+ Pixelschubser sondern, wie gewohnt, auch kleinere Modelle. Die Power des Top Dogs färbt immer auch auf die kleineren Karten ab bzw. färbt sich der Erfolg der großen Karte auf alle anderen Karten sowie das Unternehmen ab. Nvidia hat mit der Marke "Geforce" eine Marke die jeder Gamer in seinem PC haben möchte, wenn er nicht irgendwie rot verstrahlt ist. GeForce ist quasi ein Markenzeichen für Gaming PCs.
Die Leute die über 1000€ für einen Schubser ausgaben, haben auch 1400€ ausgegeben. Die Apple Kunden kaufen auch weiterhin iPhones auch wenn der Top Dog 1600€ kostet.
Jemand der den Top Dog nicht kaufen kann oder will, wird mit hoher Wahrscheinlichkeit ein kleineres Modell kaufen, Hauptsache es ist eine GeForce.
Aber Du hast recht, es wird sicherlich Leute geben die sich denken "FY NV" und zur Konkurrenz greifen, wenn sie es können. So lange es am Ende so ausschaut wie bei Apple, ist doch alles OK?`
DIY sollte im Gesamtmarkt ja integriert sein. Aber ja, in gewissem Masse hast du recht. Da 2/3 GPU-Marktanteil bei Intel liegt und hier der Aufrüstanteil sehr gering sein dürfte (Dank an Intels Sockelpolitik), wird der DIY Marktanteil deutlich geringer sein als der OEM Anteil. Herleitung: Wenn man annimmt, dass alle 261 Mio verkauften CPUs von Intel sind und alle Intel CPUs eine iGPU tragen, käme man im absoluten Maximum auf 66 Mio GPUs von Nvidia (261 / 0.67 * 0.17). Da gibt es aber noch AMD sowie CPUs ohne iGPU. Evtl. ist es am Schluss irgendwo zwischen 50-60 Mio GPUs von Nvidia. Ändert nichts daran, dass Nvidia nicht der grösste Kunde von TSMC ist. Selbst wenn ich 60 Mio GPUs mit 300mm2 bei Defect Density = 0.1 rechne (was in Realität besser sein wird) und keine Salvage Chips verwerte, komme ich auf gerade mal 35-36k Wafer pro Monat. Jetzt kannst du noch Wafer bei Samsung abziehen und du liegst knapp bei 30k. Und was ist das lustige? AMD hat alleine in 7nm 30k Wafer pro Monat geordert für H2/2020. Apple soll mit 2/3 den Grossteil der 65k 5nm Wafer für sich beanspruchen (https://www.computerbase.de/2019-12/foundry-tsmc-5-nm-fertigung-apple-iphone/).
Ich wollte auf die Leute hinaus wie sie sich hier im Forum getummelt haben und tummeln sollten. Wir alle erscheinen in der Statistik nicht da komplett PCs gezählt werden. Welcher Gamer kauft einen OEM Komplett PC? Mir ist allerdings ziemlich egal ob AMD oder NV mehr bei TSMC produzieren. Im meinem Gedanken schwebt rum das der Gamermarkt GPUs frisst und der OEM Markt eben nicht bzw. eher iGPUs. Die Ermittlung der Zahlen scheint mir deswegen fehlerhaft zu sein.
Klevapalis
2020-01-23, 19:38:31
Hui, da scheint ja einigen hier im Forum die Fliege zu gehen, wenn jetzt schon TSMC herhalten muss, um zu begründen, warum die nächste GeForce Generation ein Flopp wird ;D
Bitte weitermachen, mehr Popcorn! :cool:
maximus_hertus
2020-01-24, 00:08:35
Hui, da scheint ja einigen hier im Forum die Fliege zu gehen, wenn jetzt schon TSMC herhalten muss, um zu begründen, warum die nächste GeForce Generation ein Flopp wird ;D
Bitte weitermachen, mehr Popcorn! :cool:
Behauptet jetzt wer? Hast du mal ein Zitat parat?
@Miami
Durchaus richtig, aber unterschätze nicht die Kraft der Psychologie. Nicht jeder kann sich die Topkarte leisten, das war schon immer so. Wenn aber selbst die Karte mit 50% der Flagschiff-Performance zu teuer wird, dann könnte es suboptimal laufen.
Zur Info: Das ist jetzt kein Fakt dass die RTX 3000 floppt, extrem teuer sein wird oder sonstwas. nV Boys lesen ja gerne nur das, was sie lesen wollen (mit krasser Fantasie im Kopf) :/
TheAntitheist
2020-01-24, 01:53:37
Zur Info: Das ist jetzt kein Fakt dass die RTX 3000 floppt, extrem teuer sein wird oder sonstwas. nV Boys lesen ja gerne nur das, was sie lesen wollen (mit krasser Fantasie im Kopf) :/
ja natürlich, das trifft nur auf Nvidia Fanboys zu und nicht allgemein auf Fanboys... :rolleyes:
Leonidas
2020-01-24, 03:21:09
Einen später plötzlicher Fertigerwechsel (wodurch dann ggf. keine Kapazität verfügbar wäre) ist eigentlich auszuschließen, das wäre ein Super-GAU. Sowas darf heutzutage nicht mehr passieren.
Stimmt. Wenn es einen "Wechsel" gibt, das noch in der Herantast-Phase, wo vielleicht Samsung (anhand der Test-Chips) das in der Praxis nicht liefern kann, was man versprochen hat. Wenn die Verträge einmal da sind, dann weiss man letztlich schon, was man damit bekommt - alternativ stehen sicherlich Strafzahlungen drin, wenn das Ziel grob verfehlt wird.
Timbaloo
2020-01-24, 08:52:16
Dieses Fertigungs-Geschwurbel ist total produktiv. Nicht.
Man kann einfach was in den Raum werfen und es wird nie verifiziert oder falsifiziert werden können. Realistisch ausgedrückt ist es einfach verschwendete Bandbreite.
AMD setzt auf N7+, NV setzt jetzt auch auf N7+ (ziemlich sicher) und Intel offenbar mittlerweile auch bei der 2.XE-Generation.
Fertigungskosten sind ziemlich irrelevant für die Betrachtung. Mal sehen was dabei rauskommt.
Off: mit den 3 Damen vom Grill hier, ich denke, wir wissen wer gemeint ist, wird das konstruktive Diskutieren hier leider sowieso unmöglich.
GerryB
2020-01-24, 12:38:08
Off: mit den 3 Damen vom Grill hier...
Vllt. haben die 3 Damen Ihren red 7nm+ Gaming-Chip eher als die üblichen green Herren.
(meint der Gleichstellungsbeauftragte)
Ne andere Sicht auf die Dinge kann doch net schaden, im Sinne der Meinungsvielfalt.
Meint ihr die Ti kommt wieder zusammen mit den anderen Karten? Oder eher wie bei Pascal ein paar Monate später?
basix
2020-01-26, 13:25:41
Meint ihr die Ti kommt wieder zusammen mit den anderen Karten? Oder eher wie bei Pascal ein paar Monate später?
Dieses System gibt es schon seit Kepler. Solange AMD hier nicht Konkurrenz bietet, wird sich das eher nicht ändern.
robbitop
2020-01-26, 14:11:51
Naja bei Turing kam auch ohne Konkurrenz die 102 zum Launch. :)
Aber IMO war das ggf die interne Konkurrenz :D. Um GP102 deutlich zu schlagen und trotzdem RT und die neuen SMs einführen zu können, brauchte es TU102.
Insofern würde ich auch darauf tippen, dass ohne AMD Topdog erstmal AM104 (oder HO104? :D) kommen wird. Hoffen wir mal, dass es dieses Jahr einen großes RDNA2 Flaggschiff gibt, welches NV dazu zwingt, alles zu launchen und die Preise nicht zu sehr aufzudrehen. Wettbewerb eben. ^^
reaperrr
2020-01-26, 18:53:31
Meint ihr die Ti kommt wieder zusammen mit den anderen Karten? Oder eher wie bei Pascal ein paar Monate später?
Ich gehe stark von "ein paar Monate später" aus.
Die 2080 und evtl. auch 2070 wurde mMn ein gutes Stück später veröffentlicht, als die Chips fertig gewesen wären, weil Turing zumindest in Sachen Performance je mm² gegenüber Pascal unter DX9/11 (>95% des Marktes) ein Rückschritt war (TU106 ~130mm² größer als GP104, TU104 ~75mm² größer als GP102) und es NV deshalb nicht eilig hatte Turing zu bringen, weil erst noch die Pascals mit besserer Marge abverkauft werden mussten.
Ich tippe aber, dass Ampere (oder eben Hopper) veröffentlicht wird, sobald der erste schnelle Chip fertig und in ausreichend Stückzahlen vorhanden ist. Einerseits weil NV RDNA2 sicher ernster nimmt als das große Nichts, was AMD im HighEnd in 2018 hatte, und andererseits weil die Turings eben doch verdammt groß sind und somit ein AM104 in 7nm+ günstiger herzustellen sein dürfte als TU102, trotz höheren Design- und Waferkosten, da viel kleiner inkl. schmalerem SI.
Sunrise
2020-01-27, 00:32:24
Ich tippe aber, dass Ampere (oder eben Hopper) veröffentlicht wird, sobald der erste schnelle Chip fertig und in ausreichend Stückzahlen vorhanden ist. Einerseits weil NV RDNA2 sicher ernster nimmt als das große Nichts, was AMD im HighEnd in 2018 hatte, und andererseits weil die Turings eben doch verdammt groß sind und somit ein AM104 in 7nm+ günstiger herzustellen sein dürfte als TU102, trotz höheren Design- und Waferkosten, da viel kleiner inkl. schmalerem SI.
Da NV sowohl GA104 als auch GA102 (analog TU104 und TU102) bringen wird (ich nenne sie mal High-End und Enthusiast), ist das mit dem schmaleren SI eher fraglich, denn auch wenn die Speicherkompression weiter verbessert wurde (sie greift aber nicht immer im gleichen Maße), brauchst du für das Mehr an Einheiten auch mehr Speicherbandbreite und ich glaube kaum, dass man hier weniger als 256bit bzw. 384bit-Interfaces verbaut, wenn die Leistung in hohem Maße (min. 50% oder evtl. sogar mehr (RT)) gesteigert werden soll, bei noch besserer Effizienz. Die Dinger müssen wieder ca. 2 Jahre halten und wenn man schon so teure Chips produziert, wird man sich nicht die Möglichkeit verbauen, voll auf die GDDR6-Skalierung in Zukunft angewiesen zu sein.
Und viel billiger wird das auch nicht werden, denn NV muss auch massiv in Einheiten investieren, und Stillstand ist keine Option, man will ja auch die 2070/2080/SUPER und die TI-Käufer wieder zum Neukauf bewegen, da muss die Mehrleistung immer mindestens in dem Maße steigen, dass der Endkunde überhaupt seine Zeit und Geld investiert. Man kann davon ausgehen, dass 12nm mittlerweile so billig geworden sind (selbst bei diesen Die-Größen), dass es eher um Sicherung der absoluten Technologieführerschaft geht, und da amortisieren sich eben viele Dinge, wenn man die absolute Spitze vorgeben kann.
Wenn Quadro vorher/gleichzeitig kommen sollte, wird GA102 auf jedenfall (weil geringere Stückzahlen) zuerst kommen können, da für mehrere Märkte wichtig und ich davon ausgehe dass wieder teil-deaktiviert werden wird. GA104 würde vor allem gegen Navi High-End antreten und hier wird’s dieses Mal richtig spannend, wer hier wem zuvor kommt.
Leonidas
2020-01-27, 02:54:40
Jein. So lange GA104 TU102 (wirklich) schlagen kann, kommt der immer zuerst in den Gamer-Markt - egal ob TU102 schon fertig ist. Denn damit kann man 2x in einer Generation eine neue Top-Lösung vorstellen - was besser ist als nur 1x. Außerdem hat man somit die Möglichkeit, für GA104 den Preis eher an TU102 auszurichten, sprich also hochzuziehen (kann man ja später wieder runtersetzen, wie auch schon passiert). Diese Vorteile wird sich NV nicht entgehenlassen, wenn GA104 wirklich besser ist als TU102 und wenn sie von AMD keinen entsprechenden Konter erwarten müssen.
Ghost1nTh3GPU
2020-01-31, 19:33:20
Für HPC liegt das Performance-Ziel schon mal bei +70%: https://www.nextplatform.com/2020/01/30/academia-gets-the-first-production-cray-shasta-supercomputer/
basix
2020-01-31, 21:08:15
Wäre ein schöner Sprung, ca. 13.5 TFLOPs FP64 und >200 TFLOPs Training und fast 500 TOPs INT8 Inference. Wenn Nvidia die Tensor Cores verdoppelt und noch sonst etwas trickst (Skalierung & Bandbreite), könnte 1 PetaOPs Inference auf einer einzelnen GPU drin liegen. Lederjacke würde abgehen auf der Bühne :D Aber evtl. läuft es wie bei der DGX-1 Präsentation: 960 TFLOPs FP16 und der Gesichtausdruck von Jensen dabei: "WTF why did they not increase clock speeds to reach 1.0 PFLOPs?!" :D
=Floi=
2020-01-31, 21:24:21
eventuell pimpt man die INT 32 einheiten.
Leonidas
2020-02-01, 03:33:39
Für HPC liegt das Performance-Ziel schon mal bei +70%: https://www.nextplatform.com/2020/01/30/academia-gets-the-first-production-cray-shasta-supercomputer/
Absolut nicht unerwartet. Die alte Speku von 8192 SE passt hier gut. Das sind +52% durch mehr SE, der Rest kommt über Architektur und Mehrtakt.
klingt gut. Fast zu gut?
(The newer silicon is expected to deliver 70 percent to 75 percent more performance than that of the current generation.) Perhaps more importantly, having the latest and greatest GPUs will help attract additional research dollars to the university, especially for AI-enabled research.
hmm aber 2 Fragen dazu:
1) ist "HPC Performance" denn auch heute noch sicher FP64?
viele HPCs sollen ja heute für alles mögliche genutzt werden, nicht so fast ausschließlich für Dinge mit hoher Genauigkeit wie noch vor ein paar Jahren.
2) Wird denn hier sicher über die HPC Performance gesprochen bei der die Leistung um diese Größenordnung steigen soll?
AffenJack
2020-02-01, 09:44:18
Ja, in der Regel wird über theorethische FP64 Leistung gesprochen bei solchen Marketingangaben im HPC Bereich. Architekturvorteile werden da in der Regel nicht mal mit berechnet, da schwierig messbar.
Wie Leonidas schon schrieb, passt das sehr gut zu der 8192Shader Speku. Das sind gerade mal 52% mehr Shader als V100, nicht wirklich viel. Dazu 10-15% Taktsteigerung und du landest bei 70-75%. Allerdings hat selbst V100 eine gute Bandbreite an Leistungsdaten, von 7 Tflop DP bei V100 PciE bis zu 8.2 Tflops bei V100s PciE. Damit wäre GA100 irgendwo zwischen 11,9 Tflop DP und 14,3 Tflops DP zu erwarten.
Wieso sollte das zu gut sein? +70% ist für den HPC Chip nix besonderes, alles andere wäre da enttäuschend. Das Ding wird wieder an der Kante des im Moment machbaren im Prozess sein. Auch AMDs Arcturus wird wohl genauso 8k Shader haben.
dildo4u
2020-02-01, 09:47:26
Ich denke auch die 70% sind nicht das Highlight vom Chip ich erwarte wesentlich größere Sprünge im AI Bereich.
Wobei es natürlich fraglich ist ob Nvidia jemals wieder mir Speziallösungen mithalten kann.
basix
2020-02-01, 10:30:08
Ich denke auch die 70% sind nicht das Highlight vom Chip ich erwarte wesentlich größere Sprünge im AI Bereich.
Wobei es natürlich fraglich ist ob Nvidia jemals wieder mir Speziallösungen mithalten kann.
Jepp, AI Boost ist sehr wahrscheinlich. Evtl. nicht auf dem Papier aber bei der tatsächlich erreichten Leistung.
Gegenüber Speziallösungen kann Nvidia Variabilität, Skalierbarkeit und SW-Unterstützung bieten. Vor allem letzteres ist wichtig. Gegen eine Google TPU und genau deren Anwendungsgebiet wird man aber verlieren.
Leonidas
2020-02-01, 10:45:55
Ich denke auch die 70% sind nicht das Highlight vom Chip ich erwarte wesentlich größere Sprünge im AI Bereich.
Die Supercomputer-Betreiber werden zwar alle Marketing-Präsentationen von NV über sich ergeben lassen haben, dürften aber erfahren genug sein, um nicht die Spitzenwerte für voll zu nehmen. Jene gelten dann immer nur für einzelne, spezielle Rechenoperationen. Die Supercomputer-Betreiber dürften ziemlich sicher so clever sein, in dem ganzen Marketing-Wust jenen Wert herauszunehmen, welche eher allgemeingültig ist - wie die FP64-Power.
=Floi=
2020-02-02, 04:19:35
Die alte Speku von 8192 SE passt hier gut.
Das ist einfach zu viel. Man war bei ~5300 SP und auf dem desktop ist man weit darunter.
Mit tensor und RT cores wird man nicht den platz dafür haben.
basix
2020-02-02, 13:00:26
Das ist einfach zu viel. Man war bei ~5300 SP und auf dem desktop ist man weit darunter.
Mit tensor und RT cores wird man nicht den platz dafür haben.
Die 8192 SE gelten für den HPC Chip. Das sollte im Bereich von ~700-750mm2 machbar sein.
Auf dem Desktop wird man definitiv darunter liegen (~6144 SE) und vermutlich auch die Tensor Cores pro SM nicht verdoppeln. Dann kommt ein ~550mm2 Chip raus. Nvidia ist margengetrieben, deswegen wird man definitiv mit der Chipfläche runterkommen. Ein 550mm2 Chip in 7nm wird etwa ähnlich teuer in der Herstellung sein wie TU102.
Ravenhearth
2020-02-02, 17:41:38
Die 8192 SE gelten für den HPC Chip. Das sollte im Bereich von ~700-750mm2 machbar sein.
Auf dem Desktop wird man definitiv darunter liegen (~6144 SE) und vermutlich auch die Tensor Cores pro SM nicht verdoppeln. Dann kommt ein ~550mm2 Chip raus. Nvidia ist margengetrieben, deswegen wird man definitiv mit der Chipfläche runterkommen. Ein 550mm2 Chip in 7nm wird etwa ähnlich teuer in der Herstellung sein wie TU102.
Hieß es nicht mal, 7nm sei etwa doppelt so teuer pro mm²?
https://en.wikichip.org/w/images/7/77/amd_iedm_2017_dr_lisa_su_keynote_7nm_cost.png
Leonidas
2020-02-02, 18:21:54
Der Markt geht langsam aber sicher in die Richtung, das sich NV nicht mehr aller Dinge so sicher sein kann - sprich, man muss damit rechnen, das AMD doch was schlagkräftiges hinbekommt. Ergo muß sich nVidia wappnen - und das geht nur, wenn man den Chips genügend Einheiten mitgeht, egal ob das Fläche kostet. Wenn AMD dann doch nicht so stark ist, taktet man einfach näher am Sweetspot und hat zusätzlich den Energieeffizienz-Vorteil. Je nachdem wie stark AMD kommt, muß man dann die Taktreserve aktivieren. Aber ohne das die Hardware-Einheiten physikalisch da sind, ist das alles stark begrenzt. NV wird hier in heutiger Zeit zumindest einen Mittelweg gehen müssen.
Lehdro
2020-02-02, 18:45:24
Hieß es nicht mal, 7nm sei etwa doppelt so teuer pro mm²?
https://en.wikichip.org/w/images/7/77/amd_iedm_2017_dr_lisa_su_keynote_7nm_cost.png
Seit dem ist aber viel Zeit vergangen und die Fertigung deutlich gereift - da kommen die Kosten also auch wieder etwas runter. Der Vergleich war ja eine sehr "mature node" gegen einen Brandneue - klar das Letztere da desaströs abschneidet.
dildo4u
2020-02-02, 19:16:25
Wird immer noch teuer sein daher vermutlich die wenigen Vega CUs in Renior,die APU ist deutlich kleiner als der Vorgänger.
Lehdro
2020-02-02, 19:41:45
Wird immer noch teuer sein daher vermutlich die wenigen Vega CUs in Renior,die APU ist deutlich kleiner als der Vorgänger.
Das stellt glaube ich keiner in Frage. Aber Fakt ist dass die Kosten sinken mit längerer Nutzung der entsprechenden Node. 750mm² Chips in 16nm waren am Anfang auch eher undenkbar.
basix
2020-02-02, 20:10:16
Hieß es nicht mal, 7nm sei etwa doppelt so teuer pro mm²?
https://en.wikichip.org/w/images/7/77/amd_iedm_2017_dr_lisa_su_keynote_7nm_cost.png
Eher so 1.8x anhand der Grafik. Dann ist der Die kleiner (Yield, Salvage SKUs) und wie schon erwähnt ist 7nm schon lange in Mass Production.
Aber dennoch: 550mm2 wird vermutlich nicht günstiger TU102
zucee
2020-02-15, 18:07:08
y4kjWK3jJEQ
Screemer
2020-02-15, 18:27:38
Wird das eigentlich immer mehr märchenonkelig, oder irre ich mich da? Ich mag Igor als Person ja aber das kann ich mir leider langsam nicht mehr ansehen.
hlynska
2020-02-15, 21:07:41
Wieso? Hat sonst keiner und es könnte sogar stimmen. Ich bin mir sicher, die 2080 Ti Super wird kommen. Mit den neuen Platinen.
Screemer
2020-02-15, 21:17:57
ich sag doch nicht, dass es nicht stimmt. mir geht es darum, dass es immer langatmiger wird kleinste fetzen von inhalt rüber zu bringen. grüne spekulatiuskrümel. 9 minuten um den inhalt des videos an den man zu bringen?
vor allem ist schon bei der hälfte vom video für einen leien nicht klar was er meint. da hätte man ja mal kurz erwähnen können, dass das schaubild ein mit lot gefüllte durchkontaktierung darstellt. die stubs sind schlicht die unteren teile komplett mit lot gefühllten löcher bis zum kontaktlayer. die werden halt jetzt noch von der anderen seite bis zum kontaktlayer angebort, um das lot aus dem unteren bereich herauszubekommen. 10 minuten?
hlynska
2020-02-15, 21:59:09
Auf YT findest Du eimerweise lange Videos gleich ganz ohne Info. Ich habe mir das auf der Homepage durchgelesen. Wer YT für eine komprimierte Faktenschleuder hält, muss sich noch mal das System YT vor Augen führen. Ich lese lieber 😝
MiamiNice
2020-02-15, 22:05:01
groß und schnell :up:
Der Markt geht langsam aber sicher in die Richtung, das sich NV nicht mehr aller Dinge so sicher sein kann - sprich, man muss damit rechnen, das AMD doch was schlagkräftiges hinbekommt. Ergo muß sich nVidia wappnen - und das geht nur, wenn man den Chips genügend Einheiten mitgeht, egal ob das Fläche kostet. Wenn AMD dann doch nicht so stark ist, taktet man einfach näher am Sweetspot und hat zusätzlich den Energieeffizienz-Vorteil. Je nachdem wie stark AMD kommt, muß man dann die Taktreserve aktivieren. Aber ohne das die Hardware-Einheiten physikalisch da sind, ist das alles stark begrenzt. NV wird hier in heutiger Zeit zumindest einen Mittelweg gehen müssen.
Klingt nach einem Fest für Übertakter ;)
=Floi=
2020-02-15, 23:26:13
Nur ist man bei turing auch so schon an die limits gegangen. Beim DIE-size und beim takt.
Einzig beim power budget ginge mehr. Dann fällt aber auch die 300w grenze bei den großen chips.
BlacKi
2020-02-15, 23:38:38
Nur ist man bei turing auch so schon an die limits gegangen. Beim DIE-size und beim takt.
Einzig beim power budget ginge mehr. Dann fällt aber auch die 300w grenze bei den großen chips.
300w oder 400w bringen jetzt bei der 2080ti auch keine 10% mehr leistung.
Badesalz
2020-02-16, 00:27:40
Ich weiß, daß es so ist.
Kann mich aber trotzdem kurz wer aufklären WIE das genau funzt, daß man mit gleicher Spannung und gleichen Takten, nur mit mehr power limit, höhere (Rechen)Leistung erereicht?
BlacKi
2020-02-16, 00:30:44
die spannung und takt(boosttable) ist dynamisch und wird durch das powertarget geregelt, bis das ende des boosttables erreich wird. der rest ist dann OC.
ähnlich dem umrüsten auf wakü, es schaufelt powertarget frei(bedingt durch die niedrigeren temperaturen) und deshalb boostet die gpu höher. das alleine ist dann noch kein OC, obwohl deutlich mehr leistung(bis zu 10%) erreicht wird. bei nem 400w bios ist das boosttable aber schon am ende, es peakt nur selten über 300w, zumindest bei meiner 1080ti.
Badesalz
2020-02-16, 00:32:16
Man kann das aber mit Tools (hwinfo & Co.) nicht sehen oder? Oder passiert das zu schnell für eine Software?
Glaub AMD meinte mal, sie köennen Taktänderung in 10µs durchführen (?)
OnT
Meint ihr die Karten werden SO TEUER, daß GeforceNow langsam interessant wird? :tongue: :wink:
BlacKi
2020-02-16, 00:38:38
die tools sind nur hilfsmittel zum auslesen, was nv/amds karten machen bekommst du nicht raus. du kannst bei hw info die pollingrate auf 100ms stellen und hoffen das mal ein min/max wert auftaucht, aber exakt wohl nicht.
naja, mit einem externen tool vielleicht...
Badesalz
2020-02-16, 00:41:01
die tools sind nur hilfsmittel zum auslesen, was nv/amds karten machen bekommst du nicht raus.GUT. Genau das hab ich mir gedacht. Danke.
Das hab ich auch schon beim Sandy und Veracrypt Bench beobachtet. Takt/Spannung laut Tools immer gleich, rechnete mit 95W limit 4.0 GB/s, mit 115W 4.2 GB/s.
Bekloppt das ganze. Irgendwie. Du weißt eigentlich nie wie schnell deine HArdware grad läuft.
Wenn man die GPUs noch so betreiben würde wie die 9800pro, würden sich wahrscheinlich schon beim RenderTest von GPU-Z wegen Tmax drosseln ;)
BlacKi
2020-02-16, 00:48:47
GUT. Genau das hab ich mir gedacht. Danke.
das hat dargo mit seiner 1080 OC/UV schon eindeutig bewießen, was die karte trotz anliegendem takt macht wird man nicht genau sehen. ähnlich ryzen3000 OC/UV.
TheAntitheist
2020-02-16, 03:44:09
ich sag doch nicht, dass es nicht stimmt. mir geht es darum, dass es immer langatmiger wird kleinste fetzen von inhalt rüber zu bringen. grüne spekulatiuskrümel. 9 minuten um den inhalt des videos an den man zu bringen?
vor allem ist schon bei der hälfte vom video für einen leien nicht klar was er meint. da hätte man ja mal kurz erwähnen können, dass das schaubild ein mit lot gefüllte durchkontaktierung darstellt. die stubs sind schlicht die unteren teile komplett mit lot gefühllten löcher bis zum kontaktlayer. die werden halt jetzt noch von der anderen seite bis zum kontaktlayer angebort, um das lot aus dem unteren bereich herauszubekommen. 10 minuten?
ich hab ihn schon deaboniert, er hetzt mir zuviel und kaut den gleichen quark in einer Folge 10x durch... das ist nicht mehr Professionell sondern nur noch nervig.
Timbaloo
2020-02-16, 10:49:41
Für ein klassisches Graka-Design (GPU+GDDR) wird man nicht ohne Not viel Aufwand in PCB-Fertigung stecken. Die Not sehe ich nicht, oder ist ein Taktsprung bei GDDR6 in Sicht? Und für ein Design mit HBM wäre das komplett useless. Was Igor da im Video beschreibt wäre wohl eher für Multichip Designs ohne Silizium Interposer interessant, oder für einen Mittelweg aus GDDR und HBM ohne Interposer, aber diesbezüglich hätte man auch schon was zwitschern gehört.
Wie auch immer: Mit Ampere wird wird das nichit viel zu tun haben.
unl34shed
2020-02-16, 10:56:49
ich sag doch nicht, dass es nicht stimmt. mir geht es darum, dass es immer langatmiger wird kleinste fetzen von inhalt rüber zu bringen. grüne spekulatiuskrümel. 9 minuten um den inhalt des videos an den man zu bringen?
vor allem ist schon bei der hälfte vom video für einen leien nicht klar was er meint. da hätte man ja mal kurz erwähnen können, dass das schaubild ein mit lot gefüllte durchkontaktierung darstellt. die stubs sind schlicht die unteren teile komplett mit lot gefühllten löcher bis zum kontaktlayer. die werden halt jetzt noch von der anderen seite bis zum kontaktlayer angebort, um das lot aus dem unteren bereich herauszubekommen. 10 minuten?
1. Elektrotechniker hier
2. Das Via ist nicht mit Lot gefüllt, sondern nur die Wände mit Kupfer beschichtet.
3. Was er im Video bzgl. Signalqualität sagt, stimmt, ob es einen signifikanten Performance Boost bringen wird, :confused:
4. Counter bored Vias sind ein Standardprozess bei professionellen PCBs als alternative zu Blind Vias, die Signalqualität ist nicht so gut wie bei Blind Vias, dafür sind Bored Vias günstiger.
Hier wird wieder versucht eine Sau durchs Dorf zu treiben, indem ein Standardprozess als großer Heilsbringer dargestellt wird. Wobei nicht einmal absehbar ist, welchen Performance Boost es bringen soll.
Desweiteren ist das PCB nur für externe Signale aus der GPU interessant -> RAM, Display Signale, PCIe, Multi-GPU *hust*
Multi GPU ist tot, eher unwahrscheinlich
könnte für PCIe 4.0 und neues Display Interface sind auch unwahrschenlich, haben die alten Karten nicht und Kabel und Stecker haben einen größeren Einfluss, da sollten die Vias egal sein.
Also bleibt nur RAM. Und da wird man schnelleren RAM testen, weil man wieder zu geizig für ein breiteres Interface/mehr RAM ist. Die Bandbreite wird nicht sonderlich besser, am Ende muss es die Chips auch zu kaufen geben.
Woher soll also eine "extreme Performancesteigerung" kommen, die er im Video verkauft? (ja da steht ein Fragezeichen im Titel...)
AffenJack
2020-02-16, 11:21:48
Also bleibt nur RAM. Und da wird man schnelleren RAM testen, weil man wieder zu geizig für ein breiteres Interface/mehr RAM ist. Die Bandbreite wird nicht sonderlich besser, am Ende muss es die Chips auch zu kaufen geben.
Woher soll also eine "extreme Performancesteigerung" kommen, die er im Video verkauft? (ja da steht ein Fragezeichen im Titel...)
Seh ich genauso. Es sind doch von den Ramfertigern auch alle Daten bekannt. GDDR6 16Gbps kriegt man auch so ans laufen, aber 18 Gbps mögen sonst zu kritisch sein. Das sind aber gerade mal 28% Bandbreite im Vergleich zu den 14 Gbps Chips die gerade in der Regel verbaut werden.
SKYNET
2020-02-17, 01:26:27
ich behaupte dreist: das ist nur um PCIe 4.0 gebacken zu bekommen, da haben sie im gegensatz zu AMD probleme und müssen nun nen weg finden das sie das zum laufen bringen.
horn 12
2020-02-17, 02:10:23
https://twitter.com/NVIDIAGeForce/status/1229091206660943873
Neue RTX 2080 TI Super
Falls ja, ist Ampere noch weit entfernt,- sprich länger als 4 bis gar 6 Monate.
GamesCom 20 wäre Möglicher Termin...
https://www.gamescom.de/
TheAntitheist
2020-02-17, 02:31:23
https://twitter.com/NVIDIAGeForce/status/1229091206660943873
Neue RTX 2080 TI Super
Falls ja, ist Ampere noch weit entfernt,- sprich länger als 4 bis gar 6 Monate.
GamesCom 20 wäre Möglicher Termin...
https://www.gamescom.de/
bei dem tweet steht nix von einer 2000er Serie
Leonidas
2020-02-17, 03:07:12
Zum jetzigen Zeitpunkt ist eine 2080Ti Super immer unwahrscheinlicher -gerade wenn die erst angeteasert und später erst gebracht wird. Eine 3000er Serie muß die ja überbieten, am besten schon mit der regulären 3080 (non Ti). Jetzt noch mal Mehrperformance für die 2080Ti Super oben drauf zu legen, hilft da NV bzw. dieser 3080 (non Ti) überhaupt nicht weiter.
Wenn jetzt noch eine 2080 Ti Super kommt, dann wird das dieses Jahr nichts mehr mit der 3000er Serie.
Aber ich denke eher: Zur nächsten GDC wird NV Ampere für HPC richtig offiziell vorstellen - und als letzten Akt der Vorstellung noch eine Ampere-Gamerkarte in die Kameras halten, damit die Presse die Verbindung von HPC (uninteressant) zu Gaming (interessant) hinbekommt. Realer Launchtermin dürfte dann der Herbst 2020 sein, vermutlich wieder ganz reguläre zuerst die 3080 (non Ti) und die 3080Ti dann erst im Jahr 2021, nachdem bereits 3070 & 3060 draußen sind.
mboeller
2020-02-17, 07:24:52
Wenn jetzt noch eine 2080 Ti Super kommt, dann wird das dieses Jahr nichts mehr mit der 3000er Serie.
Oder Nvidia braucht einen kurzzeitigen Konter gegen AMD. Gab es ja schon öfters
dildo4u
2020-02-17, 07:57:51
Die Super sollte unabhängig von der AMD kommen NV verbaut ja schon 16gbps Module auf der 2080 Super.Es gibt also genug Module für Low Volume Produkte.
Die 2080S hat ja auch kein Gegner wie man am horrenden Preis sieht sie ist nur nur dazu da die Marge zu steigern.
Korvaun
2020-02-17, 08:02:00
Sieht mir eher nach nem "Cyberpunk2077-Special Edition" Design aus... doof nur das das Game in den Herbst verschoben wurde. Irgendwie sinnlos dann noch ne 2xxx-Karte zu releasen. Außer die 3xxx-Karten kommen erst 2021, was ich mir absolut nicht vorstellen kann.
Linmoum
2020-02-17, 08:27:29
Eine (neue) GPU im Zusammenhang mit Cyberpunk ergibtzzum aktuellen Zeitpunkt mal so gar keinen Sinn.
Zum jetzigen Zeitpunkt ist eine 2080Ti Super immer unwahrscheinlicher -gerade wenn die erst angeteasert und später erst gebracht wird. Eine 3000er Serie muß die ja überbieten, am besten schon mit der regulären 3080 (non Ti). Jetzt noch mal Mehrperformance für die 2080Ti Super oben drauf zu legen, hilft da NV bzw. dieser 3080 (non Ti) überhaupt nicht weiter.
Wenn jetzt noch eine 2080 Ti Super kommt, dann wird das dieses Jahr nichts mehr mit der 3000er Serie.
Aber ich denke eher: Zur nächsten GDC wird NV Ampere für HPC richtig offiziell vorstellen - und als letzten Akt der Vorstellung noch eine Ampere-Gamerkarte in die Kameras halten, damit die Presse die Verbindung von HPC (uninteressant) zu Gaming (interessant) hinbekommt. Realer Launchtermin dürfte dann der Herbst 2020 sein, vermutlich wieder ganz reguläre zuerst die 3080 (non Ti) und die 3080Ti dann erst im Jahr 2021, nachdem bereits 3070 & 3060 draußen sind.
Das ist kein Argument. Die 3080 wird auch eine 2080 TI Super in die Tasche stecken, erst recht, wenn RT ins Spiel kommt.
Es verdichten sich aber die Hinweise, dass es doch noch ne Super geben könnte:
a.) Der Traininggedanke Igors, der ja meint, es käme noch ein Schwung Enthusiastenkarten auf alter Generation (was soll das sonst sein?)
b.) Die Tapeouts im April
c.) Igors Analyse, dass die Speicherhersteller auf absehbare Zeit nicht mehr als 16GT GDDR6 liefen können, was für ne N7+ Generation einfach zu wenig wäre, erst recht mit RT.
Das spricht alles gegen ein baldiges Erscheinen von einer 7nm-Generation von NV. Hinzu käme noch, dass AMD sicherlich große Teile der N7+-Produktion in Beschlag nehmen wird.
Der wahrscheinlichste Termin für Release einer N7+-Customer-Generation von NV ist CES 2021 mMn. Da würde eine Super hervorragend ins Porfolio passen bis dahin. Ob sie die Titan wegkannibalisiert ist eh egal, das hat NV ja schonmal nicht gestört.
Leonidas
2020-02-17, 09:52:03
Das ist kein Argument. Die 3080 wird auch eine 2080 TI Super in die Tasche stecken, erst recht, wenn RT ins Spiel kommt.
Sehe ich nicht so. Je besser eine 3080 gegenüber der Turing-Spitzenlösung aussieht, um so besser. Gerade nach Turing braucht NV mal was wirklich überzeugendes. Insofern wird man den Teufel tun und die eigene interne Meßlatte so kurz vor Ampere nochmals hochsetzen. Wer oder was würde NV dazu zwingen?
Die einzige Chance hierfür wäre Gaming-Ampere erst viel später als gedacht. Nur dann würde eine 2080Ti-Super zum jetzigen Zeitpunkt noch Sinn ergeben. Ansonsten: Wo soll generell der Sinn einer solchen Karte liegen? Der Super-Refresh kam, weil NV durch AMD preislich mit der 5700er Serie unter Druck gesetzt wurde. Inwiefern trifft dies auf die aktuelle 2080Ti zu? Nirgendwo, denke ich.
BlacKi
2020-02-17, 10:58:00
das der termin von CP2077 verschoben wurde, ist etwas doof, aber ich glaube man wollte zum termin eine in erster linie optisch passende karte anbieten, lass sie doch 5% schneller sein, aber man hatte eine passende karte für die nv/CP2077 fanboys um nochmal ein paar (weil CE) alte karten zu verkaufen(markenbindung und so). bis zum august sind noch 6 monate zeit, wenn man die next gamer gen auf der gamescom vorstellt und 4 monate später überall verfügbar ist. dann schert sich keiner mehr drum ob die collectors edition schneller ist oder nicht, da vermutlich limitiert.
Sehe ich nicht so. Je besser eine 3080 gegenüber der Turing-Spitzenlösung aussieht, um so besser. Gerade nach Turing braucht NV mal was wirklich überzeugendes. Insofern wird man den Teufel tun und die eigene interne Meßlatte so kurz vor Ampere nochmals hochsetzen. Wer oder was würde NV dazu zwingen?
Das ist doch Unsinn. Eine 3080 wird eh soviel schneller sein, dass das einfach keine Rolle spielt, erst recht wenn RT ins Spiel kommt. Hat es in der Vergangenheit ja auch nie. Übrigens haben wir hier auch einen Grund dafür, warum es schlau wäre von NV die neue Generation erst nach der Konsolengeneration zu releasen, RT wird danach recht fix ne viel größere Rolle spielen.
Die einzige Chance hierfür wäre Gaming-Ampere erst viel später als gedacht. Nur dann würde eine 2080Ti-Super zum jetzigen Zeitpunkt noch Sinn ergeben. Ansonsten: Wo soll generell der Sinn einer solchen Karte liegen? Der Super-Refresh kam, weil NV durch AMD preislich mit der 5700er Serie unter Druck gesetzt wurde. Inwiefern trifft dies auf die aktuelle 2080Ti zu? Nirgendwo, denke ich.
Die 2080Ti Super wird allein schon deshalb sinnvoll, weil man dieses Jahr schlicht und ergreifend nichts anderes hat, wenn meine Theorie stimmt. Zudem hat man die AMD-Generationen mit allen Super-Karten vorher gekontert. Das passt doch auch super ins Bild, wenn man N2x betrachtet.
dargo
2020-02-17, 11:10:11
Übrigens haben wir hier auch einen Grund dafür, warum es schlau wäre von NV die neue Generation erst nach der Konsolengeneration zu releasen, RT wird danach recht fix ne viel größere Rolle spielen.
Nachdem Microsoft verkündet hat, dass Exklusives für die neue XBox erst 2022+ kommen sollen ist das eher anzuzweifeln.
Wieso das? Das heißt doch nur, dass der Kram auch auf altem Kram laufen soll, aber doch nicht, dass es keine modernen Spiele sind? Erst recht, wenn die auch für PC kommen, DXR ist eine M$-Schnittstelle.
Zudem wird es ja sicherlich nen Haufen weiterer Games geben, die nicht exclusive sind, sondern für PS5 und XBX erscheinen werden.
Bei Leos News musst ich lachen. Klar anwortet NV auf Cyberpank, mit einer 2080Ti Super sicherlich, das würde vom Zeitpunkt her jetzt sehr gut passen, aber das hat ja rein gar nichts mit dem Launchtermin für Cyberpunk zu tun. Der zeitliche Schluss ist einfach Quatsch.
WedgeAntilles
2020-02-17, 12:54:13
Eine (neue) GPU im Zusammenhang mit Cyberpunk ergibtzzum aktuellen Zeitpunkt mal so gar keinen Sinn.
Ich habe keine Ahnung, in wie fern ich ein Einzelfall bin aber:
Meine 970 ist inzwischen 5 Jahre alt.
Allerdings zocke ich die "großen" AAA in den letzten Jahren nicht, da mich da alles langweilt. Hatte also in den letzten Jahren keinerlei Veranlassung, mein System aufzurüsten.
Cyberpunk will ich allerdings spielen und da ist dann auch ne neue GraKa fällig.
Schon bei TW 3 war meine alte GraKa 5 Jahre alt und wurde im Zuge von TW3 erneuert.
Von meiner Seite her ist eine GPU also schon mit Cyberpunk verbunden.
Wie gesagt, ich habe keine Ahnung ob es da mehr Leute wie mich gibt.
Prinzipiell könnte ich mir aber schon vorstellen, dass viele Leute The Witcher gespielt und seit dem nix an ihrer Hardware verändert haben. Falls diese Leute sich jetzt für Cyberpunk interessieren steht da dann eben ein Update an. Und wenn ich mir den Spielemarkt der letzten Jahre so ansehe halte ich es schon für möglich, dass es eine nennenswerte Gruppe gibt, die in der gleichen Situation wie ich ist.
Klar, wer ne GTX 2070 oder so drin hat ist davon nicht betroffen. Und da Cyberpunk keine graphischen Maßstäbe setzen wird, die eine neue GraKa erfordern, ist die Verknüpfung GraKa der 3XXX Generation mit Cyberpunk vielleicht nicht das Naheliegendste.
Die Mehrzahl der Spieler ist sicherlich nicht in meiner Situation - aber die Zahl der Betroffenen könnte durchaus groß genug sein, dass eine Marketingaktion die Cyberpunk und eine neue GraKa verknüpft eben doch lohnend ist.
MiamiNice
2020-02-17, 13:04:35
Wenn jetzt erst noch eine 2080Ti Super kommt und die 3080TI damit erst in über einem Jahr von jetzt aus gesehen werde ich der AMD Hater vorm Herrn.
Dampf
2020-02-17, 13:31:29
Glaube auch, dass das eine Turing GPU ist. DLSS ist mit Wolfenstein so gut geworden und bei Raytracing gibts demnächst DXR 1.1 wodurch RT performanter und vielseitiger laufen könnte. Es macht imo kein Sinn neue Karten zu veröffentlichen, wenn die RTX Karten mit DLSS quasi schon ein Generations-Upgrade bekommen haben.
Gibt's überhaupt irgendwelche konkrete Hinweise, dass neue RTX Karten dieses Jahr kommen? Eventuell ist auch nur eine neue HPC Generation gemeint.
robbitop
2020-02-17, 14:02:30
DLSS ist aber nicht in allen Spielen implementiert. Und auch erst in einer handvoll Titel wirklich gut.
Ob die Erneuerung einer RT Softwareschnittstelle mehr Leistung bringt, kann man bezweifeln. Da liegt heutzutage der Fokus eher beim Entwickler, wie er mit den Rays umgeht.
Es wäre mMn wirklich Zeit für einen Turing Nachfolger.
WedgeAntilles
Cyberpunk ist nicht mit den neuen GPUs verbunden, sondern mit den neuen Konsolen. Selbst wenn es einen Tacken früher erscheint, ist das Spiel ein richtiger Knaller für die neuen Konsolen. NV profitiert davon, weil Cyberpunk nach Überarbeitung bis September für NV ein richtiger RT-Knaller werden wird. Ich wette, dass an der Verschiebung die neuen Konsolen die Hauptschuldigen sind.
MiamiNice
Was hat das mit AMD zu tun?
robbitop
2020-02-17, 14:15:05
Weil sie kein Produkt oberhalb der 5700XT haben, welches NV in Zugzwang setzt. ;)
Entsprechend lässt man sich halt Zeit.
Ach deswegen. Ja mal sehen, ob sich da überhaupt was daran ändern wird. In dem Falle liegt die Schuld aber eindeutig bei NV selber, wenn sie nicht nachlegen wollen.
Das hat mit AMD dann immer noch nichts zu tun. Bisher siehts ja eher so aus, dass AMD sowieso nicht über eine potenzielle 3080 hinauskommen wird.
Linmoum
2020-02-17, 14:26:37
Weil sie kein Produkt oberhalb der 5700XT haben, welches NV in Zugzwang setzt. ;)
Entsprechend lässt man sich halt Zeit.
Nvidia und vor allem Lederjacke ist nicht so dämlich um ein zweites Intel zu wiederholen und sich einfach nur auszuruhen. Wird nicht passieren.
Der Zeitpunkt für einen Turing-Nachfolger hängt mMn
a) an Samsung bzw. dem, was Nvidia ja gerüchteweise dort in größerem Ausmaß fertigen lassen wollte und
b) an der Wirtschaftlichkeit von N7(+).
Gerade letzteres hatte Jensen mehrfach betont und bei einem Klopper wie schon TU102 und den deutlich höheren Fertigungskosten wäre es nur logisch, zu warten. Also sofern sie mit Ampere wieder riesige Chips bringen (müssen).
Das ist für Marktwirtschaft ein ganz natürlicher Vorgang. Längere Laufzeiten bedeutet weniger Kosten und damit mehr Gewinn. Aus der Sicht ist das, was Intel da tat, kein Fehler. Die Quartalszahlen geben Intel recht i.Ü.
Strategisch ist das in NVs Falle ja auch kein Fehler, da AMD ja ziemlich sicher nicht überholen wird, so wie es bei Intel passiert ist. Es gäbe da mMn nur eine Ausnahme und das wäre, wenn AMD auch bei GPUs Chiplets einsetzt (also N21 ein Renderbackend wäre und N22 ein Frontend für 2 Backends beispielsweise), das ist aber eher Träumerei denke ich. Als monolithische Chips hat AMD da keine Chance momentan. Also macht Jensen in dem Fall doch alles richtig. Die arbeiten doch nicht für die Kunden, sondern fürs Kapital.
mironicus
2020-02-17, 14:49:55
NVidia hätte aber schon mal kleinere GPUs in 7 nm rausbringen können z.B. für Notebooks um den Prozess zu testen.
dargo
2020-02-17, 15:04:44
Cyberpunk ist nicht mit den neuen GPUs verbunden, sondern mit den neuen Konsolen. Selbst wenn es einen Tacken früher erscheint, ist das Spiel ein richtiger Knaller für die neuen Konsolen. NV profitiert davon, weil Cyberpunk nach Überarbeitung bis September für NV ein richtiger RT-Knaller werden wird. Ich wette, dass an der Verschiebung die neuen Konsolen die Hauptschuldigen sind.
Ich frage mich immer wieder was einige in Cyberpunk so toll an der Grafik finden? Ein Grafikkracher, erst recht für eine neue Konsolengeneration scheint mir das nicht zu werden.
amdfanuwe
2020-02-17, 15:12:37
Die arbeiten doch nicht für die Kunden, sondern fürs Kapital.
Ebenso wie AMD. Und AMD reicht es erst mal im lukrativem 500+€ Markt dabei zu sein wo Nvidia mit der 2070 - 2080TI sich noch eine goldene Nase verdient.
NVidia hätte aber schon mal kleinere GPUs in 7 nm rausbringen können z.B. für Notebooks um den Prozess zu testen.
Klar doch, und in 7nm+ kann man dann wieder Testen weil es ein neuer Prozess ist. Vielleicht überspringt Nvidia ja auch 7nm und geht direkt auf 5nm nachdem dieser demnächst in die Massenproduktion geht.
Die überspringen DUV und machen EUV, das ist erheblich wahrscheinlicher. Jensen selbst hat von 7nm, nicht von 5 oder 6 gesprochen. außerdem testet man den Prozess ja mit dem neuen Profichip.
Echte Pipecleaner gab es nur sehr sehr selten in der Vergangenheit. Klassische Beispiele sind RV740 und Vega20.
Leonidas
2020-02-17, 15:21:35
Die 2080Ti Super wird allein schon deshalb sinnvoll, weil man dieses Jahr schlicht und ergreifend nichts anderes hat, wenn meine Theorie stimmt. Zudem hat man die AMD-Generationen mit allen Super-Karten vorher gekontert. Das passt doch auch super ins Bild, wenn man N2x betrachtet.
Exakt - wenn NV dieses Jahr kein Gaming-Ampere hat, dann macht eine 2080Ti-Super sehr wohl Sinn. Allerdings sehe ich nicht, wieso dieses Jahr (bzw. wenigstens zum Jahresende) kein Gaming-Ampere kommen sollte.
Bei Leos News musst ich lachen. Klar anwortet NV auf Cyberpank, mit einer 2080Ti Super sicherlich, das würde vom Zeitpunkt her jetzt sehr gut passen, aber das hat ja rein gar nichts mit dem Launchtermin für Cyberpunk zu tun. Der zeitliche Schluss ist einfach Quatsch.
Sehe ich nicht so. Wie soll man sich an Cyberpunk ranhängen - mit einer Karte nicht zum gleichen Termin. Man kann die tausendmal "Cyberpunk Edition" nennen, wenn die nicht zeitgleich rauskommt, dann wird das nur als Gag betrachtet werden.
mironicus
2020-02-17, 15:32:33
Also die unscharfe Grafik auf dem Twitter-Bild und das Muster sehen mir sehr nach einer "Super"-Grafikkarte aus.
MiamiNice
2020-02-17, 15:35:49
Mir auch ... sieht aus wie ne langweilige To(u)ring Karte eben so aussieht ...
Nach Touring und eben nicht nach Sport :freak:
Schnoesel
2020-02-17, 15:41:55
Wenn es Turing ist wird es Super langweilig. Nvidia soll mal ausm Arsch kommen.
mironicus
2020-02-17, 15:54:51
Genau so sind doch auch "Super"-Varianten für Notebooks geplant, ein weiterer Aufguss von Turing im Frühjahr. Von der Position her kann NVidia sich auch etwas Zeit lassen und schön weiter ihre konkurrenzlosen 12 nm-Karten teuer verkaufen.
Edgecrusher86
2020-02-17, 16:00:24
Mit großer Wahrscheinlichkeit eine Turing-Karte.
Entweder - passend zum Namen - eine kastrierte RTX 2080 SUPER als RTX 2077 mit z.B. 42-44 SMs, die man grob 10% oberhalb der RTX 2070 SUPER ansetzt, oder es ist eine 2080 Ti SUPER CP 2077 - Edition.
Letzteres wäre natürlich besser für das Spiel zu vermarkten - etwa mit 4K RTX on samt DLSS. Das PCB ist auf jedenfall 10,5" lang (muss also mindestens 2070S-Basis sein). Das sieht man auch am größeren Abstand der Lüfter zueinander.
Es spricht nichts dagegen, wieso man im Frühjahr nicht noch Turing bringt und zum Beispiel im dritten oder viertel Quartal Next-Gen Desktop.
So war es auch schon z.B. 2014 -> Februar die TITAN Black und im Juni die TITAN Z. Im September kamen dann GTX 980 und GTX 970 Modelle der Nachfolge-Generation oder 2017 die GTX 1080 Ti, TITAN Xp, TITAN Xp CE SW und kurz darauf die TITAN V. ;)
Exakt - wenn NV dieses Jahr kein Gaming-Ampere hat, dann macht eine 2080Ti-Super sehr wohl Sinn. Allerdings sehe ich nicht, wieso dieses Jahr (bzw. wenigstens zum Jahresende) kein Gaming-Ampere kommen sollte.
Wie gesagt, meine Argumente stehen eine Seite vorher. Entkräfte diese, würde ich gerne glauben. Für den Launch eines Gaming-Amperes würde man jetzt im März keine Präsi machen, denn vor Herbst kommt defintiv nichts. Ich glaub das aber nicht, Tape Out im April und Launch CES kommt mit für N7(N?)+ absolut wahrscheinlich vor. Das wäre aber auch nur 1/4 Jahr später als gedacht, davon mal abgesehen.
Sehe ich nicht so. Wie soll man sich an Cyberpunk ranhängen - mit einer Karte nicht zum gleichen Termin. Man kann die tausendmal "Cyberpunk Edition" nennen, wenn die nicht zeitgleich rauskommt, dann wird das nur als Gag betrachtet werden.
Das ist nur ein Spiel. Und wenns Schrott ist, hat man seine ganze Launchstrategie für diese Generation versaut. Das wird so ganz ganz ganz sicher nicht passieren. Die hängen sich definitiv nicht an ein Spiel ran, das wäre Wahnsinn. Aber CD-Projekt wird Cyberpunk als Spiel für die neuen Konsolen vermarkten. Das hat mit NV einfach genau 0 zu tun. Man sollte Cyberpunk und NV echt trennen, das ist in jedem Fall ein Holzweg.
Brillus
2020-02-17, 17:29:03
Wenn jetzt erst noch eine 2080Ti Super kommt und die 3080TI damit erst in über einem Jahr von jetzt aus gesehen werde ich der AMD Hater vorm Herrn.
Weil AMD soviel für NVs Produkte kann.
MiamiNice
2020-02-17, 17:46:07
Weil AMD soviel für NVs Produkte kann.
Wer den sonst? Vielleicht der GPU Marktführer Intel? Wohl kaum :wink:
Was meinst Du den wie schnell die 3080TI in den Läden stehen würde wenn NV fürchten müsste bald vom GPU Thron zu fallen?
Und warum fällt NV nicht vom GPU Thron? Genau weil Intel drauf sitzt und NV nicht fallen kann ... ;)
Rancor
2020-02-17, 18:05:45
Wenn jetzt erst noch eine 2080Ti Super kommt und die 3080TI damit erst in über einem Jahr von jetzt aus gesehen werde ich der AMD Hater vorm Herrn.
Digga, also ob du das nicht schon lange bist.
Piefkee
2020-02-17, 18:20:37
Introducing the GeForce RTX 2080 Ti Cyberpunk 2077 Edition.
We made 77 for our community.
Hahahah, und ihr diskutiert wild rum xD
Ravenhearth
2020-02-17, 19:05:29
Link dazu: https://www.nvidia.com/en-us/geforce/news/cyberpunk-2077-geforce-rtx-2080-ti-gpu/
Schnoesel
2020-02-17, 19:51:14
Ein Satz mit X ... Ich kotze
bbott
2020-02-17, 20:10:32
Wer den sonst? Vielleicht der GPU Marktführer Intel? Wohl kaum :wink:
Was meinst Du den wie schnell die 3080TI in den Läden stehen würde wenn NV fürchten müsste bald vom GPU Thron zu fallen?
Und warum fällt NV nicht vom GPU Thron? Genau weil Intel drauf sitzt und NV nicht fallen kann ... ;)
AMD kann dafür gar nichts, das liegt an Leuten die nur Nvidia kaufen und keine AMD Karten auch wenn die AMD Karten mal besser sind (HD5000er Serie z. B.).
Die HD4800/HD4900 wurde auch verhältnismässig wenig gekauft, obwohl sie ein sehr gutes Preis-Leistungsverhältnis hatte.
Wann hast du deine letzte AMD/ATi Karte gekauft?!
Gehörst du auch zu der Fraktionen wenn Sie zwei 3 % schneller ist aber 10 % mehr Stromverbrauch ist auf einmal der Stromverbrauch relevant und wenn sie 3% langsamer ist und 10 % weniger Stromverbrauch ist sie zu langsam?! Außerdem würdest du doch eh keine einen de Karte kaufen da die Treiber zu schlecht sind, oder?!
Die aktuellen Marktpreise liegen nicht an Andis Schwäche sondern vorwiegend an der Markentreue der Nvidianer, welche Nvidia kaufen egal zu welchem Preis!
Ex3cut3r
2020-02-17, 20:15:20
Die aktuellen Marktpreise liegen nicht an AMDs Schwäche sondern vorwiegend an der Markentreue der Nvidianer, welche Nvidia kaufen egal zu welchem Preis!
Ja so funktioniert halt Marketing bzw. die Angst der Menschen, warum auf was anderes wechseln, wenn man jahrelang keine Probleme (Nvidia) hatte.
Warum den Stamm Friseur wechseln, den man kennt, wo man weiß was mich erwartet? Selbes Bespiel. ;)
Und wenn man das Geld locker hat, warum nicht? Auch Nvidia bietet GPUs zum Midrange und unterem Preissegment an, es ist ja nicht so, dass man gezwungen wird eine 2080 Ti zu kaufen, oder doch? :eek:
TheAntitheist
2020-02-18, 00:04:51
AMD kann dafür gar nichts, das liegt an Leuten die nur Nvidia kaufen und keine AMD Karten auch wenn die AMD Karten mal besser sind (HD5000er Serie z. B.).
Die HD4800/HD4900 wurde auch verhältnismässig wenig gekauft, obwohl sie ein sehr gutes Preis-Leistungsverhältnis hatte.
Wann hast du deine letzte AMD/ATi Karte gekauft?!
Gehörst du auch zu der Fraktionen wenn Sie zwei 3 % schneller ist aber 10 % mehr Stromverbrauch ist auf einmal der Stromverbrauch relevant und wenn sie 3% langsamer ist und 10 % weniger Stromverbrauch ist sie zu langsam?! Außerdem würdest du doch eh keine einen de Karte kaufen da die Treiber zu schlecht sind, oder?!
Die aktuellen Marktpreise liegen nicht an Andis Schwäche sondern vorwiegend an der Markentreue der Nvidianer, welche Nvidia kaufen egal zu welchem Preis!
ich hatte das letzte mal eine AMD karte vor 4-5 Jahren, wollte Dota2 zocken und das Scrollen in den Ecken war verbuggt, NUR auf AMD Karten und es wurde ein Jahr nicht gefixed. Tja das war die letzte Chance.
x-force
2020-02-18, 00:15:50
Die HD4800/HD4900 wurde auch verhältnismässig wenig gekauft, obwohl sie ein sehr gutes Preis-Leistungsverhältnis hatte.
Wann hast du deine letzte AMD/ATi Karte gekauft?!
die 4850 ist nicht ohne grund die letzte ati karte, die ich besessen habe.
kompromisslos besser ist amd leider ziemlich selten gewesen(und wird es auch in zukunft leider nicht werden).
Badesalz
2020-02-18, 07:37:22
AMD kann dafür gar nichts, das liegt an Leuten die nur Nvidia kaufen und keine AMD Karten auch wenn die AMD Karten mal besser sind (HD5000er Serie z. B.).Denke so pauschal ist das nicht. Schau dir das Intel und das AMD CPU Unterforum aktuell ;)
Alleine den Gewohnheiten und blindem Fanboyismus würde ich das nicht zuschreiben.
Zossel
2020-02-18, 08:04:54
Ja so funktioniert halt Marketing bzw. die Angst der Menschen, warum auf was anderes wechseln, wenn man jahrelang keine Probleme (Nvidia) hatte.
Seit ich unter Windows NT 4.0 Probleme mit Nvidia hatte kaufe ich das nicht mehr.
Die S3 davor und die Matrox danach hatten keine Probleme.
So einfach ist das.
MiamiNice
2020-02-18, 10:16:02
Die aktuellen Marktpreise liegen nicht an Andis Schwäche sondern vorwiegend an der Markentreue der Nvidianer, welche Nvidia kaufen egal zu welchem Preis!
Ich beschwere mich nicht über die Marktpreise sondern über die Verfügbarkeit neuerer und schnellerer Chips. Und da spielt fehlende Konkurrenz schon eine Rolle.
Wenn jetzt erst noch eine 2080Ti Super kommt und die 3080TI damit erst in über einem Jahr von jetzt aus gesehen werde ich der AMD Hater vorm Herrn.
Ich beschwere mich nicht über die Marktpreise sondern über die Verfügbarkeit neuerer und schnellerer Chips. Und da spielt fehlende Konkurrenz schon eine Rolle.
Na dann unterstütz die notwendige Konkurrenz doch mal n bisschen ;)
Nur mit dem hassen der Konkurrenz wird's bestimmt nicht besser :freak:
M.f.G. JVC
MiamiNice
2020-02-18, 10:39:02
Das muss leider jemand leisten der nicht so auf Leistung angewiesen ist wie ich. Frag die 2D FHD Spieler :wink:
Für mehr hat AMD leider keine Karten im Programm :(
WedgeAntilles
2020-02-18, 11:02:38
Ja so funktioniert halt Marketing bzw. die Angst der Menschen, warum auf was anderes wechseln, wenn man jahrelang keine Probleme (Nvidia) hatte.
Warum den Stamm Friseur wechseln, den man kennt, wo man weiß was mich erwartet? Selbes Bespiel. ;)
Und wenn man das Geld locker hat, warum nicht? Auch Nvidia bietet GPUs zum Midrange und unterem Preissegment an, es ist ja nicht so, dass man gezwungen wird eine 2080 Ti zu kaufen, oder doch? :eek:
Keine Ahnung wo du arbeitest, aber in vielen Geschäftsbeziehungen gilt: Wenn man Jahrelang gut mit jemandem zusammenarbeitet, immer alles gut läuft - wechselt man dann wirklich zur Konkurrenz, nur weil man da 5% sparen kann?
Wenn dein einziges Kriterium der Preis ist und du immer suchst wo es noch mal 2 Euro 50 günstiger ist - klar, das kannst du machen. Aber wirst du damit glücklich?
Wenn ich 10-20 Jahre lang mit den Produkten eines Herstellers zufrieden war wechsel ich doch nicht, nur weil mein neuer PC dann statt 1.500 Euro nur 1.480 Euro kostet.
Edit: Gleiches gilt übrigens für Geschwindigkeit oder Energieeffizienz:
Wenn ich mit AMD seit 20 Jahre gut fahre - wieso soll ich da zu Nvdia wechseln, nur weil die 2070 Super noch mal ein paar Prozentpunkte schneller ist? (Die 2080er ignoriere ich mal, weil preislich nicht mehr ansatzweise vergleichbar.) Ob ich 50 Frames habe oder 52 ist doch völlig schnuppe. Natürlich bleibe ich da bei AMD und welchsle wegen 2 Frames nicht zu Nvidia.
(Dieses Beispiel nur noch, damit man mir hier nicht unterstellt, ich wäre ein AMD Hater...)
Mal ganz generell: Ständig fordert jeder immer Service, Qualität und so weiter.
Aber gleichzeitig heißt es dann wieder, dass man immer dort kauft wo man noch mal ein paar Euro sparen kann.
Wenn mir ein Händler guten Service bietet, das seit Jahren, dann honoriere ich presönlich das auch. Dann darf dieser Händler auch 5 Euro mehr verlangen.
Wenn er gierig wird und 30% mehr will wechsle ich. Oder eben wenn der Service oder die Qualität nicht mehr stimmt.
Aber bitte fordert nicht tollen Service und Qualität, ohne bereit zu sein auch nur den mindesten Aufpreis dafür zu bezahlen.
Das funktioniert nicht.
(Und ja, das hat jetzt nichts mehr mit AMD / Nvidia zu tun)
x-force
2020-02-18, 11:15:30
einzelfälle
der ökonom(wie ich) kauft das unterm strich beste angebot für seinen bedarf.
sehr selten sind aber zwei produkte wirklich gut vergleichbar.
ko kriterien(idle verbrauch multimonitor, bugfreiheit, nutzbarkeit der software, usw) sind in der praxis viel wichtiger.
WedgeAntilles
2020-02-18, 12:23:10
der ökonom(wie ich) kauft das unterm strich beste angebot für seinen bedarf.
Und Zuverlässigkeit deines Geschäftspartners z.B. bewertest du mit 0?
Das beste Angebot ist für mich nicht unbedingt das billigste.
der ökonom(wie ich) kauft das unterm strich beste angebot für seinen bedarf.
sehr selten sind aber zwei produkte wirklich gut vergleichbar.
ko kriterien(idle verbrauch multimonitor, bugfreiheit, nutzbarkeit der software, usw) sind in der praxis viel wichtiger.
Ich behaupte, du kaufst das, was die subjektiv am meisten zusagt. Die Homo-Ökonomicus ist ein naiv-dämliches Märchen, das die Psychologie schon längst zerfetzt hat :D. Auf das läufts ja hinaus.
Ich hab damals auch ne Vega gekauft, obwohl das im Nachheinein Unsinn war. Das war ganz sicher keine ökonomische Entscheidung. Ökonomie pauschalisiert viel zu stark um das auf ein Individuum herunterzubrechen.
Das ist auch der Punkt, der Entscheidung für den Kauf wird von niederen Beweggünden getroffen, das ist weder logisch noch rein ökonomisch nachvollziehbar, sehr wohl aber psychologisch, das wäre aber extrem komplex.
Zossel hat da nicht ganz Unrecht mit seinem Sarkasmus.
WedgeAntilles
2020-02-18, 13:16:12
Ich behaupte, du kaufst das, was die subjektiv am meisten zusagt. Die Homo-Ökonomicus ist ein naiv-dämliches Märchen, das die Psychologie schon längst zerfetzt hat :D. Auf das läufts ja hinaus.
Ich hab damals auch ne Vega gekauft, obwohl das im Nachheinein Unsinn war. Das war ganz sicher keine ökonomische Entscheidung.
Das ist auch der Punkt, der Entscheidung für den Kauf wird von niederen Beweggünden getroffen, das ist weder logisch noch rein ökonomisch nachvollziehbar, sehr wohl aber psychologisch, das wäre aber extrem komplex.
Der Homo-Oekonomicus ist nur dann idiotisch, wenn du es rein materiell siehst.
Selbstverständlich muss man da weiche Faktoren mit einrechnen.
Ich wiederhole mich: Ich selber hatte meine erste "richtige" Gra-Ka eine TNT 1 von Nvidia. (Davor waren GraKas ja nicht so wichtig).
Hatte damit keine Probleme, habe dann ne TNT 2 gekauft. Wieder ging alles gut und ich habe mir als nächstes eine TI 4200 gekauft. Die hatte damals richtig gutes Preis-Leistungs-Verhältnis, hatte mich deswegen für die entschieden. Wieder Nvidia, weil ich mit den zwei Vorgängerkarten zufrieden war.
Auch hier ging alles gut.
Ab dann war ich emotional klar Richtung Nvidia gepolt. 3 mal keine Probleme -> die nächste GraKa wird vermutlich auch wieder ne Nvidia.
Klar, wenn AMD ein klar besseres Produkt angeboten hätte, wäre es AMD geworden. Aber wenn die Verhältnisse ähnlich sind?
Ich kam zufällig zu Nvidia (meine erste GraKa hätte auch ne Vodoo 3 sein können - wäre damals auch die bessere Entscheidung gewesen.)
Aber nach guten Erfahrungen der letzten 20 Jahre ist es für mich inzwischen völlig logisch und ökonomisch sinnvoll zu sagen:
Wenn die Nvidia Karte bei vergleichbarer Leistung 30 Euro mehr kostet kaufe ich mir trotzdem die Nvidia Karte.
Weil ich mir damit ein Gefühl kaufe, dass sicherlich alles klappen wird - so wie die letzten 20 Jahre.
Dann kostet mich mein neuer PC 1500 Euro, bei AMD kostet er 1470 Euro.
Beim Nvidia PC habe ich aber mehr Vertrauen und ein besseres Gefühl.
(Ob das jetzt "richtig" ist oder nicht spielt keine Rolle)
Und selbstvertständlich ist es rational und ökonomisch, 1500 Euro auszugeben mit gutem Gefühl als 1470 Euro mit mulmigem Gefühl.
Der Homo-Oeconomicus ist damit vollständig erfüllt, wenn ich Nvidia kaufe.
Da es eben NICHT nur um den niedrigsten Preis geht.
Andersrum gilt natürlich genau das Gleiche.
Wenn jemand mit Vodoo Karte begonnen hat, dann ne schöne ATI Karte, jetzt ne AMD Karte. Er war immer zufrieden.
Derjenige macht doch absolut alles richtig, wenn er jetzt wieder ne 5700 kauft statt der 2070. Dann hat die 2070 halt ein paar mehr Frames, na und? (Kostet ja auch ein paar Euro mehr, aber selbst wenn der Preis identisch wäre.)
Auch derjenige ist selbstverständlich zu 100% "Homo-Oeconomicus" wenn er die 5700 Karte kauft.
Und auch für die dritte Partei ist "Homo-Oeconomicus" vollständig erfüllt: Jene, die mal das eine, mal das andere hatten und mit keiner der Produkte ein Gefühl wie "Sicherheit" oder so verbinden.
Denen ist es völlig schnuppe, ob eine GeForce oder Radeon Karte in Ihrem Rechner steckt. Und dann wird selbstverständlich die Karte gekauft, die 20 Euro weniger kostet (bei identischer Leistung). Völlig rational.
So ist es bei mir z.B. im CPU Bereich.
Da ist aktuell ein Xeon drin, hatte aber auch schon nen klasse Athlon.
Da interessiert mich der Name gar nicht, ausschließlich Preis Leistung von CPU + Mainboard.
Und da ist für mich aktuell klar, dass meine neue CPU im Winter nach jetzigem Stand zu 100% von AMD kommen wird.
x-force
2020-02-18, 13:20:21
Ich behaupte, du kaufst das, was die subjektiv am meisten zusagt.
das ist logisch, die frage ist ja nur, was einem überhaupt zusagt und wie man das was einem zusagt gewichtet.
grundsätzlich gilt das für die leute, die sich in irgendeiner art und weise mit ihrer hardware identifizieren.
mir ist der name, der draufsteht wirklich scheiß egal.
ich weiß, daß die meistens sich anders entscheiden, aber wenn du mich kennen würdest, wäre das auch kein thema :D
Aber wenn die Verhältnisse ähnlich sind?
dann kaufe ich, was mir mehr leistung für mein geld bringt.
das ist der grund warum ich cpu seitig einen p2, slot a athlon, a64 single und dual core, haswell, skylake und wahrscheinlich danach ryzen 4 kaufe
gpu seitig habe ich aus gleichem grund voodoo2, gf256, ati 8500, 9700, x1900, 980gtx und zuletzt 1070 gekauft.
einzig über die 8500 kann man streiten, ich war mir aber über die af geschichte zum kaufzeitpunkt nicht wirklich im klaren
Das muss leider jemand leisten der nicht so auf Leistung angewiesen ist wie ich.
Ja Das kenn ich. Hab ja aus diesem Grund nach längerer Zeit wieder mal zu NV greifen "müssen".
Hätte ich die 7 erwarten können, hätte es auch die getan...
Aber 4K will versorgt werden und zwar ohne "up-scaling".
Frag die 2D FHD Spieler :wink:
Für mehr hat AMD leider keine Karten im Programm :(
Na na, übertreib mal nicht. Für WQHD oder das halbe 4K(UWQHD) reicht ne 5700(XT) auch noch.
Du musst ja nicht gleich AMD Hardware kaufen, aber ne etwas weniger negative Einstellung
würde dir, und deiner Problematik wegen fehlender Konkurrenz, eher hilfreich sein :wink:
M.f.G. JVC
P.s.: Wenn du schon nicht selbst kaufst und nur vom Konkurrenzkampf profitieren möchtest,
dann würde ich an deiner stelle schauen das es eben wer anders kauft.
Oder du hast irgendwann mal gar keine Auswahl/Konkurrenz mehr.
(so wie momentan im 4K+ Bereich -->steigende Preise und sich verlangsamende Evolution)
MiamiNice
2020-02-18, 14:30:44
aber ne etwas weniger negative Einstellung
Sorry, aber ich halte mich schon massivst zurück. Wenn es nach mir ginge wäre der Laden vor 10 Jahren enteignet und an Bedürftige verteilt worden. :wink:
Naja, wenn es dein Wesen ist ...
Aber wenn es die schon 10 Jahre nicht mehr geben würde,
wer wäre dann die treibende Konkurrenz die Du vorderst ?
Wen hättest du dann "auf dem Kieker" ?
Ich habe das Gefühl dir missfällt NVs warte Taktik.
(als Führender kann man das machen)
Aber ist da dann der Wartende oder der Nachfolgende schuldig ?
(Stau fängt vorne an, nicht hinten ;))
M.f.G. JVC
MiamiNice
2020-02-18, 18:32:49
Das hatten wir hier alles schon 10x in den letzten 10 Jahren :wink:
Macht keinen Sinn und ist OT.
Badesalz
2020-02-18, 22:07:26
Das hatten wir hier alles schon 10x in den letzten 10 Jahren :wink:
Macht keinen Sinn und ist OT.Das ist wohl wahr. Und ich wundere mich auch jedes Jahr warum du mal wieder damit angefangen hast.
Timbaloo
2020-02-19, 08:41:59
Ich habe das Gefühl dir missfällt NVs warte Taktik.
Von welcher warte-Taktik redest du? NV liefert konstant und das seit Jahren.
Mangel76
2020-02-19, 09:02:39
Von welcher warte-Taktik redest du? NV liefert konstant und das seit Jahren.
Lass das nicht Miami hören. Wenn AMD nicht so komplett unfähig wäre, wäre Touring sicher zehnmal so schnell gewesen :freak:
maximus_hertus
2020-02-19, 09:04:01
Ich finde es ja geil wie einige eine zu krasse Erwartungshaltung haben und wenn diese, wie erwartet, in die Hose gehen, einen Schuldigen suchen. Das kann dann nur AMD sein.
Teilweise ist das eine Obsession, ein krampfhafter Anti-AMD Wahn. Ich kann es echt nicht verstehen.
Hardware sollte keine Religion sein, allerdings scheint es bei dem netten Miami genau das zu sein.
pixeljetstream
2020-02-19, 10:43:41
Das vendor bashing ist eh sinnfrei, ist ja nicht so dass es viele Firmen gibt die überhaupt das Niveau liefern, wer dann über die wenigen schon lästert hat imo kein Respekt vor der technischen Leistung an sich. Es ist immer besser für alle, ob nun ökonomisch oder technisch, je mehr sich einem Themenbereich widmen.
Dural
2020-02-19, 11:28:54
Sorry aber für mich ist Fakt wäre AMD nicht so schwach, hätte es Turing in dieser Form kaum gegeben.
NV konnte Monster Chips bringen weil sie wussten (Oder davon ausgingen) das es kein Preisdruck geben wird.
Nightspider
2020-02-19, 12:07:30
Lass das nicht Miami hören. Wenn AMD nicht so komplett unfähig wäre, wäre Touring sicher zehnmal so schnell gewesen :freak:
Genau wie Intel noch 10x schnellere CPUs in der Schublade haben sollte, falls AMD doch mal zurückschlägt. ;D
Mangel76
2020-02-19, 12:09:36
Sorry aber für mich ist Fakt wäre AMD nicht so schwach, hätte es Turing in dieser Form kaum gegeben.
NV konnte Monster Chips bringen weil sie wussten (Oder davon ausgingen) das es kein Preisdruck geben wird.
Sorry, aber hätte es AMD nicht gegeben, hätte NV überhaupt keinen Anreiz gehabt, so große GPUs produzieren zu müssen. Das wäre wie im CPU-Bereich gelaufen, wir hätten heute noch Maxwell-Leistung in Aufguss 23.
Badesalz
2020-02-19, 12:12:24
Das vendor bashing ist eh sinnfrei, ist ja nicht so dass es viele Firmen gibt die überhaupt das Niveau liefern, wer dann über die wenigen schon lästert hat imo kein Respekt vor der technischen Leistung an sich. Es ist immer besser für alle, ob nun ökonomisch oder technisch, je mehr sich einem Themenbereich widmen.Ich hoffe du bist damit nicht beleidigt, aber das ist das Weiseste was ich von dir je gelesen habe. Und absolut richtig sowieso.
@Nightspider
Man weiß das grad leider nur nicht so genau, ob Intel das nicht kann (Schubladen-Designs doch nichts gewesen) oder nur nicht darf (Herstellungsprozesse versemmelt) :)
Dampf
2020-02-19, 13:35:11
Sorry aber für mich ist Fakt wäre AMD nicht so schwach, hätte es Turing in dieser Form kaum gegeben.
NV konnte Monster Chips bringen weil sie wussten (Oder davon ausgingen) das es kein Preisdruck geben wird.
Es geht nicht immer nur um Steigerungen der Rohperformance. Mit Turing hat Nvidia von der Roh-Performance weniger geliefert als sonst, aber was architektureller Fortschritt angeht ist Turing Pascal soweit überlegen, dass es nicht mehr lustig ist. Nvidia beschreibt es selbst als größten Sprung seit der 8800 Serie und wenn man sich anschaut, was an Turing alles verändert wurde, kann man das auch glauben.
In den jetzigen Spielen macht sich das nicht so sehr bemerkbar, aber in den kommenden Jahren wird sich Turing von Pascal weit absetzen wenn Spiele die Features besser oder erstmal überhaupt nutzen.
Turing bietet hardwarebeschleunigtes Raytracing, dedizierte Kerne für maschinelles Lernen, Optimierungen für half/mixed precision rendering, Variable Rate Shading, Mesh Shading und noch andere kleinere Änderungen.
Schnoesel
2020-02-19, 13:46:54
Für einen den nur interessiert was hinten bei raus kommt ist mir das ziemlich egal welche Änderungen gemacht wurden und was Nvidia nicht alles behauptet. Turing ist für mich und viele andere in meiner Position keine Überlegung wert.
MiamiNice
2020-02-19, 13:59:58
Für einen den nur interessiert was hinten bei raus kommt ist mir das ziemlich egal welche Änderungen gemacht wurden und was Nvidia nicht alles behauptet. Turing ist für mich und viele andere in meiner Position keine Überlegung wert.
Dito
Lass das nicht Miami hören. Wenn AMD nicht so komplett unfähig wäre, wäre Touring sicher zehnmal so schnell gewesen :freak:
Turing wäre anders erschienen wenn AMD auch nur halbwegs ein Konkurrent wäre. Man könnte quasi sagen das Turing nur existiert eben weil AMD so weit weg ist.
Sorry, aber hätte es AMD nicht gegeben, hätte NV überhaupt keinen Anreiz gehabt, so große GPUs produzieren zu müssen. Das wäre wie im CPU-Bereich gelaufen, wir hätten heute noch Maxwell-Leistung in Aufguss 23.
Wenn es AMD nicht geben würde, gäbe es jemand anderen.
Und was heißt wie im CPU Bereich? Intel vergoldet die Aktien während AMD schläft, ist wohl das normalste der Welt. Die Schuld ist auch hier bei AMD.
Oder willst Du Intel oder sonst wem vorwerfen sie würden falsch handeln wenn sie genau das tun was unserer Gesellschaft von Ihnen erwartet?
Was meinst Du was AMD bei getauschten Rollen gemacht hätte? Eben :)
Leonidas
2020-02-19, 14:07:43
Tja, was hätte denn passierten können, wenn NV anno 2018 mit Konkurrenz hätte rechnen müssen. Dann wäre wahrscheinlich RT draußen geblieben, eventuell hätte man auch auf Biegen und Brechen auf 10nm gesetzt. Ohne 10nm hätte man kaum mehr Performance bringen können, weil noch größere Chips sicherlich nicht drin sein.
So gesehen ist Turing eigentlich schon ein Spitzenangebot: 10nm war nicht spruchreif. Trotzdem hat NV riesige Chips hingesetzt, wo eigentlich ein kleiner Pascal-Refresh gereicht hätte. Und RT haben wir wohl nur oben drauf bekommen, weil NV klar war, das jetzt wegen des schwachen Wettbewerbs die Gelegenheit dazu ist. So gesehen ist Turing sogar ziemlich prall - für die 12nm-Fertigung.
Timbaloo
2020-02-19, 14:08:41
Turing wäre anders erschienen wenn AMD auch nur halbwegs ein Konkurrent wäre. Man könnte quasi sagen das Turing nur existiert eben weil AMD so weit weg ist.
Sagst du uns auch _wie_ Turing deiner Meinung nach erschienen wäre?
Turing ist für mich und viele andere in meiner Position keine Überlegung wert.
Für dich mag das zutreffen, aber maße dir bitte nicht an für andere zu sprechen.
Warum setzt AMD jetzt auch auf RT? Rückblickend, ohne jetzt irgendeinem Lager anzugehören wirkt es auf mich so, das NV das Turing Release aufgrund der hohen R/D Kosten gar nicht mehr verschieben konnte, weil von AMD leider nix kam.
NV pusht die Tecs (RT/DLSS) und greift jetzt auch AMD´s Vorreiterrolle in VBS (G-Sync) an.
Ich wünsche mir einen richtig starkes AMD Monster, auf das endlich wieder Wettbewerb herscht.
Grüße
Schnoesel
2020-02-19, 14:16:14
Einfach mal lesen was ich geschrieben habe:
Da steht "für mich und viele andere" Also wo bitte maße ich mir an für jemand anders zu sprechen?
MiamiNice
2020-02-19, 14:22:03
Sagst du uns auch _wie_ Turing deiner Meinung nach erschienen wäre?
-RT +10-15% Rohleistung, vermutlich.
Sweepi
2020-02-19, 14:23:49
Für einen den nur interessiert was hinten bei raus kommt ist mir das ziemlich egal [...]
Es gibt dabei ja immer Abwägungen und Wechselwirkung zwischen Effekt jetzt und Effekt später.
Vll gefällt dir ja das was in einem Jahr hinten raus kommt wesentlich besser, als das in der anderen Timeline der Fall gewesen wäre?
Timbaloo
2020-02-19, 14:28:46
-RT +10-15% Rohleistung, vermutlich.
Also deutlich größere Chips? Nope. Einfach nope.
Einfach mal lesen was ich geschrieben habe:
Da steht "für mich und viele andere" Also wo bitte maße ich mir an für jemand anders zu sprechen?
Ja eben, für die vielen anderen.
Anmaßend, arrogant, kein Textverständnis.
Schnoesel
2020-02-19, 15:07:25
Bullshit.Wenn du das nicht verstehst was mit "für mich und viele andere (die genauso denken wie ich)" gemeint ist dann ist dir nicht zu helfen. Geh jemand anderes anpammpen.
Turing ist für mich und viele andere in meiner Position keine Überlegung wert.
Selbe "Position" ;) Besitze auch eine gute 1080Ti
Und JA, wenn man nicht gerade RTX benötigt oder unbedingt "IN" sein muss,
lohnt das upgrade auf ne 2080Ti auch in meinen Augen einfach nicht.
M.f.G. JVC
Lehdro
2020-02-19, 15:34:41
Wenn es AMD nicht geben würde, gäbe es jemand anderen.
Wer wäre das denn? Da bin ich ja echt gespannt.
Rancor
2020-02-19, 16:30:08
Ich verstehe es auch nicht. Dieses Fanboytum ist sowas von lächerlich, das es nicht mehr feierlich ist.
Daredevil
2020-02-19, 16:46:37
Tja, was hätte denn passierten können, wenn NV anno 2018 mit Konkurrenz hätte rechnen müssen. Dann wäre wahrscheinlich RT draußen geblieben,
Mal ein anderer Denkansatz.
Vielleicht rechnet Nvidia halt auch einfach mal damit, dass AMD mit ihnen aufschließt und hat nur deswegen Raytracing in die Box dazu gelegt, einfach weil man sich so von der Konkurrenz abheben kann.
Es ist ja nicht so, als wäre AMD grundsätzlich in einer hervorragenden Situation mit den Konsolen.... nur muss AMD jetzt auch RT liefern weil....... weil......... weil........? Weil es erwartet wird in einer Next Gen Konsole. Niemand will #RTXoff haben. :D
I mean.... AMD hat schon seit Jahren mehr Kerne als Intel im Angebot, trotzdem hat die Stärke von Intel, die Geschwindigkeit mit weniger Kernen, mehr gefruchtet.
Nun hat Intel nicht mehr die schnellsten Prozessoren, weil AMD aufgeholt hat und muss ebenfalls beim "Kernrüsten" zusehen, wie AMD davon läuft.
Sowas kann Nvidia auch passieren, wenn sie keine Secret Sauce in der Hand haben.
RT kam entweder, weil AMD unbewaffnet war oder eben deswegen, weil das AMD langfristig unbewaffnet machen soll. :)
MiamiNice
2020-02-19, 17:23:54
Also deutlich größere Chips? Nope. Einfach nope.
Nö. Pack das RT Gedöns raus und Du hast Platz.
Wer wäre das denn? Da bin ich ja echt gespannt.
Jeder ist ersetzbar.
-----
Gab es eigentlich schon Preistips für Ampere?
Ich tippe auf 1649€ oder 1699€ für die 3080TI
Linmoum
2020-02-19, 17:34:48
Nö. Pack das RT Gedöns raus und Du hast Platz.
Der Mythos von platzfressendem RT scheint sich ja immer noch hartnäckig zu halten. Woher kommt das?
Timbaloo
2020-02-19, 18:00:30
Ich versteh es auch nicht...
crux2005
2020-02-19, 18:02:44
Der Mythos von platzfressendem RT scheint sich ja immer noch hartnäckig zu halten. Woher kommt das?
Weil RT Komplex ist und viel Leistung braucht.
Hauwech
2020-02-19, 18:28:40
Weil RT Komplex ist und viel Leistung braucht.
Nur weil es ordentlich Leistung kostet muss es nicht automatisch auch viel Fläche belegen.
MiamiNice
2020-02-19, 18:36:28
Es waren imo ca. 10% Fläche. Gab es mal eine News zu von Leo :)
Lehdro
2020-02-19, 18:54:42
Jeder ist ersetzbar.
Hatte ich mir gedacht, dass da nichts sinnvolles mehr kommt. Monopole scheint es in deiner Welt nicht zu geben und ansonsten ist immer die Nr. 2 Schuld wenn die Nr. 1 irgendeinen Scheiß abzieht. Nettes naives Weltbild.
nordic_pegasus
2020-02-19, 19:03:55
Der Mythos von platzfressendem RT scheint sich ja immer noch hartnäckig zu halten. Woher kommt das?
warum ist denn dann TU102 im Vergleich zu GP102 so riesig geworden. Trotz Sprung von 16nm auf 12nm bei gerade einmal 3840 Shader zu 4602 Shader wurde doch irgendwo Die-Size verballert, die effektiv in herkömmlichen Rasterisation-Anwendung nur mäßig Mehrleistung gebracht haben... Da kommt man halt schnell auf die RT/Tensor-Cores. Ich habe hier im 3DC gelesen, dass die RT/Tensor-Cores kaum Platz brauchen, was hat denn dann Turing zu "fett" gemacht?
Ich glaube immernoch, dass ein Pascal-Shrink in 12nm mit 5-6k Shadern ohne Tensor/RT-Ballast in 2018 die bessere Karte für die meisten Konsumenten gewesen wäre. Gerade in Kombination mit High-Refresh-Displays, welche nach mehr fps lechzen.
crux2005
2020-02-19, 19:07:06
Nur weil es ordentlich Leistung kostet muss es nicht automatisch auch viel Fläche belegen.
Habe ich auch nicht behauptet. Ich habe nur versucht zu erklären wieso noch immer so viele glauben "RT Einheiten" würden viel Chipfläche bei Turing einnehmen.
MiamiNice
2020-02-19, 19:07:26
Hatte ich mir gedacht, dass da nichts sinnvolles mehr kommt. Monopole scheint es in deiner Welt nicht zu geben und ansonsten ist immer die Nr. 2 Schuld wenn die Nr. 1 irgendeinen Scheiß abzieht. Nettes naives Weltbild.
Was soll denn da bitte auch kommen? Ich bin kein Wahrsager.
crux2005
2020-02-19, 19:16:54
warum ist denn dann TU102 im Vergleich zu GP102 so riesig geworden. Trotz Sprung von 16nm auf 12nm bei gerade einmal 3840 Shader zu 4602 Shader wurde doch irgendwo Die-Size verballert, die effektiv in herkömmlichen Rasterisation-Anwendung nur mäßig Mehrleistung gebracht haben... Da kommt man halt schnell auf die RT/Tensor-Cores. Ich habe hier im 3DC gelesen, dass die RT/Tensor-Cores kaum Platz brauchen, was hat denn dann Turing zu "fett" gemacht?
Habe eine passende News dazu gefunden: https://www.pcgameshardware.de/Geforce-GTX-1660-Ti-Grafikkarte-268626/News/RTX-Einheiten-sollen-Chip-um-22-Prozent-vergoessern-1279431/
Die Turing uArch: https://www.anandtech.com/show/13282/nvidia-turing-architecture-deep-dive
oder Whitepaper: https://www.nvidia.com/content/dam/en-zz/Solutions/design-visualization/technologies/turing-architecture/NVIDIA-Turing-Architecture-Whitepaper.pdf
AFAIR sind die CUDA Cores sehr in der Fläche gewachsen damit sie FP32 und INT32 OPs in 1 Takt schaffen.
Dazu größere Caches, viele uArch änderungen für Mesh Shading, AC, VRSS etc.
Soll keine detaillierte Erklärung sein. Evtl. kann es jemand besser. :)
Ich glaube immernoch, dass ein Pascal-Shrink in 12nm mit 5-6k Shadern ohne Tensor/RT-Ballast in 2018 die bessere Karte für die meisten Konsumenten gewesen wäre. Gerade in Kombination mit High-Refresh-Displays, welche nach mehr fps lechzen.
Sehr einfach gesagt. Irgendwann musste NV den "Schnitt" machen um die uArch auf DX12+ Niveau zu hieven. Maxwell und Pascal waren so gesehen noch "DX11 Beschleuniger mit DX12 Unterstützung". Ich sehe schon die ersten die mich deswegen auseinander nehmen.
Badesalz
2020-02-19, 19:33:15
Mal ein anderer Denkansatz.
Vielleicht rechnet Nvidia halt auch einfach mal damit, dass AMD mit ihnen aufschließt und hat nur deswegen Raytracing in die Box dazu gelegt, einfach weil man sich so von der Konkurrenz abheben kann.Ich meine das ist das was Leo u.a. erzählen wollte.
Es ist ja nicht so, als wäre AMD grundsätzlich in einer hervorragenden Situation mit den Konsolen.... nur muss AMD jetzt auch RT liefern weil....... weil......... weil........? Weil es erwartet wird in einer Next Gen Konsole. Niemand will #RTXoff haben. :DDie Konsolen werden RT spielbar haben. D.h. AMD kann RT. Nur eben weder Kohle noch Zeit gehabt das zeitnah mit NV fertig zu machen.
RT selbst war für mich schon ~2015 etwas, was irgendwann kommen wird.
[uqote]RT kam entweder, weil AMD unbewaffnet war oder eben deswegen, weil das AMD langfristig unbewaffnet machen soll. :)[/QUOTE]Eher das erste. Mit einer Uzi zu einer Messerstecherei erscheinen ist genau Jensens Ding ;)
nordic_pegasus
2020-02-19, 19:37:14
Ich habe das Gefühl dir missfällt NVs warte Taktik.
(als Führender kann man das machen)
Aber ist da dann der Wartende oder der Nachfolgende schuldig ?
(Stau fängt vorne an, nicht hinten ;))
ein gutes Pferd springt nur so hoch, wie es muss ;-)
Wenn Nvidia ernsthafte Konkurrenz hätte, würden wir kürze Produktzyklen, Mehrleistung und bessere Preise sehen.
Nur leider sind wir dank der Marktbereinigung derzeit vollkommen darauf angewiesen, dass AMD hier den Retter in der Not spielt. Darum wünsche ich sogar Intel mit deren Grafik-Projekt alles Glück der Welt, denn 3 Firmen am Markt sind besser als 2 (von denen eine seit Jahren im Rückstand ist).
aufkrawall
2020-02-19, 19:40:58
Hat AMD bislang nicht gemacht, warum sollten sie es mit einer Highend-GPU dann tun? Eher scheint man sich im Preis- und VRAM-Kartell einzurichten.
Da kann man auch gleich den überteuerten NV-Kram zu Release kaufen und braucht nicht ein bis zwei Jahre auf AMD warten...
Rampage 2
2020-02-19, 21:41:30
Wie hoch ist die Möglichkeit, dass die erst kürzlich vorgestellte HBM-Spec mit 3.2 Gbps bei den NextGen-GPUs von Nvidia (und AMD) Einzug finden wird? Bei der Übertragungsrate bräuchte man nur noch ein 2048 Bit breites Interface (statt 4096) um einen AM104 (oder Navi 2X) ausreichend zu befeuern - also billiger zu fertigen. Für AM102 dann ggf. 3072 Bit...
R2
crux2005
2020-02-20, 02:44:58
Wie hoch ist die Möglichkeit, dass die erst kürzlich vorgestellte HBM-Spec mit 3.2 Gbps bei den NextGen-GPUs von Nvidia (und AMD) Einzug finden wird? Bei der Übertragungsrate bräuchte man nur noch ein 2048 Bit breites Interface (statt 4096) um einen AM104 (oder Navi 2X) ausreichend zu befeuern - also billiger zu fertigen. Für AM102 dann ggf. 3072 Bit...
R2
HBM wird es vielleicht auf HPC Grafikkarten geben. Mehr aber nicht. Und dann auch nicht der neuste HBM 2e oder wie sich der Standard Nennt.
HBM und billiger? Nein. Um die Bandbreite zu erreichen die Konsumer Karten brauchen ist GDDRX billiger. Und wird es noch eine Weile sein.
Daredevil
2020-02-20, 03:52:02
Aber wenn AMD 16GB HBM2 mit 1TB/s anbindet für 700€.... wieso kann Nvidia das nicht auch, wenn sie 1200€ verlangen? :<
TheAntitheist
2020-02-20, 04:25:03
Aber wenn AMD 16GB HBM2 mit 1TB/s anbindet für 700€.... wieso kann Nvidia das nicht auch, wenn sie 1200€ verlangen? :<
weil der Chip schon deutlich teurer ist und AMD selbst gesagt hat das sie mit der Graka nix verdienen...
Rampage 2
2020-02-20, 06:59:17
HBM und billiger? Nein.
2048 Bit HBM @ höherem Takt sind billiger als 4096 Bit HBM @ niedrigerem Takt - das meinte ich;)
Um die Bandbreite zu erreichen die Konsumer Karten brauchen ist GDDRX billiger. Und wird es noch eine Weile sein.
Du meinst wohl GDDR6 - das geht aber nur mit einem 512 Bit breitem Speichercontroller, was hier ja mehrfach kategorisch ausgeschlossen wurde. Oder alternativ müsste GDDR6 in Geschwindigkeiten von 20 Gbps oder mehr bereitgestellt werden, wenn 384 Bit weiterhin das Ende der Fahnenstange bleiben soll...
R2
Ghost1nTh3GPU
2020-02-20, 07:11:55
Wie viel mm2 würde man in 7nm für 4GB eDRAM benötigen?
Leonidas
2020-02-20, 09:12:10
Es waren imo ca. 10% Fläche. Gab es mal eine News zu von Leo :)
Richtig viel ist das nicht. Aber man hat es auf schon dicker Chipfläche noch oben drauf gesetzt, das ist das bemerkenswerte. Am Ende ist es IMO ein Mix aus zwei Überlegungen:
1. Wir können es jetzt tun, weil wir überlegen sind. Sprich, wir brauchen diese 10% Chipfläche nicht für mehr normale Einheiten.
2. Wir wissen, wohin die nächsten Konsolen-SoCs gehen. Bringen wir RT lieber jetzt heraus, dann gelten wir als Innovator.
Denn in der Schublade dürfte RT sicherlich schon gelegen haben.
Ich habe hier im 3DC gelesen, dass die RT/Tensor-Cores kaum Platz brauchen, was hat denn dann Turing zu "fett" gemacht?
Shader-Einheiten maßgeblich umgebaut zugunsten von mehr Auslastung und mehr Recheneinheiten. Mit der Zeit dürfte das auch deutlicher werden, das die Turing-SMs mehr leisten als die Pascal-SMs. Dauert heutzutage nur eben etwas, ehe das sichtbarer wird.
Wie hoch ist die Möglichkeit, dass die erst kürzlich vorgestellte HBM-Spec mit 3.2 Gbps bei den NextGen-GPUs von Nvidia (und AMD) Einzug finden wird?
Sehe ich gute Chancen. Nur die 4.2 Gbps von Samsung (Eigenweg) werden wohl die wenigsten bezahlen wollen.
Aber: Primär HPC-Bereich, nicht primär Gaming-Bereich. In letzterem nur bei Enthusiasten-GPUs. Vielleicht GA102, vielleicht Navi 23.
Timbaloo
2020-02-20, 09:47:26
Am Ende ist es IMO ein Mix aus zwei Überlegungen:
1. Wir können es jetzt tun, weil wir überlegen sind. Sprich, wir brauchen diese 10% Chipfläche nicht für mehr normale Einheiten.
2. Wir wissen, wohin die nächsten Konsolen-SoCs gehen. Bringen wir RT lieber jetzt heraus, dann gelten wir als Innovator.
Oder das vollkommen offensichtliche:
3. Es gibt das Featureset DXR als Teil vom de facto Standard DX, also sollten wir das auch unterstützen
...
2. Wir wissen, wohin die nächsten Konsolen-SoCs gehen. Bringen wir RT lieber jetzt heraus, dann gelten wir als Innovator.
+1
Wäre ja nicht das erste mal...
M.f.G. JVC
pixeljetstream
2020-02-20, 10:09:16
Ohne Details nennen zu dürfen, aber viele Argumente hier sind zu sehr "Tagespolitik", oder zu einfach (Handlung als Antwort auf unmittelbare Lage mit einem Wettbewerber). Ich habe schon paar Mal Artikel verlinkt die die Komplexität und Dauer der Entwicklung zeigen, es gibt sicher auch anderes Material wo man Einblick in langfristige Entwicklung bei Technologie hat. Ohne mehr Hintergrund ist zu viel Spekulation schon in der Basis für die Spekulation ;)
Irgendwer schrieb zum Beispiel, dass man die Produktzyklen erhöhen könnte, das ist imo für die Größe der heutigen Architekturen und Produktionskosten unrealistisch.
Leonidas
2020-02-20, 12:52:22
Hast Du Recht mit Tagespolitik. Wir mißachten, in welchem Zeiträumen diese Entscheidungen getroffen werden - teilweise drastisch bevor es dann ins Produkt geht.
Aber: Hier könnte der Hersteller auch mal bißchen mit Insiderwissen weiterhelfen, indem man mal für ältere Chips die ganze Findungs-, Design- und Finalisierungsphase offenlegt. Kann ja was wirklich älteres sein (was heute keinen mehr stört) - es geht nur ums Prinzip.
robbitop
2020-02-20, 15:16:51
Wie viel mm2 würde man in 7nm für 4GB eDRAM benötigen?
EDRAM hat gesonderte Anforderungen an der Fertigungsprozess. Auch einer der Gründe warum der edram bei der x360 extern war und von nem anderen Fertiger war und auch der Grund weshalb man bei der XBone SRAM statt edram genommen hat. Würde mich wundern wenn das bei modernen TSMC Prozessen vorgesehen ist. Der einzige der das noch macht ist IBM mit seinem FD SOI Prozess und den POWER CPUs.
—————
Turings/Voltas SMs sind (abseits TC/RT) größer geworden aufgrund größerer Caches, breiteres Featureset, mehr Controlllogik und INT16 ALIs die dazu kamen.
reaperrr
2020-02-20, 15:50:57
2048 Bit HBM @ höherem Takt sind billiger als 4096 Bit HBM @ niedrigerem Takt - das meinte ich;)
Was den HBM selbst angeht, ist diese Annahme falsch, jedenfalls wenn wir von der gleichen Menge in GB ausgehen. Für 2x 8GB schnellen HBM(2E) werden die Hersteller nämlich eher deutlich mehr pro GB verlangen als für 4x4GB langsameren HBM(2).
Teurer ist das 4096bit SI nur insofern, dass sowohl der Chip als auch der Interposer dadurch größer ausfallen.
Aber der Preisaufschlag für schnellen HBM könnte durchaus größer ausfallen, als die Kosten für das breitere Interface.
Shader-Einheiten maßgeblich umgebaut zugunsten von mehr Auslastung und mehr Recheneinheiten. Mit der Zeit dürfte das auch deutlicher werden, das die Turing-SMs mehr leisten als die Pascal-SMs. Dauert heutzutage nur eben etwas, ehe das sichtbarer wird.
Auf mich wirken die Maßnahmen von Turing in erster Linie auf mehr Effizienz abgezielt, allen voran die Einführung dedizierter INT-Einheiten.
Dadurch kann man einfacher Teile des SMs power-gaten, wenn mal gerade fast nur INT oder fast nur FP gebraucht wird. Das fällt für mich nicht unter bessere Auslastung, sondern im Gegenteil unter "nur die Teile auslasten, die für die aktuelle Aufgabe auch wirklich gebraucht werden".
Natürlich ging es auch darum, dass sich INT und FP nicht mehr gegenseitig ausbremsen können und man somit quasi immer die Peak-Werte in jeder Disziplin erreicht, selbst wenn der Code gemischter ist, insofern hast du recht.
Tatsache ist jedenfalls, dass Turing je SM mindestens 50% mehr Fläche braucht, aber (in Spielen) selten über 20% mehr IPC je SM erreicht, was auch nicht wirklich überraschend ist, da die maximale FP-Leistung je SM ja de facto gleich geblieben ist.
Ich tippe, dass Ampere/Hopper Turing ziemlich alt aussehen lassen wird, weil die Gerüchte über verdoppelte FP-Einheiten plausibel sind und dadurch + 7nmEUV die Leistung je SM wahrscheinlich massiv steigen wird.
Rampage 2
2020-02-20, 18:13:53
Sehe ich gute Chancen. Nur die 4.2 Gbps von Samsung (Eigenweg) werden wohl die wenigsten bezahlen wollen.
Aber: Primär HPC-Bereich, nicht primär Gaming-Bereich. In letzterem nur bei Enthusiasten-GPUs. Vielleicht GA102, vielleicht Navi 23.
HBM nur für AM102 und für AM104/AM106 dann GDDR6? Dann müsste Nvidia zwei grundverschiedene Speichercontroller für verschiedene Chips (die aber sonst im Design/Aufbau absolut identisch sind) implementieren - das ist nicht nur umständlicher, sondern läuft Nvidia's modularer/skalierbarer Strategie seit Fermi (128 Bit für -106, 256 Bit für -104, 384 Bit für -102) krass entgegen.
Was den HBM selbst angeht, ist diese Annahme falsch, jedenfalls wenn wir von der gleichen Menge in GB ausgehen. Für 2x 8GB schnellen HBM(2E) werden die Hersteller nämlich eher deutlich mehr pro GB verlangen als für 4x4GB langsameren HBM(2).
Teurer ist das 4096bit SI nur insofern, dass sowohl der Chip als auch der Interposer dadurch größer ausfallen.
Aber der Preisaufschlag für schnellen HBM könnte durchaus größer ausfallen, als die Kosten für das breitere Interface.
Dann käme also doch nur GDDR6 in Frage - entweder höhere Übertragungsraten (20 Gbps und mehr) oder breiteres Interface (512 Bit). Käme noch eine hypothetische 3. Möglichkeit hinzu, dass die Speicherkompression wieder massiv (!) verbessert wird, wie von Kepler -> Maxwell. Dann wären auch 18 Gbps GDDR6 noch ausreichend.
Ich tippe, dass Ampere/Hopper Turing ziemlich alt aussehen lassen wird, weil die Gerüchte über verdoppelte FP-Einheiten plausibel sind und dadurch + 7nmEUV die Leistung je SM wahrscheinlich massiv steigen wird.
Hast du dich vertippt und meintest die RT-Cores, statt FP-Cores? Es würde mich nicht wundern, wenn bei Ampere die RT-Cores pro SM glatt verdoppelt wird und die herkömmlichen Recheneinheiten nur um 33%. (also insgesamt 2,66x RT-Leistung von Turing)
R2
Ghost1nTh3GPU
2020-02-20, 19:14:55
Bei Projekt Echelon hatte man damals deutlich mehr On-Chip Cache prognostiziert: https://www.slideserve.com/deirdre-holman/echelon-nvidia-team-s-uhpc-project Slide 22 (256MB, 16TF DP, 1,6TB/s externer DRAM)
TU102 liegt gerade mal bei 18MB Register + 6MB L2 (V100 nur bei 10+6MB). Da wird es wohl definitiv Steigerungen geben.
Und wie DLSS2, welches wohl kein spezielle Training auf einzelne Spiel mehr braucht, kommt es in Zukunft nicht mehr auf die klassischen Merkmale wie GB/s, MPix/s oder FP32-FLOPs an.
reaperrr
2020-02-20, 19:30:53
Hast du dich vertippt und meintest die RT-Cores, statt FP-Cores? Es würde mich nicht wundern, wenn bei Ampere die RT-Cores pro SM glatt verdoppelt wird und die herkömmlichen Recheneinheiten nur um 33%. (also insgesamt 2,66x RT-Leistung von Turing)
Nein, ich meinte tatsächlich die FP-Einheiten.
Auch wenn ich davon ausgehe, dass die RT- und Tensor-Cores je SM ebenfalls verdoppelt werden.
Im Prinzip gehe ich davon aus, dass nur die Zahl der Integer-, Textur-, SpecialFunction-Einheiten je SM nicht erhöht werden und der L1 Cache nur um 33% wächst, sich der Rest aber verdoppelt.
Wäre vom Verbrauch und der Fläche her effizienter, als einfach nur mehr SM zu verbauen. Kann daher sogar sein, dass deren Zahl leicht ggü. den jeweiligen Vorgängern zurückgeht, und Leistungssteigerungen in den Bereichen Integer, Texturfilterung etc. erstmal nur über den Takt kommen.
Also als Beispiel, so stelle ich mir den TU106-Nachfolger vor:
4 GPCs mit je 8 SM
32 SM, mit insgesamt
128 TMUs
4096 CUDA/FP32-Cores
64 RT-Cores
512 TCs
robbitop
2020-02-20, 20:05:45
Ob man die Zahl der Einheiten pro SM nochmal erhöhen will? Die hatte man doch gerade von Maxwell zu Kepler reduziert. Und seit Volta nochmal halbiert. Verhältnis Kontrolllogik - Ausführungseinheiten. Da kommt der Effizienzgewinn ja uA her. 64 ALUs pro SM bzw CU scheinen sich als sinnvoll herausgestellt zu haben.
Ggf erhöht man auch einfach die Anzabl der SMs.
Die RT Cores pro SM zu verdoppeln ist bzgl Nutzen fraglich. Pixeljetstream sagte ja schon mehrfach, dass die an sich nicht der Bottleneck sind. RT steigert ja auch die Anforderung an die Rechenleistung und Bandbreite. Die „RT leistung“ gibt es so gesehen nicht isoliert.
pixeljetstream
2020-02-20, 20:59:59
Pixeljetstream sagte ja schon mehrfach, dass die an sich nicht der Bottleneck sind. RT steigert ja auch die Anforderung an die Rechenleistung und Bandbreite. Die „RT leistung“ gibt es so gesehen nicht isoliert.
Den ersten Satz hab ich so nicht gesagt. Lediglich betont dass man nicht durch mehr RT cores allein magisch die Performance bei RT Einsatz steigert, wie du beim Rest schreibst.
Rampage 2
2020-02-20, 21:52:26
Nein, ich meinte tatsächlich die FP-Einheiten.
Auch wenn ich davon ausgehe, dass die RT- und Tensor-Cores je SM ebenfalls verdoppelt werden.
Im Prinzip gehe ich davon aus, dass nur die Zahl der Integer-, Textur-, SpecialFunction-Einheiten je SM nicht erhöht werden und der L1 Cache nur um 33% wächst, sich der Rest aber verdoppelt.
Okay, dann habe ich es verstanden - ist in der Tat sehr sinnvoll, nur die FP-, RT- und TC-Einheiten zu verdoppeln und den Rest beim Alten zu lassen (bzgl. Flächeneinsparung). Wenn aber nicht nur die RT- & TC-Cores, sondern auch die regulären FP-Cores verdoppelt werden, dann kostet das sogar noch mehr Chipfläche - was dann dazu führen könnte, dass Nvidia die Anzahl der SMs nicht erhöhen kann.
Wie sieht es bei den ROPs aus? Könnten die auch wieder verdoppelt werden? (64 -> 128 ROPs für AM104) Seit Maxwell hat sich hier nämlich nichts getan...
Also als Beispiel, so stelle ich mir den TU106-Nachfolger vor:
4 GPCs mit je 8 SM
32 SM, mit insgesamt
128 TMUs
4096 CUDA/FP32-Cores
64 RT-Cores
512 TCs
:freak:
Das wäre aber nicht AM106, sondern schon AM104 - genau so stelle ich mir den AM104 nämlich auch vor (3840, 4096, höchstens 4608 SPs): 4096 SPs verteilt auf 4/8 GPCs (16/8 SMs pro GPC) oder 3840/4608 SPs verteilt auf 6 GPCs (10 bzw. 12 SMs pro GPC) mit 64 FP32-Cores und doppelt so vielen RT- & TC-Cores pro SM. Also 33% Steigerung bei den regulären Recheneinheiten und 166% Steigerung bei den RT- & TC-Einheiten.
AM106 hätte dann 3072 bzw. 3456 SPs. Mehr als 6144 bzw. 6912 SPs für AM102 kann ich mir für 7nm nicht vorstellen. Nvidia will die Ampere-Generation bestimmt wieder etwas billiger vermarkten wollen, da bei Turing die Schmerzgrenze (auch bei den Fanboys!) endgültig erreicht wurde...
Man könnte auch stattdessen die INT32-, TEX- und SFU-Einheiten pro SM einfach halbieren (z.B. INT32 runter von 64 auf 32 Einheiten pro SM) und nur die FP32-Cores bei ihrer vollen Zahl (64) belassen. So braucht man die SMs nicht wieder aufzublähen Richtung Kepler;)
Den ersten Satz hab ich so nicht gesagt. Lediglich betont dass man nicht durch mehr RT cores allein magisch die Performance bei RT Einsatz steigert, wie du beim Rest schreibst.
Dann formulieren wir es mal so: Ist es sinnlos, die RT-Cores zu verdoppeln ohne gleichzeitig die FP32-, INT32- und Tensor-Cores zu verdoppeln? ;)
R2
Richtig viel ist das nicht. Aber man hat es auf schon dicker Chipfläche noch oben drauf gesetzt, das ist das bemerkenswerte. Am Ende ist es IMO ein Mix aus zwei Überlegungen:
1. Wir können es jetzt tun, weil wir überlegen sind. Sprich, wir brauchen diese 10% Chipfläche nicht für mehr normale Einheiten.
Niemand weiß beim Designstart, ob er bei dem Release einer neuen Architektur noch überlegen ist.
2. Wir wissen, wohin die nächsten Konsolen-SoCs gehen. Bringen wir RT lieber jetzt heraus, dann gelten wir als Innovator.
Da ist die Reihenfolge verkehrt. Als GPU Hersteller den Konsolenherstellern Angebote gemacht haben, mussten die Designs schon so weit sein, dass man das auch sicher anbieten konnte. Und ...
Denn in der Schublade dürfte RT sicherlich schon gelegen haben.
niemand baut ein Design um es für später in die Schublade zu legen. Das wäre ziemliches Investment für die Tonne.
Jim Keller hat erst neulich in einem Podcast erzählt, dass auch in der Prozessorentwicklung jeder einzelne Teil alle 5-10 Jahre wegen neuen Erkenntnissen neuimplementiert werden muss, wenn man konkurrenzfähig bleiben will.
Leonidas
2020-02-21, 03:02:15
Das mit "RT in der Schublade" meinte ich nicht als fertiges Design. Ein solches läßt man sicherlich nicht in der Schublade liegen. Ich meinte das als eine Stufe früher. Irgendeine Vorabeit wird es sicherlich gegeben haben, immerhin geistert das Thema schon seit über 10 Jahren herum.
robbitop
2020-02-21, 08:42:55
Den ersten Satz hab ich so nicht gesagt. Lediglich betont dass man nicht durch mehr RT cores allein magisch die Performance bei RT Einsatz steigert, wie du beim Rest schreibst.
Ja so war es gemeint. :)
@rampage2
Meinst du es ist sinnvoll, die ROPs zu verdoppeln? Die Rechenzeit in Takten pro Pixel steigt doch eher an. Entsprechend nimmt der Anteil der Arbeit in Takten pro Pixel für die ROPs doch eher ab.
Am Ende muss es idealerweise gut ausbalanciert sein.
reaperrr
2020-02-21, 13:06:05
Wenn aber nicht nur die RT- & TC-Cores, sondern auch die regulären FP-Cores verdoppelt werden, dann kostet das sogar noch mehr Chipfläche - was dann dazu führen könnte, dass Nvidia die Anzahl der SMs nicht erhöhen kann.
Muss man ja auch nicht, wenn dafür die Leistung je SM deutlich steigt, darum geht es ja. Auch wenn sie deutlich besser als bei GCN ist, perfekt wird die Skalierung mit mehr SMs nach oben raus auch nicht sein, je mehr SM der Command Processor füttern muss, desto mehr könnte da verloren gehen.
Wie sieht es bei den ROPs aus? Könnten die auch wieder verdoppelt werden? (64 -> 128 ROPs für AM104) Seit Maxwell hat sich hier nämlich nichts getan...
Glaube ich für die Generation nicht dran, a) wird NV die erste 7nm-Gen wieder deutlich verkleinern wollen ggü. den Turing-Vorgängern, b) wird 7nm höhere Taktraten erlauben, wodurch der Pixeldurchsatz schon bei gleicher ROP-Zahl steigt, und c) ist da IMO schon wahrscheinlicher, dass sie die Speicherinterfaces bei manchen Chips um 64bit ggü. dem jeweiligen Turing-Vorgänger verbreitern, was automatisch auch 16 mehr ROPs bedeuten würde.
Das wäre aber nicht AM106, sondern schon AM104 - genau so stelle ich mir den AM104 nämlich auch vor (3840, 4096, höchstens 4608 SPs): 4096 SPs verteilt auf 4/8 GPCs (16/8 SMs pro GPC) oder 3840/4608 SPs verteilt auf 6 GPCs (10 bzw. 12 SMs pro GPC) mit 64 FP32-Cores und doppelt so vielen RT- & TC-Cores pro SM. Also 33% Steigerung bei den regulären Recheneinheiten und 166% Steigerung bei den RT- & TC-Einheiten.
Vielleicht. Ich bin aber sowieso skeptisch, ob es wieder zwei Chips geben wird, die von den Specs so nah beieinander sind wie TU104 und TU106, das war IMO eher der schieren Chip-Größe in 12nm geschuldet. Ich denke, der Bereich von TU116 bis TU104 wird in 7nm wieder von nur noch 2 Chips abgedeckt, da es sich in 7nm auch nicht mehr lohnt, RT/TC-Einheiten wegzulassen und NV so langsam auch im Preisbereich der 1660S/Ti mal auf 8GB aufstocken sollte, was auch ein 256bit SI erfordert, womit sie dann flächenmäßig eh näher an den nächstgrößeren Chip ranrücken.
Dann wird's vielleicht sowas:
AM106: 4 GPCs, 6 SM/GPC, 3072 (FP32) ALUs, 96 TMUs, 64 ROPs, 256bit SI
AM104: 6 GPCs, 6 SM/GPC, 4608 ALUs, 144 TMUs, 80 ROPs, 320bit SI
Man könnte auch stattdessen die INT32-, TEX- und SFU-Einheiten pro SM einfach halbieren (z.B. INT32 runter von 64 auf 32 Einheiten pro SM) und nur die FP32-Cores bei ihrer vollen Zahl (64) belassen. So braucht man die SMs nicht wieder aufzublähen Richtung Kepler;)
Seit es SIMDs/CUs bei AMD und SM bei NV gibt, hat es noch nie weniger als 4 TMUs je CU/SM gegeben, und alternativ gab es bei NV nur 8 (Maxwell, Pascal) oder 16 (bei allem davor, außer Ur-Fermi mit 8). Bin daher skeptisch, ob das technisch überhaupt sinnvoll ist, geschweige denn überhaupt geht. Pixel werden z.B. meines Wissens als Quad bearbeitet (wobei ich nicht weiß, ob das jetzt auch wirklich der Grund für Quad-TMUs je CU/SM ist).
Du vergisst dabei außerdem, dass z.B. die Kontrolllogik für die INT-Einheiten gegenüber dem von mir skizzierten 128-FP-Einheiten Ansatz nicht halbiert werden könnte (da auch jetzt m.W. schon nur 1 Scheduler dafür zuständig ist) sowie der L1-Cache ebenfalls gegenüber der 128-FP-SM nicht halbiert werden kann, ohne Leistung zu verlieren. Die 128-FP SMs wären also immer noch etwas kleiner und sparsamer, als 2 SMs aus deinem Beispiel.
Abgesehen davon: Von Kepler wären wir damit noch immer meilenweit weg. Stattdessen würden wir effektiv zu Maxwell/Pascal-SMs zurückkehren, nur eben mit halbierten TMUs/SFUs und dafür dedizierten INT/Tensor/RT-Einheiten.
Der_Korken
2020-02-21, 13:43:25
Die Idee, nur halb so viel INT wie FP zu verbauen, klingt gar nicht so dumm. Vom theoretisch doppelt so hohem Rechendurchsatz (FP und INT gleichzeitig) gegenüber Pascal kommt in der Praxis ja nur ein kleiner Teil an. Entweder bremst was anderes, dann würden weniger Recheneinheiten kaum weh tun oder das Verhältnis der beiden Instruktionen ist nicht 1:1, dann könnte man von einer Sorte (wahrscheinlich INT) weniger verbauen.
Leonidas
2020-02-21, 14:19:08
HBM nur für AM102 und für AM104/AM106 dann GDDR6? Dann müsste Nvidia zwei grundverschiedene Speichercontroller für verschiedene Chips (die aber sonst im Design/Aufbau absolut identisch sind) implementieren - das ist nicht nur umständlicher, sondern läuft Nvidia's modularer/skalierbarer Strategie seit Fermi (128 Bit für -106, 256 Bit für -104, 384 Bit für -102) krass entgegen.
Sehe ich nicht als "krass" an. Die Chips sind ja nun modular, die Interfaces hat NV bereits im Baukasten. Und zwischen GA102 und GA104 ergeben sich doch zumindest Größenunterschiede. Wo liegt da das Problem.
Soll aber nicht bedeuten, das ich der Sache besonders hohe Chance geben. Es ist eine Möglichkeit, mehr nicht.
Die Idee, nur halb so viel INT wie FP zu verbauen, klingt gar nicht so dumm. Vom theoretisch doppelt so hohem Rechendurchsatz (FP und INT gleichzeitig) gegenüber Pascal kommt in der Praxis ja nur ein kleiner Teil an. Entweder bremst was anderes, dann würden weniger Recheneinheiten kaum weh tun oder das Verhältnis der beiden Instruktionen ist nicht 1:1, dann könnte man von einer Sorte (wahrscheinlich INT) weniger verbauen.
Okay, aber andererseits arbeitet die Zeit für ein solches Modell. Die Programmierer springen jetzt da drauf an. Wenn man denen das dann wieder wegnimmt, braucht man schon einen handfesten Grund - wie eine solide Studie, die klarmacht, das es in der Praxis niemals ein 1:1-Verhältnis geben wird und das 1:2 daher effektiver wäre. Vielleicht hat NV inzwischen auch die Praxiserfahrung gemacht, das dies so ist. Dann könnte ich mir das vorstellen.
Aber warum hat man es dann bei Turing nicht gleich so gemacht? Ich könnte mir vorstellen, das die reinen Recheneinheiten vielleicht gar nicht so das Problem sind und NV bewußt lieber mehr als weniger davon im SM hat. Es geht um die gesamte Auslastung des SMs - sprich, wenn dieser Daten bekommt, soll erauch möglichst rechnen. Das geht schon in die Richtung von CPUs: Wichtig ist es, das die Pipeline flutscht - dafür verbaut man massenweise Recheneinheiten, die man niemals gleichzeitig auslasten kann, weil das Ziel nicht die Auslastung der Recheneinheiten, sondern die Abarbeitung der Pipeline ist.
AffenJack
2020-02-21, 14:42:40
Okay, aber andererseits arbeitet die Zeit für ein solches Modell. Die Programmierer springen jetzt da drauf an. Wenn man denen das dann wieder wegnimmt, braucht man schon einen handfesten Grund - wie eine solide Studie, die klarmacht, das es in der Praxis niemals ein 1:1-Verhältnis geben wird und das 1:2 daher effektiver wäre. Vielleicht hat NV inzwischen auch die Praxiserfahrung gemacht, das dies so ist. Dann könnte ich mir das vorstellen.
Das hat man doch schon lange gezeigt, dass es deutlich mehr FP als INT ist, im besten Falle kommt man auf 2:1 :
https://www.igorslab.de/wp-content/uploads/2018/09/Concurrent-Execution.jpg
Aber warum hat man es dann bei Turing nicht gleich so gemacht? Ich könnte mir vorstellen, das die reinen Recheneinheiten vielleicht gar nicht so das Problem sind und NV bewußt lieber mehr als weniger davon im SM hat. Es geht um die gesamte Auslastung des SMs - sprich, wenn dieser Daten bekommt, soll erauch möglichst rechnen. Das geht schon in die Richtung von CPUs: Wichtig ist es, das die Pipeline flutscht - dafür verbaut man massenweise Recheneinheiten, die man niemals gleichzeitig auslasten kann, weil das Ziel nicht die Auslastung der Recheneinheiten, sondern die Abarbeitung der Pipeline ist.
Beispiele für mögliche Gründe:
1. Man wollte/konnte einfach die Architektur nicht an noch mehr Stellen umbauen als schon geschehen durch RT, Mesh Shader usw.
2. Soviele FP Units per SM sind in DX11 unmöglich auszulasten und würden nur Platz kosten. Erst mit dem wirklichen Durchsetzen von DX12 kann man diese mit Async Compute sinnvoll nutzen.
Es gibt da genug Gründe, wieso Architekturverbesserungen erst zu einem bestimmten Zeitpunkt kommen. Aber bis auf den einen Twitteraccount gibts auch nicht mehr, was in Richtung 2xFP tendiert.
reaperrr
2020-02-21, 16:43:13
Beispiele für mögliche Gründe:
1. Man wollte/konnte einfach die Architektur nicht an noch mehr Stellen umbauen als schon geschehen durch RT, Mesh Shader usw.
(...)
Es gibt da genug Gründe, wieso Architekturverbesserungen erst zu einem bestimmten Zeitpunkt kommen.
Jup, siehe Kepler (baute auf Consumer-Fermi auf, obwohl das Maxwellsche Einheiten-Verhältnis auch zu dem Zeitpunkt schon effizienter gewesen wäre), siehe Maxwell (DX11.1/2, DX12 und DCC erst mit MXW2.0, obwohl zwischen GM107 und GM204 nur 7 Monate lagen).
Selbst bei Nvidia, die deutlich mehr R&D-Ressourcen haben als AMD's GPU-Abteilung, werden die Architekturen immer nur schrittweise überarbeitet.
Natürlich ist es aktuell nur Speku, dass die FP-Einheiten je SM verdoppelt werden, aber dass man sich bei Turing erstmal nur auf die Trennung von INT und FP konzentriert hat und erst im nächsten Schritt die Zahl der FP-Einheiten steigert, wäre auf jeden Fall plausibel.
Außerdem gab es irgendwo einen Bericht, dass ein Supercomputer etwas verzögert wurde, weil man auf den Volta-Nachfolger warten wollte, da dieser 75% mehr Leistung liefern soll.
Da aber EUV das Reticle-Limit deutlich beschränken soll, darf die Transistorzahl gegenüber GV100 gar nicht so sehr steigen. Und dass die Turings so viel mehr Fläche trotz gleich gebliebener Zahl FP-ALUs je SM haben, ist ein klarer Hinweis, dass die FP-Einheiten bei Turing höchstens noch die Hälfte der Fläche des SM ausmachen, im Umkehrschluss würde eine Verdoppelung die SMs nur ~50% größer machen (hängt aber dann natürlich auch von den TCs und RTCs ab, die ja auch verdoppelt werden sollen).
In jedem Fall denke ich, ohne Änderung der Einheitenverhältnisse wäre eine solche Leistungssteigerung in ~ <=550mm² schwer zu realisieren, selbst in 7nm+.
mksn7
2020-02-21, 17:30:00
Irgendwie muss das mehr an Einheiten auch beim Scheduling reinpassen:
Der Scheduler in Volta und Turing kann 1 Instruktion pro Takt. Damit kann man trotzdem 1x FP und 1x INT units auslasten, weil die nur halb (16 lanes) breit sind und damit nur jeden zweiten Takt eine Instruktion ausführen können. Die INT und FP units bekommen einfach abwechselnd je eine Instruktion.
Mit 2x FP und 1x INT geht das auf jeden Fall nicht mehr ganz so auf, da würden dann nur 2 von 3 units gleichzeitig ausgelastet. Das muss nicht so schlecht sein wie es sich anhört, passt je nach Instruktionsmix vielleicht besser.
Allerdings finde ich ingesgesamt das Konzept, 2x 16 units zu verbauen nicht so gut. Um die auszulasten, braucht es ja auch zwei unabhängige Instruktionen, die dann jeweils beide doppelt so lang brauchen. Warum nicht lieber 1x 32? Da braucht es weniger ILP um das auszulasten. Also dann vielleicht 1x32 FP und 1x16 INT?
AffenJack
2020-02-22, 10:29:43
Irgendwie muss das mehr an Einheiten auch beim Scheduling reinpassen:
Definitiv, aber da kommen wir ja auch zum eigentlichen Ausgang dieses Gerüchtes. Alles deutet darauf hin, dass die nächste Architektur die Tensor Cores pro SM verdoppelt. Die TCs dürften keine vollkommen eigenständigen Einheiten sein, sondern sowieso teile der FP Units mitbenutzen (Rest ist wahrscheinlich pures Marketing).
Wäre zumindest meine Vorstellung, deswegen der Gedanke, dass man die FP Units auch mitverdoppelt wegen der doppelten TCs.
Muss man für 2x TCs nicht auch sowieso das Scheduling etc deutlich pimpen?
mczak
2020-02-22, 18:01:44
Die TCs dürften keine vollkommen eigenständigen Einheiten sein, sondern sowieso teile der FP Units mitbenutzen (Rest ist wahrscheinlich pures Marketing).
Die TCs sind genau so separat wie das auch die INT-Einheiten sind. Deswegen haben die kleinen Turing Chips ja auch separate FP16-Einheiten, das sind einfach abgespeckte TCs. Das Verhältnis zu FP-Einheiten kann also theoretisch anders sein (macht allerdings nur in Grenzen Sinn, weil die ja alle diese separaten Einheiten dieselben Register-Read/Write Ports verwenden).
Leonidas
2020-02-24, 07:26:33
Angeblich 826mm² für GA100:
https://twitter.com/CorgiKitty/status/1231058948704235525
Quelle ist aber bisher nicht besonders reputiert.
mboeller
2020-02-24, 07:43:04
Angeblich 826mm² für GA100:
https://twitter.com/CorgiKitty/status/1231058948704235525
Quelle ist aber bisher nicht besonders reputiert.
in 7nm? das wäre schon sehr teuer.
https://caly-technologies.com/die-yield-calculator/
28,4 x 29,2mm²; Defekt-rate 0,1 (TSMC liegt angeblich bei 0,09; siehe anandtech) => 26 gute Dies per Wafer
1 Wafer ~10K => US $385,- per Die ...
basix
2020-02-24, 07:46:02
in 7nm? das wäre schon sehr teuer.
https://caly-technologies.com/die-yield-calculator/
28,4 x 29,2mm²; Defekt-rate 0,1 (TSMC liegt angeblich bei 0,09; siehe anandtech) => 26 gute Dies per Wafer
1 Wafer ~10K => US $385,- per Die ...
Passt doch. Die HPC Karten werden eh für 10k$ verkauft.
Leonidas
2020-02-24, 07:58:57
Titan A für 3385 Dollar?
AffenJack
2020-02-24, 09:00:20
in 7nm? das wäre schon sehr teuer.
https://caly-technologies.com/die-yield-calculator/
28,4 x 29,2mm²; Defekt-rate 0,1 (TSMC liegt angeblich bei 0,09; siehe anandtech) => 26 gute Dies per Wafer
1 Wafer ~10K => US $385,- per Die ...
Du vergisst, dass man eh keine vollen Dies bringt. Ein Defekt in einer oder mehreren SM wird einfach durch Deaktivierung der SM aufgefangen und du hast nen guten Die. Ist nur die Frage wieviel man deaktiviert bzw defekte in nicht deaktivierbaren Teilen sind schlecht.
@Leonidas, einer der ursprünglichen twwets von kopite ist auch wieder erreichbar und kopite7kimi hat auch die Diegröße retweetet.
kopite7kimi
@kopite7kimi
GA100 8**mm2 55B 6*HBM 2304GB/s 8GPC
Hier vor allem noch interessant die 55 Milliarden Transistoren, die GA100 angeblich haben soll. Hatte ich damals nicht auf dem Schirm. Mal zusammengefasst mit den 826mm²:
66,6 Mio Transistoren/mm² für GA100?
41 Mio Tra/mm² Navi10
25.9 Mio Tra/mm² Volta
Deutlich höhere Packdichten bei 7nm EUV HPC vs 7nm DUV HPC möglich?
Falls da was dran ist, könnten die Gamingchips diese Gen auch wieder ordentliche Sprünge haben z.B. 2x Transistoranzahl bei GA104 vs TU104 in 415 mm² (Genauso natürlich für N2x)
Sollte GA100 wirklich soviele Transistoren haben, machen die mal spekulierten 8196 Shader auch keinen Sinn. Ist ein viel zu kleiner Sprung von 5376 bei 2,6x Transistoranzahl.
ABER, das passt nicht wirklich zu den 70% Performancesteigerung für den HPC Computer. Alles sehr fishy.
In weniger als 1 Monat wissen wir mehr, GA100 dürfte am 23.3. vorgestellt werden.
Timbaloo
2020-02-24, 11:00:15
Ich denke nicht, dass NV derart große Chips für die erste 7nm-Consumer-Generation releasen wird. Ich denke eher, dass man kleiner baut um bei der nachfolgenden Generation nochmal etwas Reserve hinsichtlich Fertigung bereithält. Analog Pascal->Turing. Denn bis ~2022/23 wird es ja keinen Sprung wie 14/12nm -> 7nm geben, oder?
829mm² mit Phantasiepackdichte ... und das wird geglaubt? :freak:
Das völlig I/O-lose Zen2-Chiplet hat um die 52 mio Transistoren pro mm². Ich bezweifle ernsthaft, dass Zen3 in N7+ über die 60 mio hinauskommen wird. Mit 6 HBM-Stapeln würd man aber ne echt große Menge I/O mit dazu nehmen, siehe V20. Das Ganze ist wieder mal purer BS.
Dural
2020-02-24, 14:13:23
Alles andere als um die 800mm² wäre eine Überraschung.
mironicus
2020-02-24, 14:44:26
Eine RTX 3080 Ti mit so einem riesigen Chip.... 1999 Dollar. :)
Dural
2020-02-24, 14:46:23
Der Chip wird es nie als GeForce geben :rolleyes:
Sweepi
2020-02-24, 15:11:38
Vll wird es ja eine Salvage Version des Chips als Titan A, geistiger Nachfolger der Titan V (815 mm^2 @ TSMC 12FFN, 21.1 x 10^9 Transistoren, $3000), geben:
>800 mm^2 @TMSC 7FF, ~50 x 10^9 Transistoren, $3000 - $5000
EDIT: Den Post hatte ich überlesen: :D
Titan A für 3385 Dollar?
Der_Korken
2020-02-24, 16:53:12
800mm² können durchaus sein. Wenn eine Firma in der Vergangenheit mit absurden Chipgrößen aufgetrumpft hat, dann war es Nvidia. Aber die 66M/mm² sind wirklich utopisch. Das wären 65% mehr als N10, also eine größere Steigerung als von 14nm auf 7nm DUV. Und wie schon angemerkt wurde, 25% mehr als ein Zen2-Chiplet, dass zu 2/31/2 aus SRAM besteht.
Bucklew
2020-02-24, 16:55:31
Dass der HPC-Chip in Sachen Chipgröße ans Rand des Maximus geht, ist jetzt nun wirklich nichts Neues.
mboeller
2020-02-24, 17:24:45
800mm² können durchaus sein. Wenn eine Firma in der Vergangenheit mit absurden Chipgrößen aufgetrumpft hat, dann war es Nvidia. Aber die 66M/mm² sind wirklich utopisch. Das wären 65% mehr als N10, also eine größere Steigerung als von 14nm auf 7nm DUV. Und wie schon angemerkt wurde, 25% mehr als ein Zen2-Chiplet, dass zu 2/31/2 aus SRAM besteht.
die 65% mehr würden IMHO aber gut zum "mobile HD 7nm" Prozess bei TSMC passen der eine höhere Tr-Dichte im Vergleich zum "HP 7nm" ermöglicht. Die GPU taktet dafür ein wenig niedriger, also eher Richtung 1GHz statt 2GHz. Aber irgendwie muss man so ein "Ding" ja auch noch mit Energie versorgen können.
basix
2020-02-24, 18:49:00
Und jetzt kommt der Überrasschungs-Knaller: Das Ding wird in 5nm gefertigt :freak:;D
Zumindest würde das die Packdichte erklären und wieso Nvidia so spät dran ist. +70% Energieeffizienz wären dann wiederum eher schlecht ;)
Faktencheck:
826mm2? Möglich
55BTr? Möglich, wenn Nvidia eine Art 7nm FFN wie bei 12nm wiederholt oder sonst irgendwie und tief in die Trickkiste greift
66,6 MTr/mm2? Schaut euch die Zahl mal genau an ;D
Digidi
2020-02-25, 00:30:35
Was ich ja interessant finde wie es mit dem Frontend weitergeht. Wird GA102 dann 8 Rasterizer besitzen?
Ghost1nTh3GPU
2020-02-25, 07:29:12
Wie viel Transistoren hat denn ein HBM Chip? Vielleicht sind es die Transistoren pro Package?
Ebenso sollte der L2/L3 Cache erheblich steigen.
disap.ed
2020-02-25, 08:57:11
Und jetzt kommt der Überrasschungs-Knaller: Das Ding wird in 5nm gefertigt :freak:;D
Zumindest würde das die Packdichte erklären und wieso Nvidia so spät dran ist. +70% Energieeffizienz wären dann wiederum eher schlecht ;)
Ich finde das jetzt gar nicht so abwegig. Die Packdichte kommt doch ziemlich genau hin, was man von 5nm erwarten konnte, nicht? Also ich hätte jetzt mit maximal 70 MTr/mm² effektiver Packdichte bei GPUs gerechnet nach den Aussagen von TSMC.
Bucklew
2020-02-25, 09:03:40
Es würde auch nicht verwundern, wenn NVIDIA deutlich vor AMD mit 5nm kommt.
Denniss
2020-02-25, 09:43:58
Träumen darf man ja mal ......
5nm als HPC-Chip wird definitiv nix vor 21 - eher Mitte 21, weder bei AMD noch bei NV. Bei NV war zu dem nie die Rede von 5nm. Der Prozess wird erst im Mai in Massenproduktion gehen. Überhaupt wird hier wieder abgespaced, dass die Fetzen fliegen. Jetzt lasst doch mal die Kirche im Dorf. 66Mio Transistoren pro mm² sind BS, Punkt. Für einen Grafikchip in N7+ oder N6 wirds über 50Mio/mm² nicht großartig hinausgehen, das ist einfach illusorisch. Das entlarft dieses Grücht als BS, genau wie das SKHynix-Teil im AMD-Thread. Das ist beides offensichtlicher Mist.
Klevapalis
2020-02-26, 09:00:13
Bei NV war zu dem nie die Rede von 5nm.
Macht es noch realistischer. NVIDIA hat sich null zum nächsten Fertigungsprozeß geäußert, nur gesagt, dass 7nm DUV keine Vorteile bietet und daher nicht genutzt wird.
Und nicht vergessen: Auch der GP104 in 16nm damals im Mai '16 war eine totale Überraschung.
Linmoum
2020-02-26, 09:05:29
Macht es unrealistischer, da Nvidia bzw. Jensen immer wieder betont haben, wie wichtig die Wirtschaftlichkeit (des Prozesses) sei. Das würde man ad absurdum führen, zumal bei 5nm noch nicht einmal die Massenproduktion begonnen hat.
Dural
2020-02-26, 09:06:05
NV wird eh ihren eigenen optimierten Prozess verwenden, das hat Jensen mehr oder weniger ja schon selber gesagt.
Klevapalis
2020-02-26, 10:00:29
Macht es unrealistischer, da Nvidia bzw. Jensen immer wieder betont haben, wie wichtig die Wirtschaftlichkeit (des Prozesses) sei. Das würde man ad absurdum führen
Nö, 5nm EUV hätte ja gerade sehr viele Vorteile gegenüber 12nm, solange der Preis passt, passt das auch exakt in Jensens Aussage.
Dann gibts Chips in 5nm erst Mitte 21. Viel Spass beim Warten :D. So ein Schwachsinn, ehrlich. Zum 1000x, 5nm rampt im Mai (!!). Erst da kann die eigentliche Arbeit an den Chips beginnen (!).
NV nutzt 7nm, das ist soch sicher wie das Amen in der Kirche. Wahrscheinlich eine angepasste Variante von N7+, die Dural schon meinte.
Edit: Jo der Evergreen. Volta und Turing wird da einfach außen vor gelassen. Wie sich die 3 üblichen Kandidaten immer an dem Quatsch aufgeilen. Klar lag ich da falsch, na und? Und der Kontext wird natürlich auch getrost ignoriert, einfach lächerlich. Und 4 Jahre her ist das auch noch.
Klevapalis
2020-02-26, 12:01:06
Dann gibts Chips in 5nm erst Mitte 21. Viel Spass beim Warten :D. So ein Schwachsinn, ehrlich.
Ach wie ich es liebe, wenn sich alles wiederholt ;D
GP104 im Mai ist pure Träumerei aus meiner Sicht.
Aus dem Pascal-Thread, 12. März 2016. GP104 wird nicht mal zwei Monate später präsentiert ;D
Sweepi
2020-02-26, 16:03:04
@HOT
wer seine Einschätzung/Meinung mit markigen Worten betont, muss zumindest damit rechnen, dass man Sie hin- und wieder aus der Mottenkiste holt. :D
Am Ende des Tages ist es der Speku-Thread, also nicht den Spass an der Sache verlieren.
Digidi
2020-02-28, 20:22:04
GA100? https://twitter.com/_rogame/status/1233419594104262656
crux2005
2020-02-28, 20:40:27
GA100? https://twitter.com/_rogame/status/1233419594104262656
Two Unknown Nvidia GPU
> 7552 Cuda cores (118 CUs)
> 1.11GHz core clock
> 24GB of memory
GB5 Compute score: 184096 (Open CL)
https://browser.geekbench.com/v5/compute/207559
> 6912 Cuda cores (108 CUs)
> 1.01GHz core clock
> 47GB of memory
GB5 Compute score: 141654 (Open CL)
https://browser.geekbench.com/v5/compute/287799
Die stärkere GPU Vs. GV100: 48% mehr Einheiten knapp 30% mehr Leistung im Geekbench.
Die Frage ist die Frequenz. GV100 hat 1132 MHz base, 1628 MHz boost. vs 1 GHz - also knapp 10% weniger.
horn 12
2020-02-28, 20:48:58
dann wäre man ca. 40% schneller als RTX 2080 und ebenso RTX 2080 TI
für Big Navi sollte es Kopf an Kopf Renn mit RTX 3080 geben und die TI bleibt weiter schneller
Linmoum
2020-02-28, 20:50:46
Das ist keine Consumer-GPU.
horn 12
2020-02-28, 20:58:41
Weiss ich ;-=))
GPU Consumer hat sicherlich weniger Shader aber bedeutend mehr Takt... Aber in etwa wird's sichs die Waage halten.
Digidi
2020-02-28, 21:12:12
Das ist keine Consumer-GPU.
Die Effizienz der Kerne lässt sich auch ableiten lassen, dafür das die Große GPU wohl im Sweet Spot läuft wird das maximale sein, was wir von Ampere erwarten können war ja bei Volta/Turing genau so.
BlacKi
2020-02-28, 21:47:04
Weiss ich ;-=))
GPU Consumer hat sicherlich weniger Shader aber bedeutend mehr Takt... Aber in etwa wird's sichs die Waage halten.
würde mich nicht wundern wenn es zu ampere keinen gaming ableger geben wird, bzw. höchstens wie bei der titan v. das gaming segment wird wohl auch andere chips bereithalten. ich glaube kaum das man das getrennte segment hpc vs gaming wieder zusammenfügen wird.
Sunrise
2020-02-29, 00:15:57
Hmm, interessant. Davon ausgehend lässt sich jedenfalls gut schätzen.
6144-bit HBM2(e) Interface (Module sind oben, unten, jeweils zwei links und rechts)
- sagen wir mal extrem konservativ 50% mehr Bandbreite (was Quatsch ist, da HPC Bandbreite zum Frühstück frisst, also eher 70-100% mehr, um den Rest nicht verhungern zu lassen, Caches ausgenommen)
7680 CUDA Cores
- auch etwa 50% mehr vs. GV100, wird aber aufgrund Yield weniger aktiv (SKU) sein, auch hier konservativ 50% mehr Rechenleistung
-> Bleiben zu dem bereits genannten 70%-Sprung bei GA100 ggü. Volta/GV100 noch 20%...
12nm vs. 7nm mit Fokus auf Energieeffizienz (quasi identischer Basis-Takt) und dennoch sehr hoher Packdichte, auch wenn die Kosten bei HPC hier weniger eine Rolle spielen. Insgesamt aber wieder über 800mm^2, NV scheint damit kein Problem zu haben, warum auch (Preis hoch genug, wird dennoch gekauft).
...-> Dann sollten die restlichen 20% aus der Architektur kommen.
Jetzt könnte man in der Tat ins Blaue spekulieren, und bei einem Desktop-Ableger von ähnlichen, relativen Verbesserungen (Architektur) ausgehen.
Grob 20% schneller durch die Architektur, natürlich weniger Einheiten relativ zum HPC-Monster -> mehr Takt möglich (min. weitere 20%). Das käme dann in etwa hin zu den kolpotierten 50% (auch weil deutlich weniger Bandbreite), plus starken Effizienzverbesserungen.
Natürlich alles Quatsch, man weiß über Ampere faktisch quasi nichts, außer irgendwelchen Schnipseln, aber Spaß machts allemal.
Winter[Raven]
2020-03-02, 19:01:14
dann wäre man ca. 40% schneller als RTX 2080 und ebenso RTX 2080 TI
für Big Navi sollte es Kopf an Kopf Renn mit RTX 3080 geben und die TI bleibt weiter schneller
Träumer...:redface:
Linmoum
2020-03-02, 19:52:05
Die GTC hat Nvidia übrigens abgesagt, stattdessen gibt es ein "online-event".
https://blogs.nvidia.com/blog/2020/03/02/gtc-san-jose-online-event/
dildo4u
2020-03-03, 16:56:27
Neue Ampere Config mit 7936 Cuda cores.32MB Cache V100 hatte 6MB!
https://twitter.com/_rogame/status/1234861928230653955
Edgecrusher86
2020-03-03, 18:42:37
Klingt nach einer Teildeaktivierung von 128SM (V100 kam mit 80/84SM). Vermutlich das Maximum, was auf den Markt kommt.
Wird man sich auf jeden Fall fürstlich bezahlen lassen. :)
Rampage 2
2020-03-03, 20:26:48
Neue Ampere Config mit 7936 Cuda cores.32MB Cache V100 hatte 6MB!
https://twitter.com/_rogame/status/1234861928230653955
32MB Cache passen aber nicht zu einem 6144 Bit HBM-Interface! Ist das Interface 4-Stack (4x 1536 Bit) oder 6-Stack (6x 1024 Bit) ? Bei Letzterem würden 32MB $ nicht passen, weil nicht durch 6 teilbar...
R2
Ghost1nTh3GPU
2020-03-03, 20:34:40
Ist vielleicht nur die 4 Stack Version, die anderen Testboards hatten 24/48GB, und insgesamt sind es 48MB L2.
crux2005
2020-03-03, 20:38:03
32MB Cache passen aber nicht zu einem 6144 Bit HBM-Interface! Ist das Interface 4-Stack (4x 1536 Bit) oder 6-Stack (6x 1024 Bit) ? Bei Letzterem würden 32MB $ nicht passen, weil nicht durch 6 teilbar...
R2
6144/32 = 192
passt perfekt!
Rampage 2
2020-03-03, 23:55:44
6144/32 = 192
passt perfekt!
Wieviel Cache wird pro HBM-Stack zugeordnet und wieviele Stacks (4 oder 6) hat der Chip? Wenn es 6 Stacks sind, dann hätte bei 32MB $ ein Stack keine ganzzahlige Menge an Cache (32MB/6 = 5,333 MB) und das kann so natürlich nicht hinhauen;)
R2
crux2005
2020-03-04, 00:21:31
Wieviel Cache wird pro HBM-Stack zugeordnet und wieviele Stacks (4 oder 6) hat der Chip? Wenn es 6 Stacks sind, dann hätte bei 32MB $ ein Stack keine ganzzahlige Menge an Cache (32MB/6 = 5,333 MB) und das kann so natürlich nicht hinhauen;)
R2
4 Stacks und 4096bit
32GB of VRAM (ECC) running at 1.2GHz so HBM2 on a 4096-bit bus
der Chip mit 6144bit hat dann logischerweise 6 Stacks und 48 MB L2 Cache.
Wie gesagt, passt alles perfekt!
Rampage 2
2020-03-04, 00:35:08
der Chip mit 6144bit hat dann logischerweise 6 Stacks und 48 MB L2 Cache.
Wie gesagt, passt alles perfekt!
Ich dachte, der Chip mit 6144 Bit hat nur 32MB; wenn's aber 48MB sind, dann passt es, ja! :)
BTW: 48MB Cache... boah:freak:X-D
R2
drkohler
2020-03-04, 07:03:25
....oder die Angabe bezieht sich einfach auf den gesamten Cache auf dem Chip, also Alles zusammengezählt?
Edgecrusher86
2020-03-07, 09:18:03
NVIDIA Ampere GA100 GPU Rumored Specifications Detailed – 8192 CUDA Cores, Up To 48 GB HBM2e Memory, Up To 2.2 GHz Clocks & 300W TDP
https://wccftech.com/nvidia-next-gen-ampere-ga100-gpu-8192-core-48-gb-hbm2e-2-ghz-clock-specs-rumor/
128SM,8192cuda,24/48GB HBM2e,boost频率可达2.2Ghz,tensor core翻倍,TDP300瓦
https://bbs.saraba1st.com/2b/thread-1917147-1-1.html
Das Gerücht hört sich ja viel zu gut an, um der Wahrheit zu entsprechen; Boostclock bis zu 2,2 GHz :freak: - doppelte TC könnte schon hin kommen; die TDP ist auch typisch, ja.
Mal schauen, was Meister Lederjacke in einigen Wochen präsentieren wird. :)
E: 7936SP @ 2,2 GHz wären schon 34,9 TF/s FP32 ;D - auch wenn solch hohen Taktraten vermutlich nur extrem kurz gehalten werden könnten bei 300W; meine Einschätzung.
Troyan
2020-03-07, 09:21:48
Die Computebenchmarks deuten in die Richtung hin. Und Volta läuft auch mit absurden Taktraten für die Menge an Transistoren.
Außerdem geht nVidia von 16nm auf 7nm was bis zu 3x mehr Transistoren pro Fläche ermnöglicht. Doppelte Leistung/Effizienz von Volta/Turing ist allemal drin.
Ghost1nTh3GPU
2020-03-07, 10:21:15
Ist dann wohl wie bei Intel AVX, wenn die fetten Einheiten laufen, ist der Takt deutlich niedriger.
Mit AI kommt es zunehmend auf Latenz an und Ampere@Car muss da halt in einer Gefahrensituationen alle "Hirnzellen" ausfahren. Kann man nur hoffen, dass die Autos im Sommer nicht "dümmer" sind.;D
Troyan
2020-03-07, 10:24:03
Na, die Ergebnisse sind von Oktober. Das sind die ersten Chips vom Tapeout. Die Taktrate hat keine Aussagekraft. nVidia ist jetzt ja noch fleißig dabei Volta höher zu prügeln: https://videocardz.com/83372/nvidia-quietly-outs-tesla-v100s-with-higher-clocks
basix
2020-03-07, 11:55:36
Ehrlich gesagt beisst sich das mit den +75% Effizienz, welche im Zusammenhang mit dem Big Red 200 Supercomputer genannt wurden. Diese Angabe ist deutlich belastbarer, als dieses 2.2GHz Gerücht. Bei HPC werden diese Taktraten also eher nicht erreicht. +75% wären immerhin 1.70...1.75 GHz.
Wo sie aber evtl. erreicht werden könnten: AI. Wieso? Lederjacke ist ein Fuchs und zudem Zahlengeil, wenn er sie als "World's First!" auf der grossen Bühne vorstellen darf.
Wisst ihr z.B. noch welches Gesicht Jensen gemacht hat, als dort bei der GV100 Präsentation und den DGX-1 Specs nur 960 TFLOPS geschrieben stand anstatt 1.0 PFLOPS? Das hat ihn wirklich geärgert ;) Heute steht in allen GV100 Datenblättern 125 TFLOPS anstatt 120 TFLOPS wie bei der GV100 Vorstellung und ergo bei DGX-1 genau die 1.0 PFLOPS.
Meine Theorie dazu:
Nvidia / Jensen will GA100 unbedingt als "World's first 1.0 PetaOPS on-a-single-chip" vorstellen (PetaOPS = "POPS" ;D). Also, was braucht es dazu? Glatte 2.0 GHz @ 7936 Shader-Units und man erreicht @ Tensor Cores 1016 TOPS INT8, 508 TFLOPS FP16 . Will man die 1.0 POPS nun auch mit der 7552 Shader Units SKU erreichen, benötigt man 2.1 GHz. Will mann die 1.0 POPS mit der kleinsten SKU erreichen (6912 Shader) benötigt man 2.27 GHz (vielleicht wird hier von 970 TOPS aufgerundet ;))
Was Nvidia dann vorstellen kann: "World's First HPC and AI optimized Accelerator Line-Up with all SKUs performing at >= 1.0 PetaOPS". Nicht, dass diese Performance real auch wirklich immer erreicht wird, aber bei den "Up-to" Angaben kann man es trotzdem hinschreiben und ist nicht falsch.
Oder jemand aus der Gerüchteküche hat sich die 2.2 GHz genau wegen dem oben geschriebenen aus den Fingern gesogen ;D
Edit:
Ach ja, und was sicher ebenfalls vorgestellt werden würde ist ein 64-Node Cluster und/oder 128-Node Cluster bestehend aus "DGX-3" mit jeweils 16 GA100 Chips. Das ergibt nämlich genau 1.0 ExaOPS / 1.0 ExaFLOPS --> Exascale. Und wisst ihr, wie viele Nodes ein heutiger DGX-SuperPod hat? 64 ;)
dildo4u
2020-03-07, 12:06:06
Wird Zeit für ein Taktsprung von Pascal auf Volta Tesla hat sich kaum was getan.(+120mhz) Selbst mit dem Refrech im November.
Sunrise
2020-03-07, 12:21:10
@Edgecrusher86
Die 2,2GHz sind ja dann der Boost-Clock, die nicht immer anliegen müssen. Bei HPC kann man alles bis aufs Maximum ausfahren, die sehr großen Dies mit wenigen Hotspots begünstigen die sowieso schon sehr starke Kühlung zusätzlich.
Wenn schon Volta Super (V100S) mit 5120 Cores bei >1,6GHz Boost mit gerademal 250W TDP auf 12nm läuft, wüsste ich nicht, wo das Problem sein soll nun 8129 Cores, mit 2,2GHz Boost bei 300W auf 7nm zu bringen.
Zusätzlich wird das Interface um x1,5 vergrößert, um entsprechend mit zu skalieren und den Speicherausbau auch von 32GB auf 48GB erhöhen zu können.
NV muss hier Gas geben, denn gerade dieser Bereich wächst bei Ihnen auch überproportional stark und die Margen sind ein Traum.
@basix
Ja, wenn man mit großen Zahlen werben möchte, ergibt das sehr viel Sinn.
AffenJack
2020-03-07, 12:50:03
Wenn schon Volta Super (V100S) mit 5120 Cores bei >1,6GHz Boost mit gerademal 250W TDP auf 12nm läuft, wüsste ich nicht, wo das Problem sein soll nun 8129 Cores, mit 2,2GHz Boost bei 300W auf 7nm zu bringen.
Weil 1,6ghz zu 2,2ghz 37% mehr Takt sind und TDP mit Takt nicht proportional steigt, sondern deutlich stärker. Takt in der Nähe von 2ghz könnte realistisch sein, wenn Nvidia wieder viel in mehr Takt investiert. Aber 2,2ghz für den HPC Chip wirds höchstens in irgendwelchen Spezialfällen geben.
Tendiere eher dazu, dass es auch nur Fake ist.
Sunrise
2020-03-07, 13:11:10
Weil 1,6ghz zu 2,2ghz 37% mehr Takt sind und TDP mit Takt nicht proportional steigt, sondern deutlich stärker. Takt in der Nähe von 2ghz könnte realistisch sein, wenn Nvidia wieder viel in mehr Takt investiert. Aber 2,2ghz für den HPC Chip wirds höchstens in irgendwelchen Spezialfällen geben.
Tendiere eher dazu, dass es auch nur Fake ist.
Unter normalen Gesichtspunkten und 100% identischer Architektur würde ich das auch nicht als gangbar wahrnehmen und dir zustimmen, nur haben wir hier einen Generations- (Prozess) und Architekturwechsel in einem und wir wissen faktisch noch nichts über Ampere.
Der Sprung auf Pascal ging auch mit einer starken Erhöhung einher, und hier hat NV ja nicht nur gekleckert, da wurde alles voll auf den neuen Node optimiert. 100% ausschließen würde ich es nicht, vor allem bei einer “Up to”-Boost-Angabe. Kann ja durchaus sein, dass es eher um die 2GHz sind. Der Rest ist aber sehr realistisch, also wüsste ich nicht warum hier ausgerechnet dieses Detail nicht stimmen sollte.
Der kommt nicht mit 8192 Shadern. Die sind bisher immer als Salvage gekommen und das ist diesmal genau so. Ergo: BS News FTW. Das ist offensichtlicher BS.
Ich las vorhin Leos News und musste lachen... ich hab hier ein kleines Volta-Déjà vue...
Ghost1nTh3GPU
2020-03-07, 16:26:04
Jensen wird sich schon einen der 8192CC@2,5GHz Dies sichern. ;)
Ob nun 8192 oder 7936, sind 4% Unterschied. Interessanter sind da die sustainable/max Raten bei FP/INT/DL.
Troyan
2020-03-07, 16:51:30
Der kommt nicht mit 8192 Shadern. Die sind bisher immer als Salvage gekommen und das ist diesmal genau so. Ergo: BS News FTW. Das ist offensichtlicher BS.
Ich las vorhin Leos News und musste lachen... ich hab hier ein kleines Volta-Déjà vue...
Komisch, GV100 kam als voller Chip: https://www.heise.de/newsticker/meldung/GTC-2017-Nvidia-stellt-Riesen-GPU-Volta-mit-5120-Kernen-und-16-GByte-HBM2-vor-3710317.html
Ich habe auch ein kleines "Volta-Déjà vue": Doppelte Geschwindigkeit bei überlegener Architektur gegenüber der Konkurrenz. Hat AMD schon den Nachfolger vom DoA Produkt RDNA2 angekündigt?
Ghost1nTh3GPU
2020-03-07, 16:56:00
GV100 hat 84SM/5376CC auf dem Die.
Troyan
2020-03-07, 16:58:32
Ha, danke. Ist einfach zu lang her.
Linmoum
2020-03-07, 17:15:31
Ich habe auch ein kleines "Volta-Déjà vue": Doppelte Geschwindigkeit bei überlegener Architektur gegenüber der Konkurrenz. Hat AMD schon den Nachfolger vom DoA Produkt RDNA2 angekündigt?Was hat RDNA2 mit HPC zu tun? Mal wieder geballte Kompetenz, wie man sieht.
Thunderburne
2020-03-07, 19:28:08
https://wccftech.com/nvidia-next-gen-ampere-ga100-gpu-8192-core-48-gb-hbm2e-2-ghz-clock-specs-rumor/
Der_Korken
2020-03-07, 19:38:25
Wenn der Chip wirklich 800mm² groß wird, hätte er pro Fläche nur ~50% mehr SMs als Volta. Wäre also nicht undenkbar, dass der Takt nochmal ordentlich steigt, wobei die 2,2Ghz sicherlich nicht durchgehend anliegen. Oder vllt wenn nur die Tensorcores laufen. Oder aber die Tensorcores kriegen einen eigenen Hotclock, weil die Dinger klein und simpel sind und deswegen viel einfach hochzuprügeln sind als die fetten FP-Units. An irgendwas muss Nvidia die 2,5 Jahre seit Volta ja gestrickt haben.
BoMbY
2020-03-07, 19:46:46
Eines ist jedenfalls sicher, das Ding wird es für Gamer höchstens in Form einer Titan X für $3.000, oder mehr, geben.
ChaosTM
2020-03-07, 20:10:53
3000 war 2018 - 4k+ ;)
Nightspider
2020-03-07, 21:06:46
Gabs in den letzten Wochen eventuell nähere "Leaks" ob es 7nm+ (EUV) wird?
Bei den versprochenen Werten hier kann ich es jedenfalls kaum erwarten die 3080ti zu sehen, die ich mir eventuell sogar zum Release kaufen werde.
Die 2080ti ist ja auch kaum im Preis gesunken und mit einer 3080ti hätte man dann 3-4 Jahre lang seine Ruhe.
PS: Wozu braucht ein HPC Chip eigentlich Tensor Cores?
robbitop
2020-03-07, 21:16:09
AI. Gerade für die Profi Chips wurde das ja implementiert. Siehe Volta.
Leonidas
2020-03-08, 05:06:29
Ironischerweise entsprechen die 8192 SE @ 6144 Bit HBM2 genau dem, was auf 3DC schon letzten November stand:
https://www.3dcenter.org/news/geruechtekueche-angeblich-allererste-technische-daten-zu-nvidias-ampere-generation
Ich las vorhin Leos News und musste lachen...
Was war falsch?
达2.2Ghz
Steht doch schon im Original dran: Up to .... sprich, kein durchschnittlicher Boost, sondern der maximal mögliche Takt. Ergibt wenig zum draufrumkauen.
robbitop
2020-03-08, 08:55:39
7nm wird auch für NV etwas erhöhte Maximaltaktpotenziale bringen. War bislang iirc bei allen 7nm Produkten so.
2,2 GHz sind da gerade mal eine Steigerung von rund 10%.
MartinRiggs
2020-03-08, 09:45:44
Gabs in den letzten Wochen eventuell nähere "Leaks" ob es 7nm+ (EUV) wird?
Bei den versprochenen Werten hier kann ich es jedenfalls kaum erwarten die 3080ti zu sehen, die ich mir eventuell sogar zum Release kaufen werde.
Die 2080ti ist ja auch kaum im Preis gesunken und mit einer 3080ti hätte man dann 3-4 Jahre lang seine Ruhe.
PS: Wozu braucht ein HPC Chip eigentlich Tensor Cores?
Geht mir ähnlich, die gebrauchte 2080Ti war einfach ein guter Kauf und wenn es sich lohnt bin ich der 3080ti nicht abgeneigt.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.