Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)
robbitop
2019-12-21, 07:59:02
Nja schwer zu sagen? Weil TU116 anstelle der RT Cores ja dedizierte FP16 Einheiten spendiert bekommen hat, damit Code schön Familienneutral ausgeführt wird. Die FP16 sind laut Anandtech kaum der Rede wert erwähnt zu werden :freak:
https://www.anandtech.com/show/13973/nvidia-gtx-1660-ti-review-feat-evga-xc-gaming/2
Manchmal fressen halt Features richtig Transistor Budget, das war bei Turing der Fall.
Richtig lesen. FP16 FPUs kamen für die TCs, nicht für die RT Cores.
Bedeutet, dass sie billiger als TCs sind. Das Thema war hier aber RT Cores - es ging um Raytracing, nicht um Machine learning. Ist also eine zusätzliche Einsparung ggü den größeren Turings zusätzlich zu RT. ;)
Und es stellt sich heraus, dass RT Cores gar nicht so viele Transistoren kosten. Die Volta/Turing SMs sind auch ohne RT schon enorm groß geworden.
dargo
2019-12-21, 10:24:11
Controll ist flüssig spielbar auf Ampere mit RT.
Das weißt du jetzt schon? Oder wolltest du Turing sagen? Falls du Turing meinst... unter flüssig verstehe ich was anderes.
ZXsIKbYJO0c
Selbst diese Frameraten unter 1080p finde ich miserabel. So hatte ich vielleicht vor 10 Jahren gespielt, aber nicht heute. Die fps @1440p sind dann nur noch eine Lachnummer.
basix
2019-12-21, 10:44:40
Das weißt du jetzt schon? Oder wolltest du Turing sagen? Falls du Turing meinst... unter flüssig verstehe ich was anderes.
Turing geht, ist aber schon zäh. Mit Ampere sollte zumindest 1440p >60fps spielbar sein. Mit Big Ampere und Glück evtl. auch bei 4K.
Selbst diese Frameraten unter 1080p finde ich miserabel. So hatte ich vielleicht vor 10 Jahren gespielt, aber nicht heute. Die fps @1440p sind dann nur noch eine Lachnummer.
Sind halt Max-Settings. Ich finde das ehrlich gesagt nicht schlimm, wenn die Spiele anbieten, dass man in 2 Jahren nochmal den Regler etwas weiter nach oben schieben kann. Früher wurde sowas gefeiert. Heute will jeder 4k auf Midrange mit 120fps.
reaperrr
2019-12-21, 14:41:57
Sind halt Max-Settings. Ich finde das ehrlich gesagt nicht schlimm, wenn die Spiele anbieten, dass man in 2 Jahren nochmal den Regler etwas weiter nach oben schieben kann. Früher wurde sowas gefeiert. Heute will jeder 4k auf Midrange mit 120fps.
Und wehe, die Texturen sind nicht alle messerscharf, hochaufgelöst und passen in 8GB VRAM, bei 10km Ingame-Sichtweite bitte...
dargo
2019-12-21, 14:49:29
Sind halt Max-Settings. Ich finde das ehrlich gesagt nicht schlimm, wenn die Spiele anbieten, dass man in 2 Jahren nochmal den Regler etwas weiter nach oben schieben kann. Früher wurde sowas gefeiert. Heute will jeder 4k auf Midrange mit 120fps.
Musst es nicht gleich übertreiben. ;)
btw.
Ich finde, dass Control auch ohne RT mit max. Settings miserabel läuft für das was im Bild zu sehen ist. Die Grafikoptionen sind eigentlich auch ein Witz. Die Frames skalieren hier nur über die Beleuchtung und das ineffiziente MSAA. Letzteres hätte man sich gleich sparen können und stattdessen ein vernünftiges TAA anbieten.
aufkrawall
2019-12-21, 15:24:42
Ich finde, dass Control auch ohne RT mit max. Settings miserabel läuft für das was im Bild zu sehen ist.
Die SSR im Spiel sind halt sauteuer. Wenn man dann RT vs. keine SSR vergleicht, sieht es vom Performance-Hit her ziemlich grottig aus für einen Effekt, der "in Hardware" läuft.
Das kommt dann raus, wenn man sowohl einen Spiele-Entwickler hat, der auf gute Performance schon nicht übermäßig Wert legt, und dann noch zusätzlich einen GPU-Hersteller ins Boot holt, der mit seinen Effekten notorisch die Performance gerne noch weiter verkrüppelt... :freak:
dargo
2019-12-21, 16:27:58
Das stimmt allerdings. Das ganze Beleuchtungssystem ist sowas von ineffizient. Mal als Vergleich volumetrische Beleuchtung low, SSR und globale Reflektionen off vs. alle drei Sachen high. :freak:
https://abload.de/thumb/control_dx12_2019_12_eujby.jpg (https://abload.de/image.php?img=control_dx12_2019_12_eujby.jpg) https://abload.de/thumb/control_dx12_2019_12_6ukfk.jpg (https://abload.de/image.php?img=control_dx12_2019_12_6ukfk.jpg)
Und dabei sieht das SSR nicht mal gut aus. Dieses Rauschen finde ich ekelhaft.
robbitop
2019-12-21, 21:54:48
Man kann Detailregler nach links schieben. Dann passt auch die Performance. Auch mit RT.
aufkrawall
2019-12-21, 23:13:32
Dummerweise scheinen die Cubemaps in dem Spiel kein brauchbarer Fallback zu sein, anders als z.B. in Mirror's Edge. Also nur die Wahl zwischen billiger Pest und teurer Cholera.
robbitop
2019-12-22, 08:35:11
IIRC hatte DF gezeigt, dass man mit ein paar gezielten Settings RT auf Turing in Control flüssig spielen kann. Klar kostet RT Leistung - aber es ist dafür ein signifikanter Grafiksprung. Und wahrscheinlich wird es mit bessere HW und mehr SW Erfahrung noch viel viel besser aussehen. There is no Lunch for free. Es ist überhaupt ein Durchbruch dass es in Echtzeit läuft. Natürlich nicht inder gewohnten Performance und Auflösung. (Kann sich noch jemand an Crysis erinnern? Die Regler mussten nach links gezogen werden - später mit besserer HW spielen ist alternativ auch eine Option). Es ist weiterhin sehr wahrscheinlich, dass der Turing Nachfolger nicht mehr all zu weit entfernt ist. Auch Navi 2.0. das wird die Situation in 2020 sehr wahrscheinlich deutlich verbessern. Turing = Pionier HW. Genau deswegen lasse ich sie aus.
Es ist leider zu jedem neuen major Featurelevel die gleiche Diskussion. Einfach mal die Pionierzeit durchhalten und etwas Weitsicht. Die Vergangenheit hat oft genug gezeigt, dass neue Major Features mittelfristig zu einer schönen Weiterentwicklung führt. Problem ist: man muss halt irgendwann anfangen, damit es sich durchsetzt (Softwareerfahrungen, schnellere HW, mehr Erfahrungen etc).
dildo4u
2019-12-22, 08:49:16
Das DLSS ist dort auch brauchbar und kaum ein Verlust da die Engine eh mit einer extrem unscharfen Optik arbeitet.
Davon abgesehen das DLSS nicht stehen bleibt Deliver Us The Moon hat z.b jetzt die Möglichkeit verschiedene Qualitäts Stufen einzustellen.
4k Performance DLSS.
https://youtu.be/bN1G4BTja1A?t=406
=Floi=
2019-12-25, 15:50:46
Wie soll eurerer Meinung nach der Fortschritt hierfür erzielt werden, was hättet ihr in HW umgesetzt?
Ich hätte gerne mal auch nicht nur mehr effizienz, sondern auch wieder mehr shaderpower. :rolleyes:
Böswillig könnte man behaupten, dass alte karten einfach nur fürs papier die shaderleistung hatten. Ich hätte mir auch breitflächig mehr tesselation gewünscht. Oft könnte man auch noch an der weitsicht oder an der texturqualität drehen.
y33H@
2019-12-25, 16:26:27
LoD ist (auch) eine CPU Sache, da könnte sich mit PS5 und Xbox Anconda was ändern dank 8C Zen2.
robbitop
2019-12-25, 16:46:17
Wann war denn in der Praxis je Tesselationsleistung der Flaschenhals?
=Floi=
2019-12-25, 17:44:48
LoD ist (auch) eine CPU Sache,
hier würde ich mir möglichkeiten zu mehr verlagerung auf die GPU wünschen oder generell mehr multicore-optimierung. Eventuell gäbe es noch andere tricks das LOD zu erhöhen.
Imho hängt LOD auch am Texturspeicher. (blöd gesagt)
Genau das ist das thema, wo limitiert tesselation?! Es wird zu wenig eingesetzt und könnte so oft etwas bringen.
zB hat mich anno 1800 an einem punkt wirklich enttäuscht. Zoomt man in die ego perspektive würde tesselation bei den charakteren erhebliches bringen. Ich brauche keinen 64er faktor, aber selbst 8-16 fach hat so oft etwas gebracht.
Wie sieht es bei ampere eigentlich mit der integration von arm cores aus? kommt da noch etwas?
pixeljetstream
2019-12-25, 17:58:33
Imo ist LoD picking etwas was die GPU seit langem selbst kann (draw/execute indirect etc.), insbesondere die Konsolen. Der Zusammenhang zur cpu ist mir nicht ganz klar, es sei denn ihr meint eher sowas wie geringere Animationen für das was weiter weg ist. Das LoD popping nervt mich auch sehr in vielen Spielen, manche Titel sind sehr gut darin die Übergänge zu verstecken, andere leider weniger.
Klingt eher so als würde =Floi= Dinge beschreiben die die Anwendung heute schon machen könnte und die HW eigentlich schon kann?
Wenn Du meinst man sollte einfach mehr power haben um auf LoD zu verzichten, so bemühen sich Entwickler eigentlich schon Verschwendung zu vermeiden, und dann dafür für andere Effekte mehr Zeit zu haben. Ergo das würden sie auch dann wenn mehr Rechenleistung da wäre ;)
Dass sich Tessellation nur für spezielle Geometrie durchsetzte liegt an den Modelldaten selbst, es ist nachwievor nicht trivial das Einzusetzen, weil die Abbildung auf die hw pipeline nicht so super ist. Call Of Duty setzte eine Variante von OpenSubdiv für die Waffen um, aber afaik bleibt sowas die Ausnahme. Die bekannten Probleme in der Geometrie pipeline führten ja auch zu Turing's "mesh shader", ein weiterer Versuch hier bessere Möglichkeiten zu bieten.
Meine Frage war eher rhetorischer Natur, weil es keine einfachen Antworten gibt dafür ist der Sachverhalt einfach zu komplex. Was ich indirekt versuche hier ein wenig aufzuzeigen.
=Floi=
2019-12-26, 13:27:42
Ich habe noch nie von LoD picking gehört. Hier wäre ein YT channel oder mehr werbung in diese richtung auch mal ganz nett, ohne alles US NV like zu überhypen.
Grundsätzlich bin ich von aktueller grafik schon begeistert.
Mir ging es bei der CPU darum, dass man mit ini tweaks oder komplettem abschaltem des LoD die cpu heillos überfordert. Es gibt noch so viele spiele, wo man in einer 5m blase läuft/spiel und nur diese "HD" ist. Bei GTA würde ich mir zB noch größere weitsicht wünschen.
Ja, ich würde mir das ausreizen vorhandener features wünschen! Gerade tesselation ist von der skalierbarkeit und vorhandenen basis ein super beispiel. Es ist breit verfügbar, nutzbar von der leistung und noch leicht skalierbar für den user. (wenn es anwendbar ist ;) )
BlacKi
2019-12-26, 15:53:15
Imo ist LoD picking etwas was die GPU seit langem selbst kann (draw/execute indirect etc.), insbesondere die Konsolen. Der Zusammenhang zur cpu ist mir nicht ganz klar, es sei denn ihr meint eher sowas wie geringere Animationen für das was weiter weg ist.
ich hab damals in division 1 mal geschaut, ab welcher cpu config(cores/HT/takt) die fps einbrechen. dabei hab ich festgestellt, das man mit 2c4t die vollen fps hat, solange man sich nicht bewegt. wenn man sich dann bewegt, brechen die fps ein und das LoD kommt nicht mit dem laden hinterher(richtig massiv!). nun sagst du mir dass das alles quatsch ist was ich gesehen/gebencht habe:confused:
pixeljetstream
2019-12-26, 15:56:51
Genau das "wenn es anwendbar ist" ist leider oft das Problem.
LoD picking meint einfach den Vorgang der Entscheidung welches Geometrie LoD für ein Objekt genommen werden soll, und dies kann der Entwickler auch auf der GPU machen lassen.
Hier zwei Präsentationen wo man für Konsolen noch weiter ging und Dreiecke culled
[4] GDC 2015 – Optimizing Graphics Pipeline with Compute – Graham Wihlidal
https://frostbite-wp-prd.s3.amazonaws.com/wp-content/uploads/2016/03/29204330/GDC_2016_Compute.pdf
[5] SIGGRAPH 2015 - GPU-Driven Rendering Pipelines – Ulrich Haar & Sebastian Aaltonen
http://advances.realtimerendering.com/s2015/aaltonenhaar_siggraph2015_combined_final_footer_220dpi.pd
Am PC arbeite ich selbst daran dass diese Fähigkeit mehr Einsatz findet.
https://twitter.com/pixeljetstream/status/1156862559267500032?s=19
pixeljetstream
2019-12-26, 16:08:36
ich hab damals in division 1 mal geschaut, ab welcher cpu config(cores/HT/takt) die fps einbrechen. dabei hab ich festgestellt, das man mit 2c4t die vollen fps hat, solange man sich nicht bewegt. wenn man sich dann bewegt, brechen die fps ein und das LoD kommt nicht mit dem laden hinterher(richtig massiv!). nun sagst du mir dass das alles quatsch ist was ich gesehen/gebencht habe:confused:
LoD kann hier vieles heißen. Im ursprünglichen Post war der Zusammenhang zur Geometrie (vonwegen tessellation) und mehr gpu Power für mehr Details in den Objekten. Zumindest war das meine Interpretation, und daher meine Verwunderung was das mit cpu cores zu tun hat, aber das war meinerseits wohl zu einseitig.
Während das was du beschreibst (und y33H@ wohl auch) nach streaming klingt, wo die cores dann vor allem Texturen und neue Teile der Szene entpacken.
Darauf bezog ich mich nicht, denn das ist normal und wird nicht verschwinden, da große Welten nie ganz in den Speicher passen.
=Floi=
2019-12-26, 17:28:37
ich hätte jetzt darauf getippt, dass die alten singlethread engines durch zu viele drawcalls einfach untergehen, wenn es zu viele details darzustellen gibt.
Imho skaliert das ganze dann mit gefühlt 80-90% steigender cpu last und die gpu landet bei gefühlten 30-50% mehr.
Es wäre schon genial, wenn man weiterhin inis tweaken könne oder wenn es soetwas wie insane einstellungen geben würde, welche man in 3-6 jahren nützen könne. Darum geht blacki und mir wohl.
Auch sind so harte cpu-limits immer ein graus, weil man jetzt nach 4 jahren nicht so viel mehr cpu-power dazubekommt um games mit 1-2 threads gut zu laufen zu bringen.
Hast du minecraft? Mit optifine kann man dort eine pervers hohe sichtweite einstellen und auf aktuellen systemen läuft das ganze super smooth und effizient.
es wäre genial,wenn das ein mod auslagern könnte, weil die LoD diskussion sehr umfangreich sein könnte.
mironicus
2019-12-30, 14:22:08
Ist davon auszugehen das NVidia auf der CES irgendetwas zu den künftigen 7 nm-Grafikkarten sagen wird?
robbitop
2019-12-30, 14:43:11
Die Gefahr bei einer Neuvorstellung ist immer dass man das Inventar schwerer los wird. Deshalb launcht man idR erst wenn Hardware da ist. Wenn man deutlich früher was sagt dann idR eher was über eine kommende uArch oder über ein kommendes Profiprodukt (wie damals Volta - wer weiß ... ggf kommt ja zunächst erstmal ein Voltanachfolger...?). Laut Gerüchten kommt der Turingnachfolger ja eher Sommer 2020. Und ich fürchte ohne große Not dann nur der 104 aber nicht der 102.
Nvidia GTC 2020 (https://www.nvidia.com/en-us/gtc/) (Ende März). Da erwarte ich die Vorstellung des Ampere-Schlachtschiffes, denn da wird's wieder um Deep Learning, Zukunft und mehr gehen. Gaming-Chips? Pah, Spielzeug. Sommer vielleicht -> Gamescom, wie Turing. Geiler wäre natürlich die CES, aber mal ehrlich - dann gäb's zumindest einen kleinen Leak. Da wird's die RX 5600 XT geben und das obligatorische "We don't comment on unannounced products, so pls shut the fuck up".
MfG
Raff
robbitop
2019-12-30, 14:56:14
So sehe ich das auch.
Rampage 2
2019-12-30, 16:43:25
Glauben hier wirklich Alle, dass der Codename für Nvidia's Next-Gen Gaming-Chip "Ampere" heißen wird!? Das ergibt doch keinen Sinn - "Ampere" war von Anfang an für die HPC-Sparte konzipiert und das wurde schon vor Turing-Launch so bekanntgegeben. Seit Pascal (oder schon deutlich früher?) trennt Nvidia Gaming- und HPC-Chips in ihrer Konzeption und ihrem Aufbau; da wäre es nur der logische nächste Schritt, dass die HPC-Chips auch ihre eigenen Codenames bekommen.
Ich halte es für möglich, dass Nvidia's Next-Gen Gaming-Chip unter einem ganz anderen/neuen Codenamen erscheint;)
Im Übrigen kann ich mir nicht vorstellen, dass der Turing-Nachfolger später als Mitte/Sommer 2020 rauskommt - da Turing nur eine eher geringe Leistungssteigerung brachte, wäre ein kürzerer oder wenigstens nicht überdurchschnittlich langer Lebenszyklus (wie es bei Maxwell & Pascal der Fall war) nicht verwunderlich. Wären bis dahin immerhin schon 21 Monate...
R2
AffenJack
2019-12-30, 17:01:21
Im Übrigen kann ich mir nicht vorstellen, dass der Turing-Nachfolger später als Mitte/Sommer 2020 rauskommt - da Turing nur eine eher geringe Leistungssteigerung brachte, wäre ein kürzerer oder wenigstens nicht überdurchschnittlich langer Lebenszyklus (wie es bei Maxwell & Pascal der Fall war) nicht verwunderlich. Wären bis dahin immerhin schon 21 Monate...
R2
An sich hätte ich dir zugestimmt und würde auch von ausgehen, dass Ampere oder wie auch immer die Gen heißt eher so für Q2 2020 geplant war. Das große Fragezeichen ist hierbei aber die Fertigung. Es gab nunmal die Gerüchte, dass man deutlich mehr bei Samsung fertigen will. Vll kam das dadurch, dass Orin von Samsung kommt. Vll plante Nvidia aber auch viel mehr GPUs von Samsung und musste am Ende auf TSMC umsatteln. Im letzteren Fall könnten die GPUs auch 3-6 Monate später als geplant erst in Q4 2020 kommen.
Glauben hier wirklich Alle, dass der Codename für Nvidia's Next-Gen Gaming-Chip "Ampere" heißen wird!? Das ergibt doch keinen Sinn - "Ampere" war von Anfang an für die HPC-Sparte konzipiert und das wurde schon vor Turing-Launch so bekanntgegeben. Seit Pascal (oder schon deutlich früher?) trennt Nvidia Gaming- und HPC-Chips in ihrer Konzeption und ihrem Aufbau; da wäre es nur der logische nächste Schritt, dass die HPC-Chips auch ihre eigenen Codenames bekommen.
Kann passieren. Ampere könnte ein reiner HPC-Chip und Nachfolger von Volta sein. Der GV100 ist (in IT-Maßstäben) uralt und braucht einen Nachfolger - das ist mit Gewissheit Ampere. Ob die kleinen Scheißerchen für Spieler dann Ampere oder doch schon Hopper heißen, werden wir sehen. :) Im Grunde ist der Name aber weniger wichtig als die Architekturmerkmale.
MfG
Raff
robbitop
2019-12-30, 17:28:38
Der Name spielt keine Rolle. Benannt werden die GPUs seit gut 10 Jahren nach Physiker (angefangen mit Tesla). Ich vermute, dass das so bleiben wird.
Der Name spielt keine Rolle. Benannt werden die GPUs seit gut 10 Jahren nach Physiker (angefangen mit Tesla). Ich vermute, dass das so bleiben wird.
Bekannte Physiker wie ... Turing? ;)
Mathematiker, Kryptologen, Physiker. Schlaue Köpfe, die Zahlen meisterhaft beherrschten. Besser? ;)
MfG
Raff
robbitop
2019-12-30, 20:36:35
Bekannte Physiker wie ... Turing? ;)
Niemand mag Besserwisser. ;)
Dann eben Wissenschaftler.
AffenJack
2019-12-30, 20:37:30
Im Grunde ist der Name aber weniger wichtig als die Architekturmerkmale.
Die werden wahrscheinlich doch total langweilig diesmal. Die next Gen dürfte eher sowas wie Pascal werden, leichte Verbesserungen und das wars in der Architektur. Nachdem bei Turing aber die Features drankamen wünsche ich mir diesmal auch einfach mehr Perf.
Niemand mag Besserwisser. ;)
Dann eben Wissenschaftler.
Nicht bös gemeint. Musste nur lachen, weil Turing aus dem Threadtitel genau obendrüber stand. ;)
Ich denke, dass Nvidia sich bei den Codenamen auch was denkt. Volta und Ampere für eine HPC Serie macht da Sinn.
Turing als "Gründer der KI" für die erste Consumer GPU mit Tensorcores auch.... Mal schauen was als nächstes kommt. Vielleicht Newell, Simon oder Minsky. Oder vielleicht suchen sie sich auch einen der Raytracing Pioniere aus.
Butter
2020-01-02, 11:09:03
Kann man nicht eine Regel bilden:
GTX 970 erschien am .... GTX 1070 am ... RTX 2070 am .... RTX 3070 am....?
Ich bin nur zu faul die Daten zu suchen
Troyan
2020-01-02, 11:11:33
Mindesten zwei Jahre Abstand. Zwischen Pascal und Turing lagen 25 Monate.
Butter
2020-01-02, 11:17:31
Mindesten zwei Jahre Abstand. Zwischen Pascal und Turing lagen 25 Monate.
Das ist ja ungenau...aber für die letzten Graka kann man ja genau sehen, wann die in den Shops zu haben waren.
w0mbat
2020-01-02, 11:37:26
Kann man nicht eine Regel bilden:
GTX 970 erschien am .... GTX 1070 am ... RTX 2070 am .... RTX 3070 am....?
Ich bin nur zu faul die Daten zu suchen
Und dann kommen noch so blöde Spiele wie die RTX 2070 Super, die quasi eine Laufzeitverlängerung ist.
Troyan
2020-01-02, 11:43:00
Das ist ja ungenau...aber für die letzten Graka kann man ja genau sehen, wann die in den Shops zu haben waren.
Was möchtest du berechnen? GTX970 war September 2014, GTX1070 Juni 2016 und RTX2070 im Oktober 2018.
Es gibt kein Muster für die Veröffentlichungen.
Butter
2020-01-02, 12:55:04
Was möchtest du berechnen? GTX970 war September 2014, GTX1070 Juni 2016 und RTX2070 im Oktober 2018.
Es gibt kein Muster für die Veröffentlichungen.
Buhhh! Schiebung! Dann hoffen wir mal auf Juni 2020
Was möchtest du berechnen? GTX970 war September 2014, GTX1070 Juni 2016 und RTX2070 im Oktober 2018.
Es gibt kein Muster für die Veröffentlichungen.
Aha, da ist also kein Muster... soso. Demnach ist es auf jeden Fall 2. HJ 2020 und das ist eben auch realistisch.
Korvaun
2020-01-03, 08:25:21
"NVIDIA Next-Gen 7nm Ampere GPU Based GeForce Graphics Cards Up To 50% Faster and Twice As Efficient Than Turing - Launching in 2H of 2020, Report Claims"
https://wccftech.com/nvidia-next-gen-ampere-gpu-50-percent-faster-twice-efficient-than-turing/
Ist zwar WCCFTECH Speku, aber was solls ;)
Silentbob
2020-01-03, 10:29:08
Wahrscheinlich auch doppelt so teuer...
Edgecrusher86
2020-01-03, 10:43:43
Kommt von Taipei Times:
http://www.taipeitimes.com/News/biz/archives/2020/01/02/2003728557
Wenn etwas dran sein sollte, dürfte da für spezifischen Workloads wie RT gelten. Sollte man durch die Bank doppelt so effektiv wie TU bzw GV sein, wäre es schon sehr viel.
Platos
2020-01-03, 10:56:39
Wahrscheinlich auch doppelt so teuer...
Glaube ich nicht. Lederjacke persönlich hatte letztes mal von nem Tritt in den Arsch/die Eier gesprochen (wörtlich), bezüglich den Verkaufszahlen. Da denke ich nicht, dass man noch höher gehen wird.
Mangel76
2020-01-03, 11:19:17
Kommt von Tom's HW:
https://www.tomshardware.com/news/nvidia-ampere-purportedly-50-faster-than-turing-at-half-the-power-consumption (https://www.tomshardware.com/news/nvidia-ampere-purportedly-50-faster-than-turing-at-half-the-power-consumption)
Wenn etwas dran sein sollte, dürfte da für spezifischen Workloads wie RT gelten. Sollte man durch die Bank doppelt so effektiv wie TU bzw GV sein, wäre es schon sehr viel.
"50% mehr Leistung zum halben Verbrauch" ist aber dreifache Powereffizienz. Das ist zu schön um wahr zu sein. Sicher nur in sehr speziellen Situationen wie RT o.ä.
amdfanuwe
2020-01-03, 11:41:14
Hat wohl jemand den Stein der Weisen entdeckt.
Bei AMD Vega 20 hieß es noch:
https://images.anandtech.com/doci/13923/next_horizon_david_wang_presentation-06_575px.png
Mangel76
2020-01-03, 11:45:08
Hat wohl jemand den Stein der Weisen entdeckt.
Bei AMD Vega 20 hieß es noch:
https://images.anandtech.com/doci/13923/next_horizon_david_wang_presentation-06_575px.png
Ich fürchte, da ist wieder jemand auf die Marketingsprüche reingefallen. Wahrscheinlich sollte das "50% mehr Leistung bei gleichem Verbrauch oder gleiche Leistung bei halbem Verbrauch" heißen.
dildo4u
2020-01-03, 11:58:57
Klingt nicht anders als Zen zu Zen 2,1800X vs 3900X sind 100% bei ca selben TDP.
Beide bei 200 Watt.
https://www.computerbase.de/2019-07/amd-ryzen-3000-test/4/#diagramm-test-leistungsaufnahme-max-avx-last-windows-10-komplettes-system
3500 vs 7000 in CB20.
https://www.computerbase.de/2019-07/amd-ryzen-3000-test/3/#diagramm-test-cinebench-r20-multi
amdfanuwe
2020-01-03, 12:12:12
Wahrscheinlich sollte das "50% mehr Leistung bei gleichem Verbrauch oder gleiche Leistung bei halbem Verbrauch" heißen.
Das ergibt keinen Sinn.
Wenn ich gleiche Leistung bei halben Verbrauch habe, kann ich mit doppelt soviel Einheiten und dann gleichem Verbrauch doppelte Leistung erzielen. Also 100% mehr Leistung bei gleichem Verbrauch.
Wobei man bedenken muß, dass mehr Bandbreite benötigt wird und das Speicherinterface nicht entsprechend mit skaliert.
Man muß etwas vorsichtig sein mit dem Begriff "Leistung" sein. Es geht um Takt und Verbrauch auf der Folie.
LasterCluster
2020-01-03, 12:32:25
Ist es jetzt 50% mehr Wumms bei 100% mehr Effizienz (WCCFTECH) oder 50% mehr Wumms bei 50% weniger Verbrauch =200% mehr Effizienz (THW)?
Mangel76
2020-01-03, 12:37:33
Das ergibt keinen Sinn.
Wenn ich gleiche Leistung bei halben Verbrauch habe, kann ich mit doppelt soviel Einheiten und dann gleichem Verbrauch doppelte Leistung erzielen. Also 100% mehr Leistung bei gleichem Verbrauch.
Wobei man bedenken muß, dass mehr Bandbreite benötigt wird und das Speicherinterface nicht entsprechend mit skaliert.
Man muß etwas vorsichtig sein mit dem Begriff "Leistung" sein. Es geht um Takt und Verbrauch auf der Folie.
Ne, kannste nicht. Es geht immer pro Transistor. Zudem bringt Verdopplung nicht doppelte Leistung. Man muss auch Unterscheiden: beim AMD waren das Angaben zum Prozess. Worauf beziehen sich die NV-Angaben?
][immy
2020-01-03, 12:42:48
Ist es jetzt 50% mehr Wumms bei 100% mehr Effizienz (WCCFTECH) oder 50% mehr Wumms bei 50% weniger Verbrauch =200% mehr Effizienz (THW)?
Keine weiß worauf sich die Zahlen tatsächlich beziehen. Kann gut sein das 200% Effizienzsteigerungen in Teilbereichen drin sind. Besonders bei den RT- und Tensor-Cores usw ist wohl einiges drin durch die Verkleinerung.
Bin auf jeden Fall gespannt. Würde inzwischen ja auch gerne meine aktuelle Vega 56 austauschen (aus diversen gründen) aber bei den Preisen ist daran nicht zu denken. Ich hoffe daher mal, das nvidia wieder einen großen Sprung wie bei der 10x0er Gen schafft damit die Preise mal runter gehen (zumindest für die aktuellen Modelle).
Ist übrigens erstaunlich wie sich die Gebrauchtpreise bei nvidia und AMD entwickeln. Eine RX570 bekommt man für 70-80€ während man man für die 1050TI noch ~120€ verlangt, obwohl erstere die letzere um längen hinter sich lässt. Schon verrückt der Markt.
Sunrise
2020-01-03, 13:45:00
"NVIDIA Next-Gen 7nm Ampere GPU Based GeForce Graphics Cards Up To 50% Faster and Twice As Efficient Than Turing - Launching in 2H of 2020, Report Claims"
https://wccftech.com/nvidia-next-gen-ampere-gpu-50-percent-faster-twice-efficient-than-turing/
Ist zwar WCCFTECH Speku, aber was solls ;)
Wenn Apple zusammen mit TSMC von N7 auf N7P schon solche unerwarteten Sprünge in Leistung und Effizienz erreichen kann, dann ist es für NV überhaupt kein Problem - wie bei Pascal - massiv effizienter zu sein. Insbesondere da wir hier von einem Umstieg von 12nm auf 7nm reden, und hier bei TSMC ein doch inzwischen sehr reifer Node mit allen Optimierungen die Basis ist, sondern auch NVs immer wieder bewiesenes Bestreben, mit der Architektur im richtigen Moment noch einen drauf zu setzen.
Das ist nicht weniger als das, was von Ihnen erwartet wird. Weniger habe ich auch nicht erwartet.
dildo4u
2020-01-03, 13:48:04
Es sind im Prinzip 4 Jahre Turing ist kaum effizienter als Pascal alles andere als 100% bei selben TDP wäre erbärmlich.
Troyan
2020-01-03, 13:50:17
Turing ist zwischen 20% bis 40% effizienter als Pascal. Vergleichbar ist hier sowieso nur GP106 mit TU116. Das alleine durch Architekturanpassungen.
dildo4u
2020-01-03, 13:53:53
Warum sind 1080 und 2060 nicht Vergleichbar?Beides sind 175 TDP Karten. https://www.computerbase.de/2019-12/grafikkarten-testparcours-2020/3/#abschnitt_messung_der_leistungsaufnahme
https://www.computerbase.de/2019-12/grafikkarten-testparcours-2020/3/#diagramm-performance-pro-watt-2560-1440
Troyan
2020-01-03, 14:00:45
Weil 2060 auf TU106 basiert und der Chip eben massiv viel mehr Transistoren für Techniken aufbietet, die bei Pascal nicht vorhanden sind. Perf/W mit Raytracing ist Lichtjahre besser, z.B.
Auch sind die großen Turings nicht auf effizient optimiert. Etwas, das nVidia bei TU116 vorgenommen hat. Der Chip ist vor allem für den Notebookmarkt designt. Das selbe gilt auch für GP106.
Birdman
2020-01-03, 14:03:23
Hat wohl jemand den Stein der Weisen entdeckt.
Bei AMD Vega 20 hieß es noch:
https://images.anandtech.com/doci/13923/next_horizon_david_wang_presentation-06_575px.png
Ich wüsste nicht wieso diese Zahlen irgendwie relevant sein sollten - 7nm DUV != 7nm EUV
dildo4u
2020-01-03, 14:03:52
Weil 2060 auf TU106 basiert und der Chip eben massiv viel mehr Transistoren für Techniken aufbietet, die bei Pascal nicht vorhanden sind. Perf/W mit Raytracing ist Lichtjahre besser, z.B.
Auch sind die großen Turings nicht auf effizient optimiert. Etwas, das nVidia bei TU116 vorgenommen hat. Der Chip ist vor allem für den Notebookmarkt designt. Das selbe gilt auch für GP106.
Es scheint für Spielentwickler de signt,das macht am meisten Sinn,Enduser werden erst mit 7nm Ernten.
robbitop
2020-01-03, 14:13:41
Turing ist zwischen 20% bis 40% effizienter als Pascal. Vergleichbar ist hier sowieso nur GP106 mit TU116. Das alleine durch Architekturanpassungen.
Wobei man konstatieren muss, dass ein Teil davon vom besseren 12 nm Prozess kommt.
Leonidas
2020-01-04, 04:02:38
"50% mehr Leistung zum halben Verbrauch" ist aber dreifache Powereffizienz.
Jein. Als Marketing-Aussage würde ich es so lesen: +50% Mehrperformance und die Energieeffizienz ist doppelt so hoch für dieselbe Leistung/Aufgabe. Ergo sind das zwei getrennte Aussagen.
Mangel76
2020-01-04, 09:40:46
Jein. Als Marketing-Aussage würde ich es so lesen: +50% Mehrperformance und die Energieeffizienz ist doppelt so hoch für dieselbe Leistung/Aufgabe. Ergo sind das zwei getrennte Aussagen.
Ähm
Ich fürchte, da ist wieder jemand auf die Marketingsprüche reingefallen. Wahrscheinlich sollte das "50% mehr Leistung bei gleichem Verbrauch oder gleiche Leistung bei halbem Verbrauch" heißen.
Das hört sich für mich absolut plausibel an. Ist halt der nächste Pascal. Man wird wieder den Takt steigern um Fläche zu sparen.
basix
2020-01-04, 11:23:36
Bei allen aktellen Architekturen sind die 2.0 GHz so eine Art natürliche Grenze. Alles darüber wird heillos ineffizient. Irgendwie ähnlich wie die 4-4.5 GHz bei den CPUs (dort aber schon seit 10 Jahren). Bin gespannt, wie hoch man taktmässig noch kommen kann.
mironicus
2020-01-07, 11:40:51
Gibt es schon Preisvorstellungen für eine 3080 Ti?
Ich nehme mal an, dass nachdem NVidia es geschafft hat 1200 Euro für eine RTX 2080 Ti zu verlangen, sie dann für eine RTX 3080 Ti auch 1800 Euro verlangen können, wenn sie einfach das Angebot nach oben ergänzen.
Vor allem wenn AMD mit einem großen Navi nicht an eine RTX 2080 Ti herankommen sollte, werden die Preise imho nach oben explodieren.
Lowkey
2020-01-07, 11:42:17
Auf der einen Seiten waren die Aktionäre nicht zufrieden. Auf der anderen Seite haben die Kunden die höheren Preise angenommen.
maximus_hertus
2020-01-07, 11:49:28
Gibt es schon Preisvorstellungen für eine 3080 Ti?
Ich nehme mal an, dass nachdem NVidia es geschafft hat 1200 Euro für eine RTX 2080 Ti zu verlangen, sie dann für eine RTX 3080 Ti auch 1800 Euro verlangen können, wenn sie einfach das Angebot nach oben ergänzen.
Vor allem wenn AMD mit einem großen Navi nicht an eine RTX 2080 Ti herankommen sollte, werden die Preise imho nach oben explodieren.
Man hört da ein, Stand heute, ganz leises es bleibt beim Preis bzw. auch wieder nicht. Es könnte 2 Varianten geben, eine Base und eine "fortgeschrittene". Die Base wird bei TDP und Takt soweit eingeschränkt, dass man diese für 999 anbieten kann. Die "volle" 3080Ti mit mehr TDP etc. soll dann bei möglicherweise 1199-1299 landen (kurzfristig hieß es 1499, wurde aber dann schnell nach unten korrigiert).
Das ganze ist aber nur mit einer ganz dicken Portion Salz zu betrachten, da ich die Quelle noch nicht als 100% zuverlässig betrachte.
Generell ist es zudem so, dass die finalen Preise eh erst unmittelbar vor dem Launch festgelegt werden. MAn hat bei nV / AMD und Co. nur "targets", aber diese kann man nicht immer verlangen (durch Konkurrenz etc).
Bucklew
2020-01-07, 12:33:44
Selbst mit "nur" halbem Verbrauch würde NVIDIA alles von AMD obsolet machen, was aktuell am Markt ist und in 2020 erscheint.
Immerhin heißt halber Verbrauch nichts weiter als mehr als doppelte Leistung zur identischen Leitungsaufnahme, d.h. die 5700X würde mit der ~110W Klasse von NVIDIA konkurrieren - das ist 1660 Niveau.
Da könnte man tatsächlich >1500€ für die xx80Ti verlangen. Gefällt mir nicht - würde mir gern eine holen - aber ist tatsächlich ein äquivalenter Preis. Alles ab 2070-Äquivalent hätte ja gar keine Konkurrenz mehr.
Morgenlicht
2020-01-07, 12:55:44
die 1200 € für GeForce RTX 2080 Ti sind völlig angemessen
sentinel_first
2020-01-08, 00:14:32
die 1200 € für GeForce RTX 2080 Ti sind völlig angemessen
Mag sein, wenn kostengünstige Konsolen quasi gleiche Leistung bieten werden, werden PC-Spieler zu einer Nischengruppe verkümmern. :P
(Detroit - Syndrom)
robbitop
2020-01-08, 09:46:34
7 nm allein wird ggü 12 nm schon ~50% weniger Leistungsaufnahme bei gleicher Performance bringen. Zumindest wenn man den Prozessangaben glauben schenken darf.
Turing ist in 12 nm schon ein Stückchen energieeffizienter als Navi. Selbst ein 7 nm Shrink ohne Architekturanpassung, wird da schon starke Änderungen bewirken.
Ich gehe aber davon aus, dass man mit Navi 2x auch nicht tatenlos war und zumindest ein Stück weit aufschließen wird.
Chris Lux
2020-01-08, 09:49:23
Mag sein, wenn kostengünstige Konsolen quasi gleiche Leistung bieten werden, werden PC-Spieler zu einer Nischengruppe verkümmern. :P
(Detroit - Syndrom)
Genau! Die 2080Ti nutzt man auch in 7 Jahren noch für die gammeligen Consolen-Spiele. Der PC ist tot.
/s
ChaosTM
2020-01-08, 10:37:44
Nicht der PC ist tot sondern idiotisch überteuerte "High End" Karten.
Wohin die Reise in Zukunft gehen wird zeigt Renoir recht schön. Nach dem Launch der Next Gen Konsolen erwarte ich richtig fette APUs ( Rembrandt ? ) auf PS5/Xbone Basis oder noch etwas schneller.
Wozu sich dann noch einer 1500+ Euronen Karte reinschrauben wenn ein kompletter Spiele PC für 500(+)€ machbar ist.
Es wirt ein langsamer Tod aber er wird kommen ;)
add.. ich gehöre dummerweise zur letzteren Sorte
woodsdog
2020-01-08, 10:54:07
ja, genau so wie vor 6 Jahren, als AMD die fetten Konsolen SOCs, welche ja nun mal schon fertig waren, als APU's released hat und damit den gesammten Grafikkartenmarkt unterhalb von 250 Eur zerstörte.
:facepalm:
ChaosTM
2020-01-08, 11:05:35
Vor 6 Jahren gabs noch keine 4k fähige APU und der Fortschritt bei den dicken Chips war noch gegeben. Dem ist nicht mehr so..
zb.:https://www.youtube.com/watch?v=ARSvLiG-5iU&t=151s
er ist erstaunlich gut informiert und liegt selten daneben -
woodsdog
2020-01-08, 11:21:55
Du erzählst Unsinn. Die Konsolen Chips funktionieren nur als Gesamtpacket _inkl Speicher_.
Für alles andere hat AMD eben die 4000er APUs vorgestellt die man optional eben noch mit einem Grafikchip kombiniert. Das ist zich mal flexibler - Der Markt braucht schlicht keine arschteuren fat-APUs. Ansonsten wäre skull canyon ein Megaerfolg gewesen. Ist leider gefloppt weil kein Markt für das Produkt da war.
Bei der stimme im Video penn ich ein, ganz schlimm.
Nimm deine Dreams.txt und husch husch wieder ab in den Scam Citizen Thread.
Timbaloo
2020-01-08, 11:23:16
4K-fähige APU ;D;D;D;D;D;D;D;D;D
ChaosTM
2020-01-08, 11:26:40
Nur eine Frage der Zeit ;)
Dural
2020-01-08, 12:33:40
Die Diskussionen hat es schon vor 20 Jahren und mehr gegeben.
Mittlerweile sollte man wissen das der PC immer überlegen war und es auch sein wird. Der PC wird sogar die Konsolen überleben, die Konsolen werden früher oder später komplett durch die Cloud ersetzt!
ChaosTM
2020-01-08, 12:49:44
Es geht auch nicht darum dass Konsolen den PC ersetzen.
Im Gegenteil - billigere Spiele PCs dank leistungsfähigerer APUs sorgen für genau den gegenteiligen Effekt.
Vor 6 Jahren gabs noch keine 4k fähige APU und der Fortschritt bei den dicken Chips war noch gegeben. Dem ist nicht mehr so..
2015 kahm der R9 390(X) 8Gb raus.
Ich besitze die Karte und sie schafft auch flüssige 4K (teilweise nur mit abstrichen).
Ich besitze auch ne 7970 aus 2011(@Ghz-Edition+;)) und auch die schafft spielbare 4K
(3Gb bedingt aber nur noch in älteren Spielen).
Meiner Meinung nach gibt es noch immer keine echten 4K Karten!!!
Da es dafür den neuen Übertragungs-Standard HDMI 2.1 oder DP 2.0 benötigt :wink:
Ich hoffe die 3080(Ti) unterstützen schon den neuen Standard.
Sollten sie das nicht tun, wären sie total fürn Arsch.
(meine 1080Ti wird auch meist nur durch den veralteten Anschluss ausgebremst)
M.f.G. JVC
Edit: ok APU ... ging von einer dezidierten Graka aus. Ist ja auch n GPU Tread ^^
ChaosTM
2020-01-08, 13:11:53
Stabile 4k/60 mit allen Details ist immer noch nicht überall gegeben, das stimmt.
Und ich hoffe auch, dass die 3000er Serie wieder mal ordentlich was drauf legt .. +70(+)% zur 1080ti wären schon nett. Aber nicht zu Mondpreisen..
y33H@
2020-01-08, 13:26:58
(meine 1080Ti wird auch meist nur durch den veralteten Anschluss ausgebremst)HDMI 2.0 erzeugt weniger Fps als HDMI 2.1? :freak:
.. +70(+)% zur 1080ti wären schon nett. Aber nicht zu Mondpreisen..
+70% zur 1080Ti wären OK.
Min 16Gb wären auch wünschenswert.
HDMI 2.1 und DP 2.0 sind Pflicht!
Solange das Gebotene stimmt ist der Preis 2t Rangig.
Aber ich brauche nur an meine 1080Ti zu denken und weine,
weil sie Async-Shader eben so gut wie nicht kann.
(ich hab das Gefühl NV lässt immer Irgendetwas absichtlich aus
um die Langlebigkeit absichtlich zu minimieren)
M.f.G. JVC
HDMI 2.0 erzeugt weniger Fps als HDMI 2.1?
Nein, aber es ermöglicht es bis zu 120Hz bei 4K ohne Kompressionen zu übertragen.
Und bietet dazu noch fix Variable Refresh Rate + Low Frame Compensation :wink:
Wiegesagt meine 1080Ti hängt schon meist nur an dem "zu kleinen Anschluss(DP 1.4)" ...
M.f.G. JVC
Timbaloo
2020-01-08, 13:34:13
Async-Shader ;D;D;D;D;D;D;D
ChaosTM
2020-01-08, 13:44:54
@JVC - irgendwo/wann muss Schluss sein.. ich hab meine Grenze bei ca 800 gezogen, vielleicht 1000 bei mindestens 16GB .. Zeitgemäße Anschlüsse setze ich voraus.
@JVC - irgendwo/wann muss Schluss sein.. ich hab meine Grenze bei ca 800 gezogen, vielleicht 1000 bei mindestens 16GB .. Zeitgemäße Anschlüsse setze ich voraus.
Dito :smile:
~800.- (meine extrem aorus irgendwas hat ~840.- gekostet)
(die ist auch Default(250W) nur ~17% hinter ner 2080Ti(250W))
https://www.userbenchmark.com/UserRun/8740143 (145% mit nem alten 3570K)
https://gpu.userbenchmark.com/Nvidia-RTX-2080-Ti/Rating/4027 (171%)
+ 16Gb + zeitgemäße Anschlüsse ... und je nach Leistung auch mehr als 1K...
M.f.G. JVC
Mangel76
2020-01-08, 14:21:17
7 nm allein wird ggü 12 nm schon ~50% weniger Leistungsaufnahme bei gleicher Performance bringen. Zumindest wenn man den Prozessangaben glauben schenken darf.
Turing ist in 12 nm schon ein Stückchen energieeffizienter als Navi. Selbst ein 7 nm Shrink ohne Architekturanpassung, wird da schon starke Änderungen bewirken.
Ich gehe aber davon aus, dass man mit Navi 2x auch nicht tatenlos war und zumindest ein Stück weit aufschließen wird.
Hört doch mal auf, immer mit den 50% zu argumentieren. Das heißt nämlich keinesfalls doppelte Leistung zum gleichen Verbrauch. Bei gleicher Größe bleibt deutlich weniger Leistungssteigerung durch höhere Frequenzen übrig. Bei Verdopplung des Chips ergibt sich auch keine perfekte Skalierung, der Leistungszuwachs liegt deutlich unter 100%. Da muss noch einiges an der Architektur passieren, damit man auf eine Leistungsverdoppelung bei gleichem Verbrauch kommt. Und wie sich NV entscheidet, höhere Frequenzen oder breitere Chips, wissen wir auch noch nicht.
robbitop
2020-01-08, 14:29:45
Hört doch mal auf, immer mit den 50% zu argumentieren.
Warum sprichst/schreibst du im Plural?
Das heißt nämlich keinesfalls doppelte Leistung zum gleichen Verbrauch.
Habe ich nicht behauptet. 50% weniger Verbrauch bei gleicher Leistung. Oder aber rund 30% mehr Performance bei gleichem Verbrauch.
Performance ist bei diesen Angaben idR Takt. 50% Verbrauch bei gleicher Leistung bedeutet, dass jeder Transistor im Mittel 50% der Energie verbraucht. Man kann also für gleichen Verbrauch bei gleichem Takt theoretisch doppelt so viele verbauen. ;)
Bei gleicher Größe bleibt deutlich weniger Leistungssteigerung durch höhere Frequenzen übrig. Bei Verdopplung des Chips ergibt sich auch keine perfekte Skalierung, der Leistungszuwachs liegt deutlich unter 100%. Da muss noch einiges an der Architektur passieren, damit man auf eine Leistungsverdoppelung bei gleichem Verbrauch kommt. Und wie sich NV entscheidet, höhere Frequenzen oder breitere Chips, wissen wir auch noch nicht.
Ja die Praxis liegt idR unter den Angaben der Fertiger. Aber eines ist klar - man kann bei gleicher TDP eine Menge mehr Transistoren verbauen. Man schaue sich Renoir an. 8 Kerne statt 4 bei gleichem Power Envelope - bei höheren turbos also noch bei Picasso/Ravenridge. Ohne 7 nm völlig undenkbar. Das bringt schon einen ordentlichen Sprung.
Hört doch mal auf, immer mit den 50% zu argumentieren.
...Da muss noch einiges an der Architektur passieren, damit man auf eine Leistungsverdoppelung bei gleichem Verbrauch kommt. Und wie sich NV entscheidet, höhere Frequenzen oder breitere Chips, wissen wir auch noch nicht.
Ich erhoffe eine Leistungssteigerung von ~50%+ von 10xx zu 30xx.
Ausgehend von meiner 10nerGPU sind es zur 20xx Serie nämlich nur ~+15%...
Und natürlich wären die neuen Anschlüsse(DP 2.0 und HDMI 2.1) Pflicht.
(ohne den neuen Anschlüssen wäre echtes 4K+ kaum sinnvoll möglich)
Denn die neuen Anschlüsse sind die ersten die fix 120Hz@4K+VRR+LFC ohne Kompression bieten.
M.f.G. JVC
Mangel76
2020-01-08, 14:43:18
Warum sprichst/schreibst du im Plural?
Habe ich nicht behauptet. 50% weniger Verbrauch bei gleicher Leistung. Oder aber rund 30% mehr Performance bei gleichem Verbrauch.
Performance ist bei diesen Angaben idR Takt. 50% Verbrauch bei gleicher Leistung bedeutet, dass jeder Transistor im Mittel 50% der Energie verbraucht. Man kann also für gleichen Verbrauch bei gleichem Takt theoretisch doppelt so viele verbauen. ;)
Ja die Praxis liegt idR unter den Angaben der Fertiger. Aber eines ist klar - man kann bei gleicher TDP eine Menge mehr Transistoren verbauen. Man schaue sich Renoir an. 8 Kerne statt 4 bei gleichem Power Envelope - bei höheren turbos also noch bei Picasso/Ravenridge. Ohne 7 nm völlig undenkbar. Das bringt schon einen ordentlichen Sprung.
Dein Post war nur ein Beispiel, andere gehen ja noch weiter und machen aus den-50% Verbrauch gleich doppelte Leistung bei gleichem Verbrauch. Renoir zeigt, was von GF 14/12nm zu 7nm TSMC geht. Wie es bei dem hochoptimiertem 12nm von NV/TSMC läuft wissen wir nicht. Wir wissen auch nicht, welchen Prozess genau NV für die nächste Generation genutzt wird oder ob man lieber wieder kleinere GPUs designt wegen höherer Marge oder doch wieder sehr breite mit geringerem Takt. Da sind so viele Designentscheidungen, die bisher völlig unbekannt sind. Ich würde ja eher auf kleinere GPUs mit hörem Takt tippen. Und was dann von der Architektur zu erwarten ist, wissen wir auch noch nicht. Da können noch ne Menge Transistoren für besseres RT draufgehen, die aber für die Raster-Grundleistung keine Bedeutung haben.
Linmoum
2020-01-08, 14:46:22
Das sind ganz sicher nicht nur 15%, da es @stock von Ti zu Ti bereits (UHD) knapp 40% sind. So viel kann man mit OC nicht egalisieren, zumal man bei der 2080TI ebenfalls noch etwas rausholen kann.
In neueren Titeln kackt Pascal manchmal ja sogar noch stärker ab und dann sind es auch gerne mal >=50%.
Ampere wird also deutlich mehr als nur 50% auf Pascal drauflegen. Die hat man nämlich schon heute immer wieder mit Turing.
Das sind ganz sicher nicht nur 15%, da es @stock von Ti zu Ti bereits (UHD) knapp 40% sind. So viel kann man mit OC nicht egalisieren, zumal man bei der 2080TI ebenfalls noch etwas rausholen kann.
https://www.userbenchmark.com/UserRun/8740143
(Meine 1080Ti bei Default 250Watt =145% (auf nem ollen 3570K))
https://gpu.userbenchmark.com/Nvidia-RTX-2080-Ti/Rating/4027
(2080Ti Rating =~171%)
Jo klar kann man die 2080Ti übertakten, aber das kann man meine 1080Ti auch noch ;) (2112Mhz)
(=~17%)
Daher erwarte ich bei der 3080Ti mindestens +33% zur 2080Ti =~+50%, bei gleichem Verbrauch, von Meiner 1080Ti.
(+16Gb ... 11/12Gb wären Mir zu wenig)
Und natürlich HDMI 2.1 +DP 2.0 um die Leistung auch auf den Bildschirm bringen zu können.
M.f.G. JVC
Lehdro
2020-01-08, 15:36:30
https://www.userbenchmark.com/UserRun/8740143
(Meine 1080Ti bei Default 250Watt =145% (auf nem ollen 3570K))
https://gpu.userbenchmark.com/Nvidia-RTX-2080-Ti/Rating/4027
(2080Ti Rating =~171%)
Jo klar kann man die 2080Ti übertakten, aber das kann man meine 1080Ti auch noch ;)
(=~17%)
Daher erwarte ich bei der 3080Ti mindestens +33% zur 2080Ti =~+50%, bei gleichem Verbrauch, von Meiner 1080Ti.
(+16Gb ... 11/12Gb wären Mir zu wenig, und natürlich HDMI 2.1 +DP 2.0 um die Leistung auch auf den Bildschirm zu bringen)
M.f.G. JVC
Ernsthaft, Userbenchmark?
Linmoum hat schon recht, 35-40% legt eine 2080 Ti schon auf eine 1080 Ti drauf (https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/3/), stock zu stock - FE zu FE. Die FE der 1080 Ti war aber absolute Grütze, die der 2080 Ti schon ziemlich gut. Die guten Customs der 1080 Ti legen etwas über 10% drauf, mit eigenem OC kommen dann nochmals rund 5% oben drauf. (https://www.computerbase.de/2017-03/asus-gtx-1080-ti-strix-oc-test/) Das mindert den Abstand doch etwas, allerdings gibt es die OC Zugewinne bei der 2080 Ti auch - die meisten Customs eiern aber nur minimal oberhalb der FE rum.
30% sind daher ein realistischer Wert zwischen einer Custom 2080Ti und einer Custom 1080 Ti. Allerdings, da hat Linmoum erneut recht: Es gibt immer mehr Sonderfälle wo die Differenz mal so eben die 50% übersteigt, auch ganz ohne RT. Von daher kann man ausgehend von +50% gegenüber Turing (neue Node, neue Architektur und einem hoffentlich nicht mm²-knauserigem NV) bei einer 3080 Ti auch von glatt 100% mehr Leistung einer 1080 TI FE träumen ohne komplett unrealistisch zu sein.
... die meisten Customs eiern aber nur minimal oberhalb der FE rum.
Deshalb hat meine selektierte 1080Ti auch unglaubliche ~840.- gekostet :wink:
(die FE kostete glaub ich um die 690.-)
M.f.G. JVC
Edit:
Die guten Customs der 1080 Ti legen etwas über 10% drauf, mit eigenem OC kommen dann nochmals rund 5% oben drauf. (https://www.computerbase.de/2017-03/asus-gtx-1080-ti-strix-oc-test/)
Na dann hab ich ja echt glück, das meine Aorus das, was die Asus bei 120% schafft, schon bei 100%(250Watt) schafft :smile:
(und sogar noch etwas mehr ;))
Das passt doch auch ganz gut zum vergleich mit Userbenchmark.
Meine 1080 Ti FE kommt auf 145% und die normale 1080Ti mit FE durchschnittlich auf 130% ...
(blöde Rechnung ... damit komm ich auf ~+13% Mehrleistung bei meiner selektierten im vergleich zu einer normalen ... hab aber ~20% mehr dafür gezahlt ;()
(egal, sehe grad das vergleichbare Leistung (aber 3Gb weniger) noch immer ~ 777.- kosten :smile: https://geizhals.eu/asus-rog-strix-geforce-rtx-2080-super-oc-90yv0dh0-m0nm00-a2104359.html )
Lehdro
2020-01-08, 16:25:03
Deshalb hat meine selektierte 1080Ti auch unglaubliche ~840.- gekostet :wink:
(die FE kostete glaub ich um die 690.-)
M.f.G. JVC
Ich meinte damit die Customs der 2080 Ti.
Es gibt nur sehr wenige Customs der 1080 Ti die sich nicht messbar von der FE absetzen können - bei der 2080 Ti sind die meisten Customs aber sehr nah an der FE.
Mangel76
2020-01-08, 18:47:06
Ich meinte damit die Customs der 2080 Ti.
Es gibt nur sehr wenige Customs der 1080 Ti die sich nicht messbar von der FE absetzen können - bei der 2080 Ti sind die meisten Customs aber sehr nah an der FE.
Kein Wunder, bei der 2080Ti war ja die FE schon übertaktet ;-)
Adam D.
2020-01-12, 13:28:03
https://wccftech.com/nvidia-will-be-annnouncing-7nm-ampere-gpus-at-gtc-2020-in-march/
Ampere soll angeblich auf der GTC im März "vorgestellt" werden. Wie das mit dem einem Release später in H2 zusammenpassen soll, weiß wohl wieder nur WCCFTECH.
Linmoum
2020-01-12, 13:34:06
Passt schon, wenn Ampere der HPC-Ableger ist.
Edit:
Samsung's foundries on the other hand have ample capacity and considering the giant that Samsung Electronics is, can simply throw money at yield problems to make them disappear.
Warum klick ich auf sowas überhaupt? :rolleyes:
Blediator16
2020-01-12, 14:43:28
Samsung hat Probleme beim Fertigen und laut Quellen soll AMD der größte Abnehmer bei TSMC 7nm sein, nachdem Apple und Huawei? nicht mehr wollen bzw. umsteigen. Dann kann ich mir dieses Jahr nichts auf 7nm von NV vorstellen:confused:
basix
2020-01-12, 14:46:50
Samsung hat Probleme beim Fertigen und laut Quellen soll AMD der größte Abnehmer bei TSMC 7nm sein, nachdem Apple und Huawei? nicht mehr wollen bzw. umsteigen. Dann kann ich mir dieses Jahr nichts auf 7nm von NV vorstellen:confused:
H2 soll die Kapazität bei TSMC stark steigen. Die ca. 10k Wafer pro Monat sollten für Nvidia schon drin liegen.
horn 12
2020-01-12, 14:56:24
NV geht wohl der Arsch auf Grundeis und möchte die Vostellung im März abhalten,- um die Leute an der Stange zu halten.
April - Mai 2020 sollte Navi Big kommen,- so teilte es mit ital. Quellen mit.
TheAntitheist
2020-01-12, 15:09:44
NV geht wohl der Arsch auf Grundeis und möchte die Vostellung im März abhalten,- um die Leute an der Stange zu halten.
April - Mai 2020 sollte Navi Big kommen,- so teilte es mit ital. Quellen mit.
und warum geht Nvidia der Arsch auf Grundeis? so ein Quark den du da von dir gibst...
Linmoum
2020-01-12, 15:10:01
Irgendeine Navi-GPU ist für Nvidias HPC-Ableger komplett irrelevant.
Wenn Nvidia Ampere auf der GTC vorstellen sollte, dann nicht in Form von Desktop-GPUs. Das kommt dann später, oder sie trennen es wie zuletzt mit Volta und Turing und Ampere hat grundsätzlich nichts mit den Consumer-Produkten zu tun.
horn 12
2020-01-12, 15:17:04
Ja, aber man könnte die Richtung sehen wo es hingehen wird.
Vor August - September sehe ich keine NV 7nm GPU.
Da dürfte AMD 3 bis 5 Monate früher drann sein.
Leonidas
2020-01-12, 15:37:44
https://wccftech.com/nvidia-will-be-annnouncing-7nm-ampere-gpus-at-gtc-2020-in-march/
Gut spekuliert. Aber wirkliche Anzeichen haben die auch nicht.
horn 12
2020-01-12, 15:51:12
Und wo siehst du Big Navi
und NV 7nm Generation Preis,- Leistungstechnisch bitte...
Samsung hat Probleme beim Fertigen und laut Quellen soll AMD der größte Abnehmer bei TSMC 7nm sein, nachdem Apple und Huawei? nicht mehr wollen bzw. umsteigen.
Dann kann ich mir dieses Jahr nichts auf 7nm von NV vorstellen :confused:
Kommt mir auch komisch vor. NV hat sich ja sehr sehr spät entschieden...
Und auch bei AMD konnte man sehen, das die 7nm mit der alten GPU nicht wirklich viel brachten...
(Intel schafft ja den Shrink auf 10nm gleich "gar nicht"(gewinnt dabei "Garnichts"))
(und AMD ist ja bei TSMC ne große Nummer, hat vermutlich Vorrang und nimmt was es kriegen kann)
Wird interessant, Wann, Wie schnell und Wie üppig NV mit 7nm wirklich kommt.
M.f.G. JVC
[MK2]Mythos
2020-01-12, 19:42:22
Ja, aber man könnte die Richtung sehen wo es hingehen wird.
Vor August - September sehe ich keine NV 7nm GPU.
Da dürfte AMD 3 bis 5 Monate früher drann sein.
Was fantasierst du da wieder zusammen? Big Navi kommt im Herbst, horn. Und hier gehts um Ampere, von dem hier auch kein Mensch einen blassen Schimmer hat, wann er kommt und als was. Hier wird spekuliert und nicht geträumt.
reaperrr
2020-01-12, 20:29:21
Mythos;12190142']Was fantasierst du da wieder zusammen? Big Navi kommt im Herbst, horn. Und hier gehts um Ampere, von dem hier auch kein Mensch einen blassen Schimmer hat, wann er kommt und als was. Hier wird spekuliert und nicht geträumt.
Ich erinnere in dem Zusammenhang auch gern dezent an Pascal. AMD selbst hatte vorher schon Polaris groß angekündigt und von sich gegeben, man sehe sich zeitlich ca. 3 Monate vor der Konkurrenz, wenn es um 16/14nm ginge.
Das Ende vom Lied kennen wir: GP104 kam gut anderthalb Monate vor Polaris10 raus.
Heißt nicht, dass es wieder so oder so ähnlich laufen muss, nur grundsätzlich hat Nvidia den Informationsfluss oft besser im Griff.
Blediator16
2020-01-12, 23:45:10
Ich erinnere in dem Zusammenhang auch gern dezent an Pascal. AMD selbst hatte vorher schon Polaris groß angekündigt und von sich gegeben, man sehe sich zeitlich ca. 3 Monate vor der Konkurrenz, wenn es um 16/14nm ginge.
Das Ende vom Lied kennen wir: GP104 kam gut anderthalb Monate vor Polaris10 raus.
Heißt nicht, dass es wieder so oder so ähnlich laufen muss, nur grundsätzlich hat Nvidia den Informationsfluss oft besser im Griff.
Ein Glück hat das bei AMD mit dem Abgang einiger ein Ende genommen. Seit Zen gibt es keine teaser vom teaser. ;D
y33H@
2020-01-13, 08:55:49
Nvidias GTC als Gaming Show zu bezeichnen :freak: immerhin dürfte der Tippgeber recht haben ...
Linmoum
2020-01-13, 11:06:05
Trotzdem werden viele von der GTC Desktop-GPUs bzw. Ankündigungen erwarten. Am Ende ist man dann enttäuscht und sauer auf Nvidia, weil sie den Volta-Nachfolger vorstellen und die Gamer ja böse vernachlässigen.
Obwohl das die völlig falsche Veranstaltung dafür ist, aber hey.
Timbaloo
2020-01-13, 11:32:37
Wenn Ampere der HPC-Nachfolger von Volta ist, was hinsichtlich Naming ja auch passen würde, was wäre dann der Nachfolger von Turing? Hopper kursierte ja bereits, was namenstechnisch gut zu Turing passen würde, aber Hopper wird dann auch als erste MCM-Architektur spekuliert, was imho für einen Turing-Nachfolger in 7nm zu früh wäre?
Irgendwie passt das nicht so zusammen, oder habe ich einen Codenamen vergessen?
AffenJack
2020-01-13, 11:40:28
Wenn Ampere der HPC-Nachfolger von Volta ist, was hinsichtlich Naming ja auch passen würde, was wäre dann der Nachfolger von Turing? Hopper kursierte ja bereits, was namenstechnisch gut zu Turing passen würde, aber Hopper wird dann auch als erste MCM-Architektur spekuliert, was imho für einen Turing-Nachfolger in 7nm zu früh wäre?
Irgendwie passt das nicht so zusammen, oder habe ich einen Codenamen vergessen?
Nvidia betont eigentlich immer, dass sie eine Architektur haben, die nur für verschiedenen Spezialgebiete angepasst wird. Daher dürfte das alles Ampere sein, wo wie auch Intel alles Xe nennt, nur eben HPC/HP/LP.
Bei Volta und Turing war das nur aufgrund der zeitlichen Komponente anders. Volta war für Summit/Sierra nötig. Turing ne klare Weiterentwicklung von Volta, weshalb man es nicht gleich nannte.
Gut spekuliert. Aber wirkliche Anzeichen haben die auch nicht.
https://www.3dcenter.org/artikel/das-hardware-jahr-2020-der-vorschau
Wo der Arcturus HPC 7nm MI100 und MI200?
Troyan
2020-01-13, 11:52:28
Nvidia betont eigentlich immer, dass sie eine Architektur haben, die nur für verschiedenen Spezialgebiete angepasst wird. Daher dürfte das alles Ampere sein, wo wie auch Intel alles Xe nennt, nur eben HPC/HP/LP.
Bei Volta und Turing war das nur aufgrund der zeitlichen Komponente anders. Volta war für Summit/Sierra nötig. Turing ne klare Weiterentwicklung von Volta, weshalb man es nicht gleich nannte.
Richtig, bei Pascal war der Unterschied noch größer zwischen HPC und Gaming-Architektur als sonst. Mit Turing hat man sich wieder angenähert und viele Funktionen übernommen.
Imo wird es bei Ampere genauso sein. Glaube nicht, dass es einen zweiten Chip für's Gaming geben wird.
Ich weiß ja nicht. Die Zeiten dicken FP64-Ballasts in Gaming-Chips dürften vorbei sein. Früher konnte man sich das noch eher erlauben, da die Fertigung sich schneller entwickelte. Heute aber, wo man auch noch Fläche für RT-Kerne verbläst, die bei HPC und Workstations eher nichts bringen, wäre das keine gute Idee. Turing ist aus gutem Grund ein Double-Precision-Krüppel - da passte einfach nix mehr rein. Volta richtet's. Wenn das jetzt wieder anders wird, droht Nvidia ein neuer GT200.
MfG
Raff
AffenJack
2020-01-13, 13:09:56
Ich weiß ja nicht. Die Zeiten dicken FP64-Ballasts in Gaming-Chips dürften vorbei sein. Früher konnte man sich das noch eher erlauben, da die Fertigung sich schneller entwickelte. Heute aber, wo man auch noch Fläche für RT-Kerne verbläst, die bei HPC und Workstations eher nichts bringen, wäre das keine gute Idee. Turing ist aus gutem Grund ein Double-Precision-Krüppel - da passte einfach nix mehr rein. Volta richtet's. Wenn das jetzt wieder anders wird, droht Nvidia ein neuer GT200.
MfG
Raff
Was hat DP mit der Architektur zu tun? Nix. DP, TCs, RT Cores usw. Das ist alles innerhalb der Architektur frei konfigurierbar. Ändert aber nix daran, dass es die gleiche Architektur ist. So wie auch 16XX und 20XX beides turing ist.
Troyan redete von einem Chip, also tat ich es auch. :) Damit wir uns richtig verstehen: Nvidia wird gewiss eine aufgemöbelte Architektur mit unterschiedlichen Chips bringen (die alle die gleiche Architektur haben, nur eben skaliert). Ich gehe davon aus, dass HPC eine Lösung mit reichlich DP-Leistung bekommt. Bei den Gaming-Ablegern fliegt das entweder (sinnvollerweise) komplett aus dem Silizium, oder wird künstlich beschnitten.
MfG
Raff
AffenJack
2020-01-13, 13:23:33
Troyan redete von einem Chip, also tat ich es auch. :) Damit wir uns richtig verstehen: Nvidia wird gewiss eine aufgemöbelte Architektur mit unterschiedlichen Chips bringen (die alle die gleiche Architektur haben, nur eben skaliert). Ich gehe davon aus, dass HPC eine Lösung mit reichlich DP-Leistung bekommt. Bei den Gaming-Ablegern fliegt das entweder (sinnvollerweise) komplett aus dem Silizium, oder wird künstlich beschnitten.
MfG
Raff
Ok, da sind wir gleicher Ansicht. DP fliegt sicherlich fast komplett raus bei den Gaming Chips, um Platz zu sparen. Auch bei den TCs, die bei HPC wohl verdoppelt werden, wird es spannend ob bei den Consumerchips auch eine Verdopplung stattfindet. Dafür dürfte man den HPC Chip bei den RT-Cores beschneiden.
Dural
2020-01-13, 14:45:26
Man erweitert ja immer die Funktionen der Einheiten, ist seit es GPUs gibt so.
Was Spricht dagegen wenn man Zusatz - Erweiterungen - Einheiten macht die beides können?!? Also entweder RT oder DP.
Der Chip hätte zwar Sinnlos viel RT Leistung, früher oder später wird man es aber brauchen können.
Wird früher oder später so wie so kommen, wenn es jetzt kommt ist NV mal wieder voraus.
Leonidas
2020-01-13, 15:15:56
https://www.3dcenter.org/artikel/das-hardware-jahr-2020-der-vorschau
Wo der Arcturus HPC 7nm MI100 und MI200?
Habe ich als non-Consumer-Produkt nicht mit erwähnt.
Imo wird es bei Ampere genauso sein. Glaube nicht, dass es einen zweiten Chip für's Gaming geben wird.
Mehrere Chips wird es sicherlich geben. Ich denke aber, Du meintest einen zweiten, nicht Architektur-gleichen Chip. Da gehe ich genauso bei Ampere davon aus, dass das alles dann wieder in eine Suppe hineinfällt. Spannend wird nur, ob GA100 nun RT-Cores bekommt oder nicht. Kann man das im Profi-Einsatz nutzen?
basix
2020-01-13, 15:22:26
RT fürs Datacenter (Movie Rendering) oder Gaming @ Cloud. Kann also schon verwendet werden. Vielleicht gibt es noch andere Use Cases für BVH, irgendwelche Algorithmen?
Ich wünsche mir einfach ne 3050 mit 8GB, 800% FHD-Performance-Index und 75Watt. Bin gespannt, ob ich nächstes Jahr zuschlagen kann.
Spannend wird nur, ob GA100 nun RT-Cores bekommt oder nicht. Kann man das im Profi-Einsatz nutzen?
Ja. Die RT Cores werden bei vielen 3D-Visualisierungs/Renderprogrammen die (auch/alternativ/auschließlich) auf der GPU rechnen genutzt.
Hintergrund: die Mehrzahl dieser Programme nutzt intern die OptiX Bibliothek von Nvidia https://en.wikipedia.org/wiki/OptiX
Diese bietet auf dem RT-Core (RTX) Pfad erhebliche Geschwindigkeitsvorteile (Faktor 2+)
s. z.B. diese Blender Benchmarks mit 19 Nvidia Graffikarten:
https://www.phoronix.com/scan.php?page=article&item=blender-281-optix&num=2
die bei Wikipedia gezeigte Liste der Softwaren die das nutzen https://en.wikipedia.org/wiki/OptiX#Software_using_OptiX ist dabei nicht annähnernd vollständig, es werden mehr und mehr, denn
Nvidia pusht das wie gewohnt um auch in diesem Bereich Hardware zu verkaufen...
Screemer
2020-01-13, 17:13:26
Und wo gibt's ne vollständige Liste?
AffenJack
2020-01-13, 17:53:24
Ja. Die RT Cores werden bei vielen 3D-Visualisierungs/Renderprogrammen die (auch/alternativ/auschließlich) auf der GPU rechnen genutzt.
Hintergrund: die Mehrzahl dieser Programme nutzt intern die OptiX Bibliothek von Nvidia https://en.wikipedia.org/wiki/OptiX
Diese bietet auf dem RT-Core (RTX) Pfad erhebliche Geschwindigkeitsvorteile (Faktor 2+)
s. z.B. diese Blender Benchmarks mit 19 Nvidia Graffikarten:
https://www.phoronix.com/scan.php?page=article&item=blender-281-optix&num=2
die bei Wikipedia gezeigte Liste der Softwaren die das nutzen https://en.wikipedia.org/wiki/OptiX#Software_using_OptiX ist dabei nicht annähnernd vollständig, es werden mehr und mehr, denn
Nvidia pusht das wie gewohnt um auch in diesem Bereich Hardware zu verkaufen...
In dem Bereich werden aber in der Regel Quadros verwendet und mit der RTX8000 auf TU102 Basis fährt man da ganz gut. Ich seh da nicht wirklich, wieso man statt AM102 jetzt AM100 verwenden sollte.
Und wo gibt's ne vollständige Liste?
Nirgends? Wieso sollte jemand sowas pflegen? Wenn dus wissen willst, guck beim Programm, dass dich interessiert nach.
In dem Bereich werden aber in der Regel Quadros verwendet und mit der RTX8000 auf TU102 Basis fährt man da ganz gut. Ich seh da nicht wirklich, wieso man statt AM102 jetzt AM100 verwenden sollte.
damit hast Du Recht, wenn... sie gleichzeitig auf den Markt kommen.
der GV100 hatte "damals" im Vergleich zur TU102 (Quadro 6/8000RTX) einiges an Leistung in verschiedenen Bereichen vorgeholt bzw wurde vom TU102 später leicht überholt (nicht RT-Cores die hatte der GV100 noch nicht aber Dinge wie FP32 Performance, Speicherbandbreite)
hier gibts ne Übersicht: https://wccftech.com/review/nvidia-geforce-rtx-2080-ti-and-rtx-2080-review/8/
Wenn die Quadros wieder 1,5 Jahre nach dem "Größten" kommen, kann es eine sehr lohnenswerte Sache sein wenn der bereits ne 2.gen RT Cores /doppelte Anzahl mit bringt..
vielleicht wird es ja auch keinen AM100 geben - wenn dessen Alleinstellungsmerkmal im Vergleich zum AM102 "nur" starke FP64 Performance und full ECC ist (analog GV100 zu TU102)
Vielleicht überlässt man das Feld den CPUs (AVX512) weil andere Features viel lohnenswerter sind (Stückzahl) und von CPUs (aktuell) nicht bedient werden können...
Oder anders gefragt: welche Vorteile/Features sollte denn ein kommender AM100 gegenüber einem AM102 noch bieten?
basix
2020-01-14, 06:31:30
Oder anders gefragt: welche Vorteile/Features sollte denn ein kommender AM100 gegenüber einem AM102 noch bieten?
SXM2 Formfaktor (HBM enabled), ECC, FP64, mehr NVLink, mehr Bandbreite + Speicher, mehr Rechenleistung (Datacenter Density), evtl. relativ zu SMs doppelte Anzahl Spezialunits wie Tensor Cores, grössere Caches für HPC & Deep Learning, neue Datenformate wie BFLOAT16, DGX-3, Radeon SSG Imitiat?, usw.
Noch was vergessen? ;)
AffenJack
2020-01-14, 10:26:36
vielleicht wird es ja auch keinen AM100 geben - wenn dessen Alleinstellungsmerkmal im Vergleich zum AM102 "nur" starke FP64 Performance und full ECC ist (analog GV100 zu TU102)
Vielleicht überlässt man das Feld den CPUs (AVX512) weil andere Features viel lohnenswerter sind (Stückzahl) und von CPUs (aktuell) nicht bedient werden können...
Oder anders gefragt: welche Vorteile/Features sollte denn ein kommender AM100 gegenüber einem AM102 noch bieten?
Neben dem was basix schreibt, du denkst Nvidia würde ihren Gewinnträchtigsten Chip weglassen? V100 dürfte alleine mehr Umsatz machen als TU102 und TU104 zusammen, vom Gewinn wegen der astronomischen Margen im Profibereich wollen wir dann erst gar nicht anfangen.
Sunrise
2020-01-14, 14:44:14
Die Anforderungen an mächtige HPC-Chips sind doch einfach nicht vereinbar mit dem, was NV im Gaming-Bereich bieten möchte. Die Zeiten sind doch lange vorbei.
Dass man solche Architekturen/Chips für Gaming zweckentfremden kann, bedeutet nicht gleich, dass es für den Zielmarkt passt und wenn man eine Menge X Platz und eine Menge Y an Effizienz erreichen möchte, dann nimmt man sicher keinen Ballast mit, der nicht nur Fläche, sondern auch (Energie-)Effizienz pro Fläche kostet.
Im Gaming geht es um klassische Shader-und Texture-Rechenleistung (kein FP64) und Raytracing, dazu muss die Bandbreite passen, man kann aber auch sehr viel durch passende und immer neueren Techniken an Bandbreite sparen.
Alleine die enormen Bandbreitenanforderungen bei HPC, die Anbindung an die Infrastruktur, die Genauigkeit, Zuverlässigkeit usw. schießen mittlerweile weit über das Hinaus, was man nicht nur aus Kostensicht, sondern auch als Notwendigkeit im Gaming-Bereich voraussetzt.
Ich sehe da auf absehbare Zeit keinen gemeinsamen Nenner.
TheAntitheist
2020-01-14, 19:38:56
Ich weiß ja nicht. Die Zeiten dicken FP64-Ballasts in Gaming-Chips dürften vorbei sein. Früher konnte man sich das noch eher erlauben, da die Fertigung sich schneller entwickelte. Heute aber, wo man auch noch Fläche für RT-Kerne verbläst, die bei HPC und Workstations eher nichts bringen, wäre das keine gute Idee. Turing ist aus gutem Grund ein Double-Precision-Krüppel - da passte einfach nix mehr rein. Volta richtet's. Wenn das jetzt wieder anders wird, droht Nvidia ein neuer GT200.
MfG
Raff
Naja stimmt nicht, RT wird auch schon in vielen Workstations benötigt oder benutzt, bei mir sind es schon 3 Anwendungen die damit deutlich beschleunigt werden, also das stimmt hinten und vorne nicht was du behauptest.
y33H@
2020-01-14, 19:59:12
Tesla ist aber nicht Workstation.
Edgecrusher86
2020-01-20, 03:01:56
https://www.gizchina.com/2020/01/19/nvidia-rtx-3080-rtx-3070-specifications-leaked-for-the-first-time
Angebliche Specs zu den Next Gen Performance GPUs von MyDrivers:
GA103 - 60SM - 3840SP, 320-bit - 10/20GB G6; 640 GB/s @ 16 Gbps G6
GA104 - 48SM - 3072SP, 256-bit - 8/16GB G6; 512 GB/s @ 16 Gbps G6
Zwischen 3840-4096SP waren zu erwarten, um TU102 knapp zu schlagen.
Ich würde dann 10GB und 8GB erwarten. Die "3070" dürfte wohl etwas unterhalb der 2080 Ti angesiedelt sein.
Ausgehend davon wäre logisch:
GA102 Full - 90SM - 5760SP, 512-bit - 32/64GB G6 (TITAN/QUADRO only); 1024 GB/s @ 16 Gbps G6
GA102 Cut - 84SM - 5504SP, 480-bit - 15GB G6
(+50% auf "103"); 960 GB/s @ 480-bit G6 oder
448-bit - 14GB G6 (+40% auf "103"); 896 GB/s @ 16 Gbps G6
E: Wobei, die ganze Idee mit einem Big-Chip und +50% zum "103" ist wohl doch hinfällig.
Also nochmals neu angesetzt:
60SM @ 5 GPC (je 12SM) / 320-bit geht ja noch auf, aber 90SM @ 8 GPC / 512-bit nicht. 96SM (6144 SP) @ 8 GPC (je 12SM) wäre wieder machbar.
Dann hätten wir +60% auf "103" - Spekulation meinerseits:
GA102 Full - 96SM - 6144SP, 512-bit - 32/64GB G6 (TITAN/QUADRO only); 1024 GB/s @ 16 Gbps G6
GA102 Cut - 90/92SM - 5760/5888SP, 480-bit - 15GB G6 (+50% auf "103"); 960 GB/s @ 480-bit G6 oder GA102 Cut - 90/92SM - 5760/5888SP 448-bit - 14GB G6 (+40% auf "103"); 896 GB/s @ 16 Gbps G6
Der Big Chip dürfte wohl im Bereich 500-600mm2 liegen. 352- oder 384-bit wäre arg wenig für den Top-Dog, wenn man darunter schon 320-bit verwenden würde und über 5k SP sind da eigentlich Pflicht.
Die PCB wären dann schon echt voll geklatscht oberhalb "GA104". Was auch für bis zu 96SM spräche, wäre die Tatsache dass der Vollausbau immer doppelt soviele SPs wie eine 70er beinhaltete seit Pascal. :cool:
Leonidas
2020-01-20, 03:15:15
Die Differenz zwischen GA103 (60SM) und GA104 (48SM) erscheint mir etwas knapp. Aber gut, wenn das real wieder 100mm² sind, dann wird es NV (erneut) tun.
gravitationsfeld
2020-01-20, 04:06:41
Neben dem was basix schreibt, du denkst Nvidia würde ihren Gewinnträchtigsten Chip weglassen? V100 dürfte alleine mehr Umsatz machen als TU102 und TU104 zusammen, vom Gewinn wegen der astronomischen Margen im Profibereich wollen wir dann erst gar nicht anfangen.
Ich kenn deren Zahlen nicht, aber ich geh davon aus, dass sie locker 100x mehr TU104 als Voltas verkaufen.
OgrEGT
2020-01-20, 06:39:52
Hört sich authentisch an... durch einen weiteren Chip zwischen xx102 und xx104 basiert nun jedes Modell x070 x080 x080ti auf einem eigenen Chip... das wird mit Sicherheit mMn auch alles eine Ecke teurer werden... Kann mir anhand der kolportierten Specs die x080 nicht unter 1000Eur vorstellen... es kommt also sehr auf die Konkurrenzfähigkeit von BigNavi an möglichst viel Preisdruck zu erzeugen...
Edgecrusher86
2020-01-20, 06:46:02
Die Differenz zwischen GA103 (60SM) und GA104 (48SM) erscheint mir etwas knapp. Aber gut, wenn das real wieder 100mm² sind, dann wird es NV (erneut) tun.
Die Differenz zwischen den Chips wäre damit etwas geringer als etwa RTX 2080 zu RTX 2070 (jeweils non Super) - dort sind es grob 28%; in dem Fall hätte man genau 25% - aber ebenso auch an der Speicherbandbreite; hier war man ja identisch bei der 20er Serie.
Man könnte den Unterschied natürlich auch per Taktraten, sprich Power-Target regeln, um in etwa die 20% Differenz zu erreichen. Mal schauen inwiefern da überhaupt etwas dran ist - einen Status Quo bei der VRAM-Bestückung
für die hypothetische RTX 3070 zum Vorgänger hätte ich nicht wirklich spekuliert - genauso wenig wie mehr als 384-bit SI für den Top-Dog - wenn ich diese Spekulation zu Grunde lege und entsprechend erweitere.
Es mag sein, dass 18 Gbps GDDR6 doch nicht im H2 massentauglich ist, und so eine Lösung immer noch günstiger als die Verwendung von HBM2(E) ist, damit die großen Chips nicht an der Bandbreite verhungern.
Hört sich authentisch an... durch einen weiteren Chip zwischen xx102 und xx104 basiert nun jedes Modell x070 x080 x080ti auf einem eigenen Chip... das wird mit Sicherheit mMn auch alles eine Ecke teurer werden... Kann mir anhand der kolportierten Specs die x080 nicht unter 1000Eur vorstellen... es kommt also sehr auf die Konkurrenzfähigkeit von BigNavi an möglichst viel Preisdruck zu erzeugen...
Sofern die doppelte Speicherbestückung weiterhin den Workstation-Modellen vorbehalten wird, würde es mich wundern, wenn man für 10GB gleich die $999 MSRP ansetzt. Um die Karte für Aufrüstwillige interessant zu machen, sollte man ein merklich besseres P/L-Verhältnis zur 2080 Ti anstreben, meiner Meinung nach.
Angenommen +10-20% Performance abseits RT bei 1GB weniger zum gleichen Preis wie die günstigsten AIB-Modelle der alten Ti klingen nicht so verlockend. Das Ganze dann zum MSRP Preis einer 2080 schon eher - dieser lag bei $800 - wäre natürlich immer noch eine Menge Geld.
Von AMD erwarte ich als Gegenpart eine Karte mit 12GB und 384-bit SI - dürfte dann zumindest auch bei $700 gelistet sein, sofern sie mithalten könnte. Ganz oben könnte ich mir als eine Art VII Nachfolger auch bis zu 24GB vorstellen.
mboeller
2020-01-20, 07:07:26
https://www.gizchina.com/2020/01/19/nvidia-rtx-3080-rtx-3070-specifications-leaked-for-the-first-time
Angebliche Specs zu den Next Gen Performance GPUs von MyDrivers:
GA103 - 60SM - 3840SP, 320-bit - 10/20GB G6; 640 GB/s @ 16 Gbps G6
GA104 - 48SM - 3072SP, 256-bit - 8/16GB G6; 512 GB/s @ 16 Gbps G6
Zwischen 3840-4096SP waren zu erwarten, um TU102 knapp zu schlagen.
schaut nach einem salvage Chip aus. Der komplette SoC sollte doch dann 72SM/384bit/12GB haben.
AffenJack
2020-01-20, 07:09:16
Ich kenn deren Zahlen nicht, aber ich geh davon aus, dass sie locker 100x mehr TU104 als Voltas verkaufen.
Du unterschätzt Nvidias Datacenter Business deutlich. TU102, TU104, TU106, TU116, TU117 zusammen machen ~1,3 Mrd $ Umsatz pro Quartal im Gamingbereich (+ Quadro und sehr wenig Tesla).
Datacenter ist 726 Mio $, wovon V100 den Großteil ausmacht, sollten schon so ~500 Mio $ sein pro Quartal. Die Realität dürfte sich bei 10x - max. 20x sovielen TU104 befinden. Gibt keine Daten wie die Umsatzeinteilung bei den Turings ist.
Edgecrusher86
2020-01-20, 07:20:02
schaut nach einem salvage Chip aus. Der komplette SoC sollte doch dann 72SM/384bit/12GB haben.
Wäre dann die bessere Super-Variante für das Folgejahr. :D
AffenJack
2020-01-20, 07:31:10
https://www.gizchina.com/2020/01/19/nvidia-rtx-3080-rtx-3070-specifications-leaked-for-the-first-time
Angebliche Specs zu den Next Gen Performance GPUs von MyDrivers:
Das basiert auf dem Twitteraccount KittyCorgi:
https://twitter.com/CorgiKitty/status/1218091183118774274
Er schreibt auch:
New changes for Ampere client :
1 INT32 Unit remains unchanged because of issue port cannot be fully used anytime.
2 Double the FP32 Unit for shader proportion.
3 Now the performance of the new Tensor Core is doubled.
4 Enhanced L1 Data Cache for more comprehensive functions.
5 True architecture for RTX GAMING with all new design RT CORE ADVANCED
https://twitter.com/CorgiKitty/status/1218542322306056192
Mydrivers hat mit seinen erst geposteten Daten einfach weiterspekuliert. Sieht für mich aber nach purer Spekulation aus, auch wenn er so tut, als wenn er viele Details hat. Verdopplung der FP32 Einheiten pro SM und damit praktisch 6k Cores für GA104 klingt einfach unrealistisch.
horn 12
2020-01-20, 07:55:15
Somit wäre 3070 Knapp an einer RTX 2080TI
3080 um die 20% schneller als eine 2080TI
und das Top Modell wirklich 50% schneller als das derzeitige High End Modell von NV.
Nicht schlecht falls es so kommen sollte...
schaut nach einem salvage Chip aus. Der komplette SoC sollte doch dann 72SM/384bit/12GB haben.
Würd ich auch sagen.
Und der 102er kommt dann ziemlich sicher mit HBM statt GDDR. Man wird sicherlich den Takt zwischen 2200 und 2400 anheben.
ShinyMcShine
2020-01-20, 09:42:01
Somit wäre 3070 Knapp an einer RTX 2080TI
3080 um die 20% schneller als eine 2080TI
und das Top Modell wirklich 50% schneller als das derzeitige High End Modell von NV.
Nicht schlecht falls es so kommen sollte...
Und das ware mal ein Grund, um von meiner 1080 ausgehend eine neue Grafikkarte zu kaufen...
Timbaloo
2020-01-20, 09:51:58
Von meiner 970 wird es jedenfalls ein richtig fetter Sprung :D
Schnoesel
2020-01-20, 11:50:24
Somit wäre 3070 Knapp an einer RTX 2080TI
3080 um die 20% schneller als eine 2080TI
und das Top Modell wirklich 50% schneller als das derzeitige High End Modell von NV.
Nicht schlecht falls es so kommen sollte...
Das mindeste wenn sie mein Geld wollen. Das war früher auch nicht anders. 1080 30% schneller wie 980TI etc. Also das was in einer neuen Gen eigentlich Standard sein sollte. Nix zum jubeln, das werden sie sich eh teuer bezahlen lassen.
Der_Korken
2020-01-20, 12:34:23
Verdopplung der FP32 Einheiten pro SM und damit praktisch 6k Cores für GA104 klingt einfach unrealistisch.
Vor allem, nachdem man die Rohleistung und Register mit Volta/Turing bereits mal eben so verdoppelt hat (INT+FP gleichzeitig statt entweder oder) für gar nicht mal so viel mehr Fläche (na gut, die tatsächliche Leistung hat sich auch nicht verdoppelt). Es sei denn, GA104 hat deutlich mehr Transistoren als TU104 und wird bereits >=400mm² groß in 7nm. Aber dann sind wären 256bit SI sehr knapp und 8GB VRAM natürlich völlig indiskutabel.
Rampage 2
2020-01-20, 12:59:55
Mich würde zuallererst die Anzahl der Raster-Engines für AM102, 104 und 106 interessieren - diese bestimmen den Geometry-Throughput und IIRC ist Geometrie-Leistung wichtig für die RT-Leistung, nicht wahr?
Bestes Beispiel TU104 (RTX 2080/Super):
Diese hatte nicht einfach nur ein Drittel mehr RE's als die 2070 (wie es bei 1080 -> 1070 der Fall war), sondern erstmals DOPPELT so viele (6 vs. 3) und erstmals gleichviele RE's wie die TU102 (6 vs. 6), bei allerdings etwas höherem maximalen Chiptakt (TU102 ~ 2000-2050 MHz; TU104 ~ 2100-2150 MHz).
Das heißt, TU104 sollte rein rechnerisch eine sogar höhere Geometrie-Leistung an den Tag legen, als TU102!
Das ist vermutlich der Hauptgrund oder zumindest eine plausible Erklärung, warum die 2080 Ti nur 20% schneller ist als 2080 Super trotz 40% mehr SPs oder warum sich die 2070 Super trotz nur 11% mehr Shader-Leistung dennoch deutlich mehr als 11% (15-20%) von der regulären 2070 absetzen kann;)
Meine Spekus:
AM102: 6, 9 oder 12 REs
AM104: 6 oder 8
AM106: 3 oder 4
R2
=Floi=
2020-01-20, 14:39:09
das ganze ist watt geregelt und nicht über die einheiten!
auf turing bezogen
AffenJack
2020-01-20, 17:58:17
Vor allem, nachdem man die Rohleistung und Register mit Volta/Turing bereits mal eben so verdoppelt hat (INT+FP gleichzeitig statt entweder oder) für gar nicht mal so viel mehr Fläche (na gut, die tatsächliche Leistung hat sich auch nicht verdoppelt). Es sei denn, GA104 hat deutlich mehr Transistoren als TU104 und wird bereits >=400mm² groß in 7nm. Aber dann sind wären 256bit SI sehr knapp und 8GB VRAM natürlich völlig indiskutabel.
Wobei, wenn man mal so drüber nachdenkt dürfte das gar nicht soviel Fläche kosten. Register, Load Store etc bleiben laut ihm ja gleich, nur L1 Cache wird vergrößert. Pure FP Units sind ziemlich billig. Es wäre von der Architektur aber ein merkwürdiger Schritt nach der Verdopplung der Register, diese praktisch wieder pro FP-Unit zu halbieren und so auf die alten Werte von Pascal bei Register/FP zu kommen. Pro Cudacore dürfte die Leistung da deutlich runter gehen. Aber die TOPs Werte von Oring deuten ja auch auf eine Verdopplung der Tensor Cores. Das dürfte wirklich nur Sinn machen, wenn man die FP32 Einheiten auch verdoppelt. Auch wenn Nvidia behauptet, dass die seperate Einheiten sind, denke ich eher, dass die Tensor Cores irgendwie aus den FP32 Cores zusammengeschaltet werden.
Insgesamt schiene das einfach eine Abkehr zu sein vom Designziel "maximale Auslastung der FP Units" zu "Auslastung durch Async".
Auch wenn ich eher zu Fake tendiere, sind da definitiv interessante Sachen dabei.
Edgecrusher86
2020-01-20, 19:01:01
https://twitter.com/kopite7kimi
https://abload.de/img/5jik5j.jpg
Wenn es stimmt, dürfte es allerfrühstens auf der GC ein Preview geben und Hardlaunch vier-acht Wochen später; eventuell auch gar erst kurz vor Ende des Jahres.
TheAntitheist
2020-01-20, 19:18:07
ich denke mit der news wird der April im Jahre 2019 gemeint sein, sonst macht das "was fake" doch keinen Sinn, wenn er von der Zukunft sprechen würde oder bin ich jetzt ganz Banane?
Linmoum
2020-01-20, 19:21:57
"Wait for tapeout" ergibt aber noch weniger Sinn, wenn letztes Jahr gemeint sein soll. Kann mir aber nicht vorstellen, dass der Tapeout noch nicht einmal erfolgt ist. März/April würde Weihnachtsgeschäft bedeuten.
Ansonsten wäre ich bei solch random Twitter-Typen sowieso immer vorsichtig.
Der_Korken
2020-01-20, 19:54:33
Wobei, wenn man mal so drüber nachdenkt dürfte das gar nicht soviel Fläche kosten. Register, Load Store etc bleiben laut ihm ja gleich, nur L1 Cache wird vergrößert. Pure FP Units sind ziemlich billig.
OK, das mag sein, aber wenn es so einfach wäre die Leistung zu erhöhen, warum kann AMD nicht auch einfach doppelt so viele FP-Units verbauen? Das muss, wie du sagtest, andere Nachteile haben, sonst hätte man es längst gemacht bzw. wäre nicht erst einen Schritt in die andere Richtung gegangen.
TheAntitheist
2020-01-20, 20:04:50
Vor allem woher will er wissen wer was in den nächsten 3 Monaten leaked, der Typ macht hier einen auf Nostradamus.
Unicous
2020-01-20, 22:54:55
Wenn der tapeout im März/April ist, dann wäre es vermutlich kein 2020 Chip. Ist dieser Twitter-Typ überhaupt irgendwie seriös? 6 Monate ist afaik eine Zahl wenn wirklich alles super läuft und der Chip einwandfrei funktioniert. Früher waren es eher 9-12 Monate und ich würde behaupten, dass 9 Monate von tapeout bis Chip in Massenproduktion eine deutlich solidere Zahl ist als 3 Monate.:wink:
Ergo, entweder der Typ erzählt Müll oder der Chip(/die Chips?) über den er redet ist nicht der Turing-Nachfolger.
Edgecrusher86
2020-01-20, 23:54:29
Bei der RTX 20 SUPER Serie war er iirc der Erste, der das komplette lineup geposted hatte.
Sein Profil ist nun nur für Follower einsehbar. :)
Also doch noch eine 2080ti super reinschieben :)
Denniss
2020-01-21, 00:00:03
Wäre erstaunlich wenn das Tapeout erst dieses Frühjahr erfolgen würde.
Gibt es infos ob das bei TSMC oder Samsung war/werden wird oder gar bei beiden?
Linmoum
2020-01-21, 00:09:14
Bei beiden, der Großteil allerdings TSMC.
https://twitter.com/chiakokhua/status/1208068846084509696
horn 12
2020-01-21, 01:00:24
CyberPunk 2077 wurde verschoben
Das Aushängeschild von Nvidia und kommt nun Ende September
Würde mich nicht wundern wenn da auch Ampere zeitgleich mit RTX daherkommt!
PS: Nvidia hatte beim Verschieben des Games die Hände mit im Spiel, Wetten!
April haben sie noch nix,- und AMD die Show zu überlassen,- dies geht mal gar nicht.
Blediator16
2020-01-21, 01:44:13
Ist Cyberpunk ein PC exclusive? Wenn nein, dann kann ich mir die Verschiebung nicht vorstellen, nur weil NV ihre neuen Karten noch nicht bereit hat ;D
[MK2]Mythos
2020-01-21, 01:54:57
Ist Cyberpunk ein PC exclusive? Wenn nein, dann kann ich mir die Verschiebung nicht vorstellen, nur weil NV ihre neuen Karten noch nicht bereit hat ;D
Ist ja auch kompletter Unfug.
dildo4u
2020-01-21, 05:40:17
CyberPunk 2077 wurde verschoben
Das Aushängeschild von Nvidia und kommt nun Ende September
Würde mich nicht wundern wenn da auch Ampere zeitgleich mit RTX daherkommt!
PS: Nvidia hatte beim Verschieben des Games die Hände mit im Spiel, Wetten!
April haben sie noch nix,- und AMD die Show zu überlassen,- dies geht mal gar nicht.
Diese Games sind auf dem Niveau einfach absolut Ressourcen Fresser,Read Dead 2 war z.b 6 Jahre in Entwicklung.
GTA6 kommt vermutlich erst für die nästen Konsolen Gen(PS5 etc) und der Vorgänger kam 2013 für PS3.
SentinelBorg
2020-01-21, 13:46:05
CyberPunk 2077 wurde verschoben
Das Aushängeschild von Nvidia und kommt nun Ende September
Würde mich nicht wundern wenn da auch Ampere zeitgleich mit RTX daherkommt!
PS: Nvidia hatte beim Verschieben des Games die Hände mit im Spiel, Wetten!
April haben sie noch nix,- und AMD die Show zu überlassen,- dies geht mal gar nicht.
Das macht keinen Sinn. Im März hätte Nvidia noch RT Exklusivität, im Herbst dann wahrscheinlich nicht mehr. Und wenn die 7nm Teile so gut sind, dann verkaufen die sich mit oder ohne CyberPunk.
Wäre erstaunlich wenn das Tapeout erst dieses Frühjahr erfolgen würde.
Gibt es infos ob das bei TSMC oder Samsung war/werden wird oder gar bei beiden?
Das würde jedenfalls bedeuten, dass man dieses Jahr mit ach und Krach noch einen Launch zu Weihnachten hinbekommen könnte mit den 104er und 103er. Wahrscheinlicher wäre aber dann eine Vorstellung 2021 zur CES. Auch die Cyberpunk-Therie funktioniert damit nicht (das ist aber sowieso blödsinn, da man ja wenn dann auf die Konsolen verschieben würde, nicht auf irgend ne Grafikkarte).
Übrigens hatte der erste Turing Anfang 2018 Tapeout, man brauchte bis Oktober bis zum Launch. Das Design wird bei 7nm auch eher länger als kürzer dauern. Damit wäre auch N7+ der wahrscheinlichste Prozess, da dieser genau in das Zeitfenster passt und Jensen selbst ja über 7nm sprach (nicht etwa über 5 oder so). NV hat eben N7 und N7P übersprungen und setzt auf den ersten EUV-Prozess.
Man sieht also, man muss in beiden Lagern auf seine Hardware warten, das Zeitfenster wird ja auch für AMD nur wenig günstiger sein, weil man ja nicht mal ein halbes Jahr früher sein wird. NV könnte ja auch mit ner 2080Ti Super noch kontern, wenn sie wollten, es gibt also auch keine Eile. Zwar kommt der erste AMD-Chip früher, allerdings wird AMD ja eh wieder gestaffelt launchen, also alle 2-3 Monaten ein neues Produkt. Man ist also nicht wirklich früher.
Bucklew
2020-01-21, 15:56:01
Das würde jedenfalls bedeuten, dass man dieses Jahr mit ach und Krach noch einen Launch zu Weihnachten hinbekommen könnte mit den 104er und 103er. Wahrscheinlicher wäre aber dann eine Vorstellung 2021 zur CES.
Wieder der gleiche FUD von den gleichen Leuten, wie vorm Pascal Launch.
Siehe der alte Lügen-Charlie, der im Februar 2016 noch behauptet hat, NVIDIA hätte noch keinen Pascal-Chip im Januar '16 gehabt und daher dauert es noch mindestens 7 Monate, bis irgendwas kommt:
https://semiaccurate.com/2016/02/01/news-of-nvidias-pascal-tapeout-and-silicon-is-important/
So what do we have? AMD showed off functional Polaris silicon with multiple working devices in early December. It wasn’t rough, it wasn’t a static demo, it had drivers, cards, and all the things you would expect from non-first silicon. A month later Nvidia did not have silicon and lied to a room of analysts and press about it, and there was no way their CEO would be unaware of such a major milestone at his company.
Tatsächlicher Launch war dann ja HardLaunch Ende Mai ;D
Darfst dich jetzt weiter mit unqualifizierten Äußerungen wie Charlie blamieren, HOT :freak:
mironicus
2020-01-21, 16:46:10
Eigentlich gibt es für NVidia keinen Grund neue Karten in 2020 zu veröffentlichen, sie können die 12 nm-Karten weiterhin solange teuer verkaufen wie es halt geht.
Jetzt kommen z.B. erst mal "Super-Versionen" für den Mobile Markt, genau wie die zehnte Generation von Intel-CPUs die nichts neues bieten.
Rampage 2
2020-01-21, 19:20:44
Mich würde zuallererst die Anzahl der Raster-Engines für AM102, 104 und 106 interessieren - diese bestimmen den Geometry-Throughput und IIRC ist Geometrie-Leistung wichtig für die RT-Leistung, nicht wahr?
Bestes Beispiel TU104 (RTX 2080/Super):
Diese hatte nicht einfach nur ein Drittel mehr RE's als die 2070 (wie es bei 1080 -> 1070 der Fall war), sondern erstmals DOPPELT so viele (6 vs. 3) und erstmals gleichviele RE's wie die TU102 (6 vs. 6), bei allerdings etwas höherem maximalen Chiptakt (TU102 ~ 2000-2050 MHz; TU104 ~ 2100-2150 MHz).
Das heißt, TU104 sollte rein rechnerisch eine sogar höhere Geometrie-Leistung an den Tag legen, als TU102!
Das ist vermutlich der Hauptgrund oder zumindest eine plausible Erklärung, warum die 2080 Ti nur 20% schneller ist als 2080 Super trotz 40% mehr SPs oder warum sich die 2070 Super trotz nur 11% mehr Shader-Leistung dennoch deutlich mehr als 11% (15-20%) von der regulären 2070 absetzen kann;)
Meine Spekus:
AM102: 6, 9 oder 12 REs
AM104: 6 oder 8
AM106: 3 oder 4
R2
Kann Jemand Feedback dazu geben? Ich warte immer noch darauf - IMO ist das ein sehr wichtiges Thema, denn die Zahl der REs bestimmt, welche Einheiten-Verhältnisse möglich sind und welche nicht. Und damit auch die maximal mögliche Anzahl der Recheneinheiten, die der Topdog (AM102) theoretisch haben könnte!
Denn beispielsweise kann ein 6-RE-Setup nicht 4096SPs haben, weil diese nicht durch 6 teilbar ist (es würde kein ganzzahliges RE dabei rauskommen) -> die nächstmögliche Konfiguration wäre dann 3840SPs (a 640SPs bzw. 10 SMX pro RE) oder aber stattdessen gleich 4608SPs (768SPs/12 SMX).
Die theoretisch möglichen Konfigurationen, die ein AM102-Vollausbau haben könnte:
6912SPs verteilt auf 12, 9 oder 6 REs
6144SPs verteilt auf 12, 8 oder 6 REs
5760SPs verteilt auf 9 oder 6 REs
An weniger als 5760 Recheneinheiten glaube ich kaum - irgendwo muss die Mehrleistung ja herkommen und bei der konventionellen Rasterizer-Leistung muss NV zulegen, da Turing in dieser Hinsicht zu wenig Fortschritt gebracht hat...
das ganze ist watt geregelt und nicht über die einheiten!
Auf turing bezogen
War das auf mein letztes Posting bezogen oder auf Jemand anderen?
R2
Rampage 2
2020-01-21, 19:27:00
Was ich mir bezüglich Ampere (und auch bzgl. Navi 2X) vorstellen könnte, um die Leistung zu steigern, OHNE die Zahl der Recheneinheiten massiv zu erhöhen:
- Return of the Hotclocks (8800 GTX, GT200, Fermi) für die RT- und Tensor-Cores (-> glatte Verdopplung der RT-Performance, ohne deren Anzahl zu erhöhen)
- Wieder 3 Shader-Ops pro Takt pro SP (8800 GTX, GT200) oder sogar 4 ;D
Meinungen dazu? :)
R2
talus07
2020-01-21, 21:22:26
1. Ich kann mir nicht vorstellen, dass es dieses Jahr keine neue Nvidia Generation geben wird. Langsam aber sicher stehen ja immer mehr AMD Karten zur Verfügung, die eben sehr wohl Nvidia gute Konkurrenz machen. Demnach wäre ja der logische Schritt wieder einen gewissen Sprung hinzulegen um wieder "freie Bahn" zu haben was Konkurrenzlosigkeit in High Performance betrifft.
2. Bei dem Hype um die NextGen Konsolen ab Herbst wird sicher Nvidia doch eine Botschaft wie "holt euch lieber eine neue RTX XY Karte statt ner Konsole" verkünden wollen um im Gespräch zu bleiben.
3. Weiterhin stehen fertigungsmäßig ja ne Menge Optionen zur Verfügung, oder? Wieso muss es es denn 7nm EUV sein (falls es zeitlich eng werden sollte), wo es doch weiterhin 10nm und die alten 12nm bei TSMC gibt? Ich glaube ja auch, dass es eher 7nm bei der nächsten Generation werden und die Möglichkeit der 12nm sich eher auf einen "eventuelle RTX 2080 Ti Super" bezog.
4. Eine RTX 2080Ti Super wird aber doch auch von Tag zu Tag unwahrscheinlicher oder? Ich meine, wenn diese Karte aus dem VR Benchmark letztens eine Big Navi war, dann reicht ja nicht mal der Vollausbau einer sogennanten 2080 Ti Super Karte um schneller zu sein.
5. Und zuletzt sieht man ja am heutigen 5600 XT Launch, dass sich eben Nvidia nicht allzu sicher sein sollte im Herbst weiterhin in jedem Preisbereich der Sieger zu sein. Und das gilt mit Big Navi dann ja wohl auch für die obere Preisklasse meiner Meinung nach.
Was meint ihr?
unl34shed
2020-01-21, 22:17:56
Die theoretisch möglichen Konfigurationen, die ein AM102-Vollausbau haben könnte:
6912SPs verteilt auf 12, 9 oder 6 REs
6144SPs verteilt auf 12, 8 oder 6 REs
5760SPs verteilt auf 9 oder 6 REs
An weniger als 5760 Recheneinheiten glaube ich kaum - irgendwo muss die Mehrleistung ja herkommen und bei der konventionellen Rasterizer-Leistung muss NV zulegen, da Turing in dieser Hinsicht zu wenig Fortschritt gebracht hat...
Langsam wird es lächerlich, wie groß sollen die Chips denn dieses mal werden?
TU102 hatte 754mm² und 4608 SPs. Ein shrink auf 7nm wäre schon ca 450-480 mm² groß, dazu soll angeblich die RT performance noch verdoppelt werden und die Tensor Cores auch noch schneller...
Bleibt doch mal realistisch, IMO wird es nicht viel mehr SPs geben und ein Großteil der Leistung wird über Takt und höheren Verbrauch kommen.
E: Wie steht denn eigentlich der 12nm Spezial Nvidia Prozess im vergleich zu 7nm oder 16nm dar?
amdfanuwe
2020-01-21, 22:30:34
Meine Meinung: gegen RDNA1 steht Nvidia gut da, kein Handlungsbedarf. RDNA2 steht dieses Jahr mit Big Navi noch aus. Da könnte Nvidia in 7nm+ etwas entgegenstellen.
5nm steht vor der Tür. Da werden sowohl Nvidia als auch AMD eine komplette Serie auflegen. Da kann man dieses Jahr noch aussitzen und Anfang nächsten Jahres früh mit anfangen.
MiamiNice
2020-01-21, 23:08:07
1. Ich kann mir nicht vorstellen, dass es dieses Jahr keine neue Nvidia Generation geben wird. Langsam aber sicher stehen ja immer mehr AMD Karten zur Verfügung, die eben sehr wohl Nvidia gute Konkurrenz machen. Demnach wäre ja der logische Schritt wieder einen gewissen Sprung hinzulegen um wieder "freie Bahn" zu haben was Konkurrenzlosigkeit in High Performance betrifft.
Das Zeug kommt dieses Jahr auf jeden Fall.
2. Bei dem Hype um die NextGen Konsolen ab Herbst wird sicher Nvidia doch eine Botschaft wie "holt euch lieber eine neue RTX XY Karte statt ner Konsole" verkünden wollen um im Gespräch zu bleiben.
Konsolenspieler kaufen i.d.R. keine PCs. Sie haben sich ja extra für eine Konsole entschieden um genau diesen Stress nicht zu haben. Bei der Klintel zu werben ist ziemlich sinnfrei.
3. Weiterhin stehen fertigungsmäßig ja ne Menge Optionen zur Verfügung, oder? Wieso muss es es denn 7nm EUV sein (falls es zeitlich eng werden sollte), wo es doch weiterhin 10nm und die alten 12nm bei TSMC gibt? Ich glaube ja auch, dass es eher 7nm bei der nächsten Generation werden und die Möglichkeit der 12nm sich eher auf einen "eventuelle RTX 2080 Ti Super" bezog.
Ich denke mal das der Prozess ziemlich fest steht. So weit ich weiß designt man einen Chip auf den Fertigungsprozess.
4. Eine RTX 2080Ti Super wird aber doch auch von Tag zu Tag unwahrscheinlicher oder? Ich meine, wenn diese Karte aus dem VR Benchmark letztens eine Big Navi war, dann reicht ja nicht mal der Vollausbau einer sogennanten 2080 Ti Super Karte um schneller zu sein.
Keiner weiß was das für ein Chip war. Aber nur 30% schneller als eine 2080TI, damit wirst Du Ende dieses Jahres kaum einen mehr begeistern können. Vielleicht war es nicht einmal eine AMD GPU.
5. Und zuletzt sieht man ja am heutigen 5600 XT Launch, dass sich eben Nvidia nicht allzu sicher sein sollte im Herbst weiterhin in jedem Preisbereich der Sieger zu sein. Und das gilt mit Big Navi dann ja wohl auch für die obere Preisklasse meiner Meinung nach.
Was meint ihr?
Nvidia kann sich derzeit sowas von zurück lehnen, AMD ist quasi nicht mal in diesem Markt existent. Wenn nicht ein paar Fanbois deren Karten kaufen würden, könnten sie die GPU Abteilung fast schließen. Mal angenommen diese unimöse AMD Karte im VR Bench kommt im Sommer. Dann sind das weiterhin nur 30% auf eine Karte die Du seit Jahren kaufen kannst und deren Ablösung quasi vor der Tür steht. Das ist eigentlich ziemlich mau. Zumal, wenn die Leaks zu Ampere stimmen, die nächste NV Gen eine große Schüppe extra Power bringen wird. Imo auch bitter notwendig, die Welt braucht viel schnellere GPUs.
JaniC
2020-01-22, 00:31:43
Imo auch bitter notwendig, die Welt braucht viel schnellere GPUs.
Die Welt vielleicht nicht, aber ich auf jeden Fall. :D
Durch die Vervielfachung der Auflösung UND der Bildwiederholrate kamen die GPUs einfach nicht hinterher die letzten Jahre. Wären wir immer noch bei 60hz, hätten wir ja so langsam Karten, die 4K immer wuppen könnten. Aber selbst dafür reicht es nicht. Und dann gibt es 120hz, 144hz, 240hz usw. ... bis die Sorglos-144hz-4K Karte kommt, vergehen bestimmt noch 2-3 Generationen.
Bis dahin eben 1440p, 144hz aber eben bei den dicken AAA-Spielen oft nur 80-100 und eben nicht 144fps am Anschlag, trotz 700€+ GPUs.
LasterCluster
2020-01-22, 01:19:57
1. Ich kann mir nicht vorstellen, dass es dieses Jahr keine neue Nvidia Generation geben wird. Langsam aber sicher stehen ja immer mehr AMD Karten zur Verfügung, die eben sehr wohl Nvidia gute Konkurrenz machen. Demnach wäre ja der logische Schritt wieder einen gewissen Sprung hinzulegen um wieder "freie Bahn" zu haben was Konkurrenzlosigkeit in High Performance betrifft.
Was meint ihr?
Irgendwann wird es einfach aus kostengründen sinnlos Riesenchips in einem Uraltprozess mitzuschleppen. Irdgendwas wird sich 2020 zumidenst am oberen Ende der Produktpalette ändern. Im Übringen glaube ich nicht, dass Nvidia allzudirekt auf AMD eingeht was die Planung angeht. Ihre Produktpalette ist dermaßen breit, dass die Anpassungen locker über Preis/neue Modelle a la 1070Ti drin ist. Da brauchst keinen dämonischen Masterplan.
Edgecrusher86
2020-01-22, 03:59:38
5760SP im GA102 Vollausbau dürfte es wohl schon sein bei um die 600mm2 - somit hätte man wieder +50% SPs auf den ominösen 103 mit 3840SP. Wäre zum Beispiel 5504SP für eine mögliche 3080 Ti.
Einheiten und etwa +200 MHz Boost würde in etwa +30-35% Mehrleistung (Rasterizing) ergeben. Ein Plus von 40-50% in jeder Klasse ist eigentlich Pflicht. Dies könnte man dann mit zusätzlichen Architekturverbesserungen erreichen.
Kleiner dürfte aufgrund der nötigen Mehrleistung gegen einen Big Navi und den kolportierten 80CUs (5120SP) bei um die 500mm2 wohl auch keinen Sinn machen, wenn ein gewisser Abstand zugunsten NVs Bestand haben soll.
Angeblich sollen die Taktraten ja auch nicht deutlich höher sein; um die 100-200 MHz pro Modell und weiterhin 2100-2200 MHz OC-Obergrenze wurden ja per Reddit spekuliert. Ein Beispiel wäre dass man etwa in einer Compute lastigen Anwendung wie Wolfenstein II als FE dann 1,8 GHz statt 1,6 GHz aktuell hält (je als Ti)
und ansonsten bis 1,9-2,0 GHz boosten könnte. Ein GA104 dürfte knapp die 2080 SUPER schlagen bei 130 bis 150W. GA103 die 2080 Ti/TITAN RTX um grob 10-20% bei etwa 180-225W. GA102 dann letzere nochmals um 20-30% bei 250-260W (100% PT) bis 325W (max. PT).
Ansonsten würden natürlich auch zum Beispiel 5120 Einheiten völlig ausreichend sein, wäre eine Art Pascal Reloaded möglich - ich habe aber meine Zweifel dass dies derzeit möglich ist, gerade wenn das Hauptaugenmerk der Architektur Effizienz ist, was man sicherlich auch mit geringst möglichen Spannungen erreicht - unter 1V.
Für HPC darf man sicherlich ein Monster mit mindestens 700mm2 und weit jenseits der 6144 SP erwarten. Ich könnte mir etwa bis zu 120SM (7680SP) bei zum Beispiel 750mm2 vorstellen. Das wäre +42% auf den vollen V100; V100 hat auf dem Papier +40% mehr Einheiten als der komplette GP100.
Also um 100-150mm2 wird so ein Chip sicherlich auf die Waage bringen im Vergleich zu "GA102". Schlechte Yields werden durch die riesigen Margen ausgeglichen. Ein funktionstüchtiger V100 soll ja bei um die 1000 USD umgerechnet auf die Waferkosten gelegen haben.
Ende März sind wir vermutlich schlauer, zumindest was den technischen Grundlagen im HPC-Segment und grob zu erwartende Einheitenanzahl im Desktop-Bereich betrifft.
MiamiNice
2020-01-22, 10:44:51
Ich hoffe NV ist weit weniger konservativ eingestellt mit der Ampere Gen. Nur 50% auf eine 2080Ti wäre schon echt schade nach all der Zeit. Zumal aktuell der Bedarf so hoch ist wie noch nie. Ich hoffe NV bringt deutlich mehr als 50%+.
BlacKi
2020-01-22, 10:49:19
ich glaub kaum, das wir größere chips als 500mm² anfangs sehen werden. deshalb wird der sprung, so denke ich auch wegen der fehlenden konkurenz, nicht besonders hoch sein. mit 50% mehr leistung kann man da schon zufrieden sein.
robbitop
2020-01-22, 10:56:04
Ich hoffe NV ist weit weniger konservativ eingestellt mit der Ampere Gen. Nur 50% auf eine 2080Ti wäre schon echt schade nach all der Zeit. Zumal aktuell der Bedarf so hoch ist wie noch nie. Ich hoffe NV bringt deutlich mehr als 50%+.
Die 2080 Ti war ggü der 1080 Ti zum Launch sogar im Schnitt nur ein 35% Sprung. Neuere Games scheinen aber vereinzelt mehr Leistung aus Turing zu ziehen.
Die Zeiten mit +80-100% alle 18 Monate zum gleichen Preis sind leider lange vorbei.
ich glaub kaum, das wir größere chips als 500mm² anfangs sehen werden. deshalb wird der sprung, so denke ich auch wegen der fehlenden konkurenz, nicht besonders hoch sein. mit 50% mehr leistung kann man da schon zufrieden sein.
Bis dato gab es keine große Konkurrenz von AMD im High End Segment. Das könnte sich aber mittelfristig ändern. Selbst für dieses Jahr kann es potenziell gut sein, dass z.B. ein Navi 2x Chip mit 80 CUs mit RDNA2 kein so leichter Gegner sein könnte, dass man ihn wie zu Kepler Zeiten mit einem Midrangechip (GK104) angehen können wird und ihn frecherweise "High End" nennt. :D
Timbaloo
2020-01-22, 11:18:56
RDNA braucht einen kompletten Full-Node um mit Turing gleichzuziehen. Ich glaube du erwartest etwas zu viel von RDNA2.
SKYNET
2020-01-22, 11:21:31
Ich hoffe NV ist weit weniger konservativ eingestellt mit der Ampere Gen. Nur 50% auf eine 2080Ti wäre schon echt schade nach all der Zeit. Zumal aktuell der Bedarf so hoch ist wie noch nie. Ich hoffe NV bringt deutlich mehr als 50%+.
der sprung wird sogar kleiner sein bei der rohleistung als der sprung von pascal zu turing 1080Ti --> 2080Ti... weil man muss die RT leistung aufblasen, dafür wird wohl ein grossteil des siliziums draufgehen, rohleistung denke ich max. 25% von 2080Ti auf 3080Ti... dafür aber wohl min. 2.5x RT leistung
MiamiNice
2020-01-22, 11:29:20
Ich war tatsächlich auch ein Vorbesteller der 2080Ti. Ich habe die Bestellung instant gecancelt als bekannt wurde wie wenig Leistung die Karte hat. Dazu ein Feature mit welchen niemand was zu Lebzeiten der Karte anfangen kann und 500€ mehr und ist nicht mal ein WaKü Block drauf ab Werk.
Die 2080Ti ist imo die größte Kundenverarsche die NV je betrieben hat. Und ja, die 970 ist mir noch gut im Kopf.
Ich bin der Meinung es sollte mit Ampere die fehlenden 15% von Touring geben + die obligatorischen 50% und nochmal 10% Strafprozente weil NV seine treuen Kunden vergrault hat.
Das fände ich persönlich fair. Karte darf dann auch gerne 1600€ kosten. Danke.
SKYNET
2020-01-22, 11:33:03
Ich war tatsächlich auch ein Vorbesteller der 2080Ti. Ich habe die Bestellung instant gecancelt als bekannt wurde wie wenig Leistung die Karte hat. Dazu ein Feature mit welchen niemand was zu Lebzeiten der Karte anfangen kann und 500€ mehr und ist nicht mal ein WaKü Block drauf ab Werk.
Die 2080Ti ist imo die größte Kundenverarsche die NV je betrieben hat. Und ja, die 970 ist mir noch gut im Kopf.
Ich bin der Meinung es sollte mit Ampere die fehlenden 15% von Touring geben + die obligatorischen 50% und nochmal 10% Strafprozente weil NV seine treuen Kunden vergrault hat.
Das fände ich persönlich fair. Karte darf dann auch gerne 1600€ kosten. Danke.
warum, dann lässt halt einfach jede 2. gen aus, wo ist das problem? spart sogar geld, und hast beim wechsel dann min. deine 50% mehr :)
Timbaloo
2020-01-22, 11:37:59
der sprung wird sogar kleiner sein bei der rohleistung als der sprung von pascal zu turing 1080Ti --> 2080Ti... weil man muss die RT leistung aufblasen, dafür wird wohl ein grossteil des siliziums draufgehen, rohleistung denke ich max. 25% von 2080Ti auf 3080Ti... dafür aber wohl min. 2.5x RT leistung
Gequotet für die LULs nach dem Release.
robbitop
2020-01-22, 11:39:56
RDNA braucht einen kompletten Full-Node um mit Turing gleichzuziehen. Ich glaube du erwartest etwas zu viel von RDNA2.
Ich hege gar keine Erwartungen. Ich zeige lediglich das Potenzial. Und wie bereits gepostet, sagte Lisa Su selbst, dass sie in der Konzeption von Renoir erhebliche Potenziale für Energieeffizienz aufgetan haben, die bei Renoir genutzt wurden und in zukünftigen GPUs genutzt werden sollen. Zumindest ein Stück weit kann man schon erwarten, dass RDNA2 hier einen Sprung macht. Dazu kommt ja noch N7P oder N7+, die nochmal ~ -10% Verbrauch bei ISO Performance bringen.
---------------
Ich persönlich nehme an, dass der Turingnachfolger eher in die Richtung gehen wird wie Pascal. Ähnliche, getunte uArch aber Transistoren in Performance investiert.
Allerdings gibt es einen Malus: man ist mit Turing in Die Size Bereiche gegangen, die man mit 12 nm noch ökonomisch machen konnte, mit 7 nm aber zunächst problematisch sind. Entsprechend wird man hier etwas kleiner werden müssen. Das wird den Performancesprung ggü Turing etwas bremsen. Das Problem hatte Pascal zu Maxwell nicht.
Dennoch sollte ein gesunder, größerer Sprung als noch bei Turing ggü Pascal möglich sein.
BlacKi
2020-01-22, 11:48:02
warum, dann lässt halt einfach jede 2. gen aus, wo ist das problem? spart sogar geld, und hast beim wechsel dann min. deine 50% mehr :)
das ist komplett richtig. aber er will bessere grafik und nicht weniger geld ausgeben.
Troyan
2020-01-22, 11:51:34
Ich war tatsächlich auch ein Vorbesteller der 2080Ti. Ich habe die Bestellung instant gecancelt als bekannt wurde wie wenig Leistung die Karte hat. Dazu ein Feature mit welchen niemand was zu Lebzeiten der Karte anfangen kann und 500€ mehr und ist nicht mal ein WaKü Block drauf ab Werk.
Die 2080Ti ist imo die größte Kundenverarsche die NV je betrieben hat. Und ja, die 970 ist mir noch gut im Kopf.
Ich bin der Meinung es sollte mit Ampere die fehlenden 15% von Touring geben + die obligatorischen 50% und nochmal 10% Strafprozente weil NV seine treuen Kunden vergrault hat.
Das fände ich persönlich fair. Karte darf dann auch gerne 1600€ kosten. Danke.
Ohne Raytracing hätte ich meine 2080TI nie gekauft. Wozu auch? Mit G-Sync benötigt man keine hohen Frames.
Jetzt kann ich Spiele mit Raytracing in 4K und 60FPS zocken und sehe Grafik, die erst mit Turing möglich ist.
Abzocke ist der Schrott, den AMD mit Navi macht. 400€ für ein Produkt, dass veraltet ist und Null, in Zahlen 0, neue Funktionen bringt.
robbitop
2020-01-22, 11:59:08
Hohe FPS bringen Bewegschärfe und niedrigen Inputlag. Unterschied in der Praxis mal getestet zwischen 120 fps und 60 fps mit einem 120 Hz+ Monitor und VRR (G/ASync)?
Ich finde, Raytracing ist endlich mal etwas, was das Potenzial hat, das grafische Niveau seit Einführung programmierbarer Pixelshader deutlich zu verändern. Noch sind nur Ansätze erkennbar (da 1st Gen SW + HW).
Für Turing als Produkt selbst IMO wenig relevant - aber Henne-Ei Prinzip. Es muss HW geben, damit es SW gibt.
Als Midrange/Low Range Käufer ist RT IMO im Moment nicht relevant. Kostet zu viel Performance und 1st gen RT sieht idR noch selten beeindruckend aus. Insofern halte ich N10 für ein gutes Produkt. So wie es auch TU116 und 117 sind in ihrem Segment.
2019/20 ist es in dem Bereich auch noch nicht so dramatisch, kein RT in HW zu haben. Aber das wird sich mittelfristig ändern...
ChaosTM
2020-01-22, 13:02:36
Das Potential ist natürlich da, nur fehlt es vorne und hinten an Rechenleistung um das auch vernünftig einsetzen zu können.
Bis dem so ist finde ich Software-Fake Lösung wie die von Crytek oder das was Rockstar bei RDR2 benutzt deutlich effizienter.
edit.: und auch schöner..
MiamiNice
2020-01-22, 13:17:19
Ohne Raytracing hätte ich meine 2080TI nie gekauft. Wozu auch? Mit G-Sync benötigt man keine hohen Frames.
Jetzt kann ich Spiele mit Raytracing in 4K und 60FPS zocken und sehe Grafik, die erst mit Turing möglich ist.
Abzocke ist der Schrott, den AMD mit Navi macht. 400€ für ein Produkt, dass veraltet ist und Null, in Zahlen 0, neue Funktionen bringt.
Zeig mir bitte ein Game welches mit RTX on auf einer 2080Ti anständig läuft.
warum, dann lässt halt einfach jede 2. gen aus, wo ist das problem? spart sogar geld, und hast beim wechsel dann min. deine 50% mehr :)
Ich mag nicht sparen, im Gegenteil, ich würde mit Kusshand mehr ausgeben wenn ich mehr Leistung bekommen könnte. Es mangelt aktuell überall, so wohl an der CPU als an der GPU Front. Spiele laufen nicht anständig weil Power fehlt. Man könnte natürlich ein Jahr spielen und sich dann ein Jahr ein neues Hobby suchen ��
Kauf Dir mal VR, da weißt Du wie viel Power Du so in der Kiste hast. Nämlich gefühlt null
y33H@
2020-01-22, 13:31:22
Zeig mir bitte ein Game welches mit RTX on auf einer 2080Ti anständig läuft.Metro Exodus mit RT @ High.
SKYNET
2020-01-22, 14:03:24
das ist komplett richtig. aber er will bessere grafik und nicht weniger geld ausgeben.
grafik wird ja nicht besser, nur mehr frames X-D
kann er ja haben, er sagt doch immer geld is egal, warum dann nicht ne RTX titan? :uponder:
SKYNET
2020-01-22, 14:09:46
Metro Exodus mit RT @ High.
4k mit <30fps bei nem shooter finde ich jetzt nicht so dolle :freak:
Bucklew
2020-01-22, 14:30:33
4k mit <30fps bei nem shooter finde ich jetzt nicht so dolle :freak:
Was genau hat sich eigentlich in den letzten Jahre geändert? Als Crysis damals(tm) die Hardware nur so gefressen hat und selbst auf HighEnd geruckelt hat, da hat man sich noch über den Grafikfortschritt gefreut. Heute wird darüber gemotzt, weil HighEnd-Grafik auf ner 1660 nicht in 8K mit 144fps läuft.
Verstehe echt dieses Gehate nicht, nur weil eure Lieblingsfirma das Feature noch nicht liefert.
SKYNET
2020-01-22, 14:35:00
Was genau hat sich eigentlich in den letzten Jahre geändert? Als Crysis damals(tm) die Hardware nur so gefressen hat und selbst auf HighEnd geruckelt hat, da hat man sich noch über den Grafikfortschritt gefreut. Heute wird darüber gemotzt, weil HighEnd-Grafik auf ner 1660 nicht in 8K mit 144fps läuft.
Verstehe echt dieses Gehate nicht, nur weil eure Lieblingsfirma das Feature noch nicht liefert.
crysis war einfach derbe kacke programmiert... das läuft ja nichtmal heute in 4k max-out flüssig. :freak:
https://youtu.be/0p8Ymt_ZKxM?t=37
Bucklew
2020-01-22, 14:38:21
crysis war einfach derbe kacke programmiert... das läuft ja nichtmal heute in 4k max-out flüssig.
Bevor du mir nächstes Mal antwortest: Lies und verstehe doch bitte erstmal, was ich geschrieben habe und was mein Punkt ist :rolleyes:
Troyan
2020-01-22, 15:28:47
Zeig mir bitte ein Game welches mit RTX on auf einer 2080Ti anständig läuft.
Habe Battlefield 5, bevor es kaputt gepatcht wurde, in 1440p mit Raytracing und 60FPS+ gezockt. Metro benötigt Raytracing, um einen viel besseren HDR-Effekt zu realisieren. "Deliver us the Moon" mit DLSS liefert hier 4K mit mehr als 45FPS (Quality) bis über 60FPS (Performance) und Wolfenstein YB läuft in 4K mit DLSS (Performance) meisten über 100FPS. Du kannst auch Amid Evil mit Raytracing in 1440p mit über 100FPS zocken.
Und ich ignoriere hier den grafischen Zugewinn durch bessere Qualität und weniger Artefakte.
Ich brauche keine Hardware, die nur mehr Frames liefert. Die kann ich nämlich nicht in bessere BQ investieren, da Spiele grafisch komplett rückständig sind.
Metro Exodus mit RT @ High.
Und das läuft sehr anständig.
@Miami
Ich kann mich nicht daran erinnern das es jemals neue Hardware gab auf der die neuesten AAA Spiele ohne Kompromisse maxed out >60 FPS liefen.
Also würde es nach der Argumentation niemals einen Grund geben mit dem warten auf neue Hardware aufzuhören.
MiamiNice
2020-01-22, 16:00:27
Habe Battlefield 5, bevor es kaputt gepatcht wurde, in 1440p mit Raytracing und 60FPS+ gezockt. Metro benötigt Raytracing, um einen viel besseren HDR-Effekt zu realisieren. "Deliver us the Moon" mit DLSS liefert hier 4K mit mehr als 45FPS (Quality) bis über 60FPS (Performance) und Wolfenstein YB läuft in 4K mit DLSS (Performance) meisten über 100FPS. Du kannst auch Amid Evil mit Raytracing in 1440p mit über 100FPS zocken.
Und ich ignoriere hier den grafischen Zugewinn durch bessere Qualität und weniger Artefakte.
Ich brauche keine Hardware, die nur mehr Frames liefert. Die kann ich nämlich nicht in bessere BQ investieren, da Spiele grafisch komplett rückständig sind.
Das sind 3 Spiele die Du mit RTX spielen kannst. Um ehrlich zu sein sind das 3 mehr als ich gedacht habe :wink: Bei mir ist es so das es mir rein auf die "Grundpower" ankommt. Für RTX habe ich keinen nutzen, für DLSS ebenso wenig. Spiele wie Battlefield seit Teil 3 lassen mich total kalt. Metro Exodus habe ich meine Spielzeit bereut, so schlecht fand ich das Game. Alles nur noch Casual oder halbe Filme. Das will ich nicht. Ich mag wirklich spielen, etwas erspielen, nichts geschenkt bekommen. Ich habe aktuell Indie Games für mich entdeckt, so was wie Escape from Tarkov und eben VR. Weder in VR noch bei kleinen Entwicklerstudios kommt es auf die Features an die Deine HW besitzt oder halt nicht. Es zählt Power und wie gut der Treiber die auf die Straße bringen kann.
D.h. ich brauche Hardware die absolut nur Frames liefert. Von mir aus kann NV RTX wieder entfernen bis VR Titel mit RTX erscheinen. Wir haben absolut konträre Ansprüche :biggrin:
X-Bow
2020-01-23, 01:26:00
Wenn es stimmt, dürfte es allerfrühstens auf der GC ein Preview geben und Hardlaunch vier-acht Wochen später; eventuell auch gar erst kurz vor Ende des Jahres.
Es kann erst ein Hardlaunch von Nvidias 7nm Produkten geben wenn TSMC wieder Kappa frei hat in 7nm. Und damit sind nicht nur 1-2k Wafer im Monat gemeint sondern die Menge die Nvidia benötigt um eine neue Produktpalette in ausreichender Menge bieten zu können.
Mit Appel, HiSilicon, Qualcomm, AMD und Mediatek ist TSMC randvoll. Appel wechselt in H2 auf den 5nm Prozess und AMD hat sich jetzt schon vom freiwerdenden Kuchen einen großes Stück gesichert.
Wenn NV wirklich einen Großteil dann beim TSMC fertigen lassen will, sehen wir deren Produkte mangels Produktionskapazitäten frühestens Q4 2020 oder Q1 2021.
KarlKastor
2020-01-23, 01:40:19
Gibt's da auch irgendwelche Belege zu? Im Interview mit AMDs CTO hieß es, man habe zu wenig Wafer bestellt, weil man sich verschätzt habe. Es wäre aber kein generelles Problem von TSMC nicht mehr liefern zu können.
"We did have some shortfalls on chips when we first launched our highest performing Ryzens, and that was simply demand outstripping what we had expected and what we had planned for. That wasn’t a TSMC issue at all."
Denniss
2020-01-23, 01:42:53
Die obige Aussage stimmt aber nur wenn die zu Grunde liegende Meldung üer die 7nm-Verteilung bei TSMC auch stimmt.
Die Meldung hatte einige Merkwürdigkeiten zu bieten wie z.B. eine seltsam hoher Waferzahl bei Samsung. Zudem war nicht ganz klar ob sich die 7nm-Verteilung generell auf 7nm-Prozesse bezieht oder nur auf den "normalen" 7nm Prozeß der nvidia ja gar nicht beträfe (da die erst bei 7nm EUV einsteigen wollten)
TheAntitheist
2020-01-23, 02:11:25
Das sind 3 Spiele die Du mit RTX spielen kannst. Um ehrlich zu sein sind das 3 mehr als ich gedacht habe :wink: Bei mir ist es so das es mir rein auf die "Grundpower" ankommt. Für RTX habe ich keinen nutzen, für DLSS ebenso wenig. Spiele wie Battlefield seit Teil 3 lassen mich total kalt. Metro Exodus habe ich meine Spielzeit bereut, so schlecht fand ich das Game. Alles nur noch Casual oder halbe Filme. Das will ich nicht. Ich mag wirklich spielen, etwas erspielen, nichts geschenkt bekommen. Ich habe aktuell Indie Games für mich entdeckt, so was wie Escape from Tarkov und eben VR. Weder in VR noch bei kleinen Entwicklerstudios kommt es auf die Features an die Deine HW besitzt oder halt nicht. Es zählt Power und wie gut der Treiber die auf die Straße bringen kann.
D.h. ich brauche Hardware die absolut nur Frames liefert. Von mir aus kann NV RTX wieder entfernen bis VR Titel mit RTX erscheinen. Wir haben absolut konträre Ansprüche :biggrin:
meine Güte bist du so dämlich oder tust du nur so? Irgendwann muss ein neues Feature doch mal in Hardware gegossen werden damit die Software nachrücken kann, Nvidia geht das Risiko ein und du meckerst immernoch... Wie zur Hölle willst du denn endlich mal ordentliche Grafik bekommen ohne Raytracing? das ist einfach nicht möglich. Wenn du mehr fps willst dann stell die grafik auf low und auf 720p, willst du bessere Grafik dann freu dich über RTX...
du hast doch nen Knoten im Kopf.
Reaping_Ant
2020-01-23, 04:18:35
Weder in VR noch bei kleinen Entwicklerstudios kommt es auf die Features an die Deine HW besitzt oder halt nicht. Es zählt Power und wie gut der Treiber die auf die Straße bringen kann.
Das stimmt so aber nicht, siehe VRSS (https://www.nvidia.com/en-us/geforce/news/nvidia-geforce-ces-2020-game-ready-driver/), welches in einem der letzten Treiber eigefuehrt wurde und welches das Variable Rate Shading von Turing nutzt um in VR-Titeln selektiv Supersampling in der Bildmitte durchzufuehren. Wenn man das mit kommenden Headsets auch noch mit Eyetracking kombiniert, hat das grosses Potential, die Bildqualitaet in VR deutlich zu verbessern ohne die Leistung gleich ins Bodenlose fallen zu lassen.
Auch Raytracing sollte sich eigentlich mit Foveated Rendering sehr gut kombinieren lassen, da man dort die Leistung recht einfach ueber die Dichte der Strahlen skalieren kann.
Bucklew
2020-01-23, 08:40:51
Mit Appel, HiSilicon, Qualcomm, AMD und Mediatek ist TSMC randvoll.
Klar, für einen ihrer Hauptkunden wie NVIDIA hat TSMC absolut gar keine, niemals nie Kapazitäten frei ;D ;D ;D
Linmoum
2020-01-23, 08:45:54
Hauptkunde oder nicht ist nur völlig irrelevant, auch Nvidia muss wie jede andere Firma ihre benötigten Kapazitäten an Wafern bestellen.
Die Frage ist ja auch gar nicht, ob Nvidia gar nichts abbekommt, sondern wie viel. Man weiß eben nicht, was ursprünglich mit Samsung geplant war und ob der Großteil nicht eventuell dort gefertigt werden sollte, man aufgrund der scheinbar miesen Yields aber anders planen musste.
MiamiNice
2020-01-23, 08:49:52
Das stimmt so aber nicht, siehe VRSS (https://www.nvidia.com/en-us/geforce/news/nvidia-geforce-ces-2020-game-ready-driver/), welches in einem der letzten Treiber eigefuehrt wurde und welches das Variable Rate Shading von Turing nutzt um in VR-Titeln selektiv Supersampling in der Bildmitte durchzufuehren. Wenn man das mit kommenden Headsets auch noch mit Eyetracking kombiniert, hat das grosses Potential, die Bildqualitaet in VR deutlich zu verbessern ohne die Leistung gleich ins Bodenlose fallen zu lassen.
Auch Raytracing sollte sich eigentlich mit Foveated Rendering sehr gut kombinieren lassen, da man dort die Leistung recht einfach ueber die Dichte der Strahlen skalieren kann.
Ja, das stimmt. Aktuell spielt das aber, so weit ich weiss, leider noch keine Rolle.
Bucklew
2020-01-23, 08:55:27
Hauptkunde oder nicht ist nur völlig irrelevant, auch Nvidia muss wie jede andere Firma ihre benötigten Kapazitäten an Wafern bestellen.
Na siehste. Wenn NVIDIA also für März einen Chip fertig hat, dann bekommen Sie den auch fertig und in Masse gefertigt.
Die Frage ist ja auch gar nicht, ob Nvidia gar nichts abbekommt, sondern wie viel.
Schau mal worauf ich geantwortet habe. 2021, das ich nicht lache. Nur weil NVIDIA keine TSMC-Kapazitäten bekommt. Trololololol ;D
X-Bow
2020-01-23, 10:46:05
Klar, für einen ihrer Hauptkunden wie NVIDIA hat TSMC absolut gar keine, niemals nie Kapazitäten frei ;D ;D ;D
NV ist kein Hauptkunde. Warum auch? Wie man gesehen hat, brauch TSMC NV überhaupt nicht um neue Prozesse auslasten zu können.
TSMC reserviert sicher nicht freie Kappazitäten für eine Kunde, der gar nichts ordert.
Und TSMC wird relativ egal sein wer Ihre Auftragsbücher voll macht, Namen sind denen völlig egal, da kommt es nur darauf an wer den (für TSMC) besseren Rahmenvertrag abgeschlossen hat und bei dem man mehr $/Wafer verdient.
BlacKi
2020-01-23, 11:08:58
Und TSMC wird relativ egal sein wer Ihre Auftragsbücher voll macht, Namen sind denen völlig egal, da kommt es nur darauf an wer den (für TSMC) besseren Rahmenvertrag abgeschlossen hat und bei dem man mehr $/Wafer verdient.
also wenn für tsmc die frage auftreten sollte AMD<NV.
"Der CEO von NVIDIA erklärte ebenso, dass sein Unternehmen in der Vergangenheit bereits enge Beziehungen zu TSMC hatte, da TSMC für NVIDIAs 16nm (Pascal) und 12nm (Volta / Turing) GPUs verantwortlich war bzw. diese produziert hat. NVIDIA hob auch seine Turing-GPU-Architektur hervor, die auf TSMCs 12-nm-Prozessknoten aufbaut und eine bessere Effizienz und Leistung als die konkurrierenden 7-nm-prozessbasierten Produkte bietet. Huang schreibt den Erfolg der genannten GPUs direkt TSMC zu – eine wichtige Basis für die neue Partnerschaft zwischen TSMC und NVIDIA."
https://www.igorslab.de/nvidias-kommender-7-nm-grafikprozessor-wird-bei-tsmc-gefertigt-samsungs-euv-eine-kleinere-rolle-als-bisher-angenommen/
natürlich storniert tsmc keine amd kapazitäten im nachhinein.
ich glaube aber schon das nv rechtzeitig ausreichend kapazitäten geordert hat, damit dem launch der next gen nichts im weg steht.
Bucklew
2020-01-23, 11:19:50
NV ist kein Hauptkunde.
;D ;D ;D
Deshalb entwickelt TSMC inzwischen sogar extra angepasste Prozess für NVIDIA (12nm FFN, wobei das "N" für "NVIDIA" steht). Kann das einer der von dir genannten Kunden von sich behaupten? Nein, oder? Siehste.
TSMC reserviert sicher nicht freie Kappazitäten für eine Kunde, der gar nichts ordert.
Bitte einen Beleg dafür, dass NVIDIA bisher keinerlei 7nm Kapazität bei TSMC geordert hat :up:
Und TSMC wird relativ egal sein wer Ihre Auftragsbücher voll macht, Namen sind denen völlig egal, da kommt es nur darauf an wer den (für TSMC) besseren Rahmenvertrag abgeschlossen hat und bei dem man mehr $/Wafer verdient.
Man merkt, dass du keinerlei Ahnung hast und einfach nur Bullshit plapperst. Hat ja BlacKi auch nochmal erläutert.
Nur als Idee, sogar nach deiner Behauptung: Vielleicht hat NVIDIA sogar den deutlich besseren Rahmenvertrag als AMD, schließlich haut NVIDIA ne ganze Menge mehr an Wafern durch :tongue:
X-Bow
2020-01-23, 11:30:31
Naja, wie Du sagst ist das die Aussage vom CEO von Nvidia, nicht vom CEO von TSMC.
Keiner außer TSMC kann für Nvidia akutell ersetzen. Samsung ist auch noch nicht so weit mit dem 7nm Prozess. Nvidia hat schlicht keine große Wahl.
Sofern der Text korrekt übersetzt wurde spricht Huang auch von einer "neuen" Partnerschaft. Das machst Du nicht wenn alles beim Alten bleibt.
Ich interpretier das eher so, als wenn NV zähneknirschend doch nicht alles beim Samsung machen lassen kann, zurück zu TSMC musste und neue, für TSMC bessere, Konditionen annehmen mussten, und dies erst kürzlich. ;-)
Mangel76
2020-01-23, 11:33:06
Nur als Idee, sogar nach deiner Behauptung: Vielleicht hat NVIDIA sogar den deutlich besseren Rahmenvertrag als AMD, schließlich haut NVIDIA ne ganze Menge mehr an Wafern durch :tongue:
Hast du einen Beleg dafür? Schließlich lässt AMD neben GPUs auch die ZEN-Chiplets bei TSMC fertigen. Andererseits braucht NVIDIA ja massig Wafer für ihre riesigen GPUs. Gibt es irgendwelche belastbaren Zahlen, wer wie viele Wafer abnimmt? Bei AMD flogen ja kürzlich einige Zahlen durch den Äther aber zu NVIDIA ist mir nichts bekannt.
Bucklew
2020-01-23, 11:39:41
Ich interpretier das eher so, als wenn NV zähneknirschend doch nicht alles beim Samsung machen lassen kann, zurück zu TSMC musste und neue, für TSMC bessere, Konditionen annehmen mussten, und dies erst kürzlich.
Wir wussten schon, dass du keine Ahnung hast, du musst es nicht noch weiter untermauern :up:
Den Beleg dafür, dass NVIDIA bisher keinerlei 7nm Kapazitäten bestellt hast, lieferst du wann noch nach....?
Hast du einen Beleg dafür? Schließlich lässt AMD neben GPUs auch die ZEN-Chiplets bei TSMC fertigen. Andererseits braucht NVIDIA ja massig Wafer für ihre riesigen GPUs.
CPUs sind ziemlich klein, dito Smartphone-SoCs. GPUs sind dagegen x Mal so groß und man sollte nicht vergessen, dass NVIDIA erstmal die größeren Chips hat, als AMD und noch dazu locker 3x mehr verkauft, ergo produzieren lässt:
https://wccftech.com/nvidia-geforce-amd-radeon-discrete-gpu-market-share-q3-2019/
Also da kann man sich an 2 Fingern abzählen, dass NVIDIA sicherlich einer der Hauptkunden bei TSMC ist. Weiß auch nicht, was die sinnlose Diskussion soll.
Mangel76
2020-01-23, 11:43:50
CPUs sind ziemlich klein, dito Smartphone-SoCs. GPUs sind dagegen x Mal so groß und man sollte nicht vergessen, dass NVIDIA erstmal die größeren Chips hat, als AMD und noch dazu locker 3x mehr:
https://wccftech.com/nvidia-geforce-amd-radeon-discrete-gpu-market-share-q3-2019/
3 mal mehr bei GPUs. Und ja, die Chiplets sind recht klein. Dafür werden aber aber auch bis zu 8 Chiplets pro CPU gebraucht! Damit ist die Waferfläche pro verkaufter CPU doch deutlich größer als ein Smartphone-SOC.
Bucklew
2020-01-23, 12:00:28
3 mal mehr bei GPUs. Und ja, die Chiplets sind recht klein. Dafür werden aber aber auch bis zu 8 Chiplets pro CPU gebraucht! Damit ist die Waferfläche pro verkaufter CPU doch deutlich größer als ein Smartphone-SOC.
Ist doch völlig Wumpe ab der Größenordnung. Fakt ist, dass NVIDIA einer der größten Abnehmer von TSMC-Wafer war, ist und bleiben wird. Wenn nicht sogar der Größte.
Den verprellen die sich doch nicht, nur weil es der feuchte Wunschtraum der AMD-Fanboys ist :rolleyes:
Mangel76
2020-01-23, 12:27:25
Ist doch völlig Wumpe ab der Größenordnung. Fakt ist, dass NVIDIA einer der größten Abnehmer von TSMC-Wafer war, ist und bleiben wird. Wenn nicht sogar der Größte.
Den verprellen die sich doch nicht, nur weil es der feuchte Wunschtraum der AMD-Fanboys ist :rolleyes:
Okay, alles klar. Andere nach Belegen für ihre Behauptungen fragen, die eigenen unbelegten Behauptungen aber als "Fakt" verkaufen.
MiamiNice
2020-01-23, 12:27:26
Zumal wir in einer Welt leben in der Geld der treibende Faktor ist. Wer wohl mehr Kohle hat? AMD oder alle anderen? ;D Auch TSMC will nur Geld verdienen, welch Wunder, und davon eine ganze Menge.
Bucklew
2020-01-23, 12:33:33
Okay, alles klar. Andere nach Belegen für ihre Behauptungen fragen, die eigenen unbelegten Behauptungen aber als "Fakt" verkaufen.
Nochmal: Ihr wollt wirklich behaupten, dass TSMC ein Kunde egal ist, für den sie sogar noch vor zwei Jahren einen Custom Prozess entwickelt haben?
Zumal wir in einer Welt leben in der Geld der treibende Faktor ist. Wer wohl mehr Kohle hat? AMD oder alle anderen? ;D
Jetzt stör doch die üblichen Fanboys nicht bei ihrem AMD-über-Alles-Gejubel ;D
mboeller
2020-01-23, 12:43:40
AMD to Become TSMC’s Largest 7nm Customer In 2020: Report (https://www.tomshardware.com/news/amd-to-become-tsmcs-largest-7nm-customer-in-2020-report)
In numbers, AMD would consume 21% share of TSMC’s 7nm wafer capacity with 30,000 WPM. HiSilicon and Qualcomm would be responsible for 17-18% share and MediaTek for 14%. This would leave 29% of TSMC’s 7nm capacity to the rest of its customers.
AMD wird angeblich No1 bei TSMC (7nm). Nvidia wird No xxxx
12nm = Vergangenheit ... interessiert niemanden.
MiamiNice
2020-01-23, 12:54:57
Wenn der dickste Kunde 21% der verfügbaren Produktionsleistung beansprucht bleiben für NV ja noch 29% über, laut Artikel. Apple geht woanders hin da 5nm, das wäre wohl der nächste Big Player. Also warum sollten dieses Jahr dann keine NV Karten erscheinen? Zumal NV sicher, denke ich mir aufgrund der Größe der Chips und weil GPUs eher hochpreisig sind, mehr zu zahlen bereit ist als die anderen auf der Liste?
Bucklew
2020-01-23, 12:56:27
Wenn der dickste Kunde 21% der verfügbaren Produktionsleistung beansprucht bleiben für NV ja noch 29% über, laut Artikel.
Warum sollte sich NVIDIA was mit AMD teilen, beide nutzen unterschiedliche Prozesse, 7nm EUV vs. 7nm DUV.
Mangel76
2020-01-23, 12:57:06
Nochmal: Ihr wollt wirklich behaupten, dass TSMC ein Kunde egal ist, für den sie sogar noch vor zwei Jahren einen Custom Prozess entwickelt haben?
;D
Das habe ich nicht behauptet. Ich fragte dich lediglich nach einem Beleg für deine Fakten. Aber anscheinend brauchen die nur alle anderen.
basix
2020-01-23, 12:57:28
Ist doch völlig Wumpe ab der Größenordnung. Fakt ist, dass NVIDIA einer der größten Abnehmer von TSMC-Wafer war, ist und bleiben wird. Wenn nicht sogar der Größte.
Frag mal bei Apple nach, welche >200 Mio iPhones pro Jahr verkaufen und noch zig Millionen Tablets oben drauf. Nvidia verkauft ca. 40-50 Mio dGPUs pro Jahr. Die meisten GPUs sind in der Grössenördung GP106, GP107, TU116, TU117. Über alle GPUs gesehen, ist die durchschnittliche Die Size bei Nvidia wahrscheinlich ca. 200mm2 und somit nur etwas mehr als 2x grösser als die Apple Chips. Nvidia ist also definitiv nicht der grösste Kunde. Und Hisilicon kommt dann auch noch, wo jetzt anscheinend Apple überholt: https://www.digitimes.com/news/a20190829PD201.html
AMD wird vermutlich etwa ähnlich viele Wafer wie Nvidia benötigen. Sobald die neuen Konsolen da sind und es bei den EPYCs noch besser läuft, wird auch AMD definitv grösser als Nividia (zumindest bei Wafer-Stückzahlen). Nvidia ist Ende 2020 also noch max. #4
MiamiNice
2020-01-23, 12:59:56
Warum sollte sich NVIDIA was mit AMD teilen, beide nutzen unterschiedliche Prozesse, 7nm EUV vs. 7nm DUV.
Ist das sicher? Ich finde nur eine 7nm Angabe ohne weitere Bezeichnungen für Ampere.
Aber ist eigentlich auch egal. Das NV seine Chips nicht produziert bekommt, ist imo völlig abwegig.
disap.ed
2020-01-23, 13:13:29
Wenn der dickste Kunde 21% der verfügbaren Produktionsleistung beansprucht bleiben für NV ja noch 29% über, laut Artikel.
Wenn AMD mit 21% der größte Kunde ist, wird nVidia nicht 29% beanspruchen *facepalm*
Bucklew
2020-01-23, 13:15:57
Das habe ich nicht behauptet. Ich fragte dich
Warum fragst du mich nach etwas, was für die Diskussion keinerlei Relevanz hat?
Frag mal bei Apple nach, welche >200 Mio iPhones pro Jahr verkaufen und noch zig Millionen Tablets oben drauf. Nvidia verkauft ca. 40-50 Mio dGPUs pro Jahr. Die meisten GPUs sind in der Grössenördung GP106, GP107, TU116, TU117. Über alle GPUs gesehen, ist die durchschnittliche Die Size bei Nvidia wahrscheinlich ca. 200mm2 und somit nur etwas mehr als 2x grösser als die Apple Chips. Nvidia ist also definitiv nicht der grösste Kunde.
Angesichts der niedrigeren Yields bei NVIDIA aufgrund der größeren Chipgröße, müsste NVIDIA also bereits bei deinen sehr negativ - für NVIDIA - geschätzten Zahlen bereits auf Augenhöhe mit Apple liegen.
Sehe also kein Problem mit meiner These, wenn der Durchschnitt bei NVIDIA gar bei 300mm² läge, würde man deutlich mehr Chipfläche und damit Wafer benötigen, als Apple.
Ist das sicher? Ich finde nur eine 7nm Angabe ohne weitere Bezeichnungen für Ampere.
NVIDIA nutzt kein 7nm DUV, das hat Huang ja mehr als eindeutig gesagt. Würde ja auch keinen Sinn ergeben, jetzt noch auf 7nm DUV umzusteigen, wenn 7nm EUV oder gar 5nm vor der Tür steht.
Aber ist eigentlich auch egal. Das NV seine Chips nicht produziert bekommt, ist imo völlig abwegig.
Für manche User, wie man sieht, leider nicht.
Wenn AMD mit 21% der größte Kunde ist, wird nVidia nicht 29% beanspruchen *facepalm*
Könnten aber mit 21,000001% größter Kunde sein. Das widerspricht sich nirgends.
Alleine dass es keine konkreten Zahlen gibt, sagt einiges aus. Was freue ich mich auf den 3000er Hardlaunch im Frühjahr ;D
Denniss
2020-01-23, 13:22:32
Man stelle sich vor ein langjähriger treuer Kunde wechselt mit einem neuen Prozeß zu Samsung weil er die Wafer dort billiger bekommt.
Dann klappt es aber plötzlich nicht so gut dort und er kommt wieder angekrochen. Inzwischen ist mein eigener neuer Prozeß sehr gut am funktionieren und die Wafer sind auf längere Zeit ausgebucht. Ich werde einen Teufel tun und bestehende Verträge brechen nur um den ehemaligen Freund reinzubekommen, der muß sich wie alle anderen hinten anstellen und auf freie Kapazitäten warten.
MiamiNice
2020-01-23, 13:41:43
Man stelle sich vor ein langjähriger treuer Kunde wechselt mit einem neuen Prozeß zu Samsung weil er die Wafer dort billiger bekommt.
Dann klappt es aber plötzlich nicht so gut dort und er kommt wieder angekrochen. Inzwischen ist mein eigener neuer Prozeß sehr gut am funktionieren und die Wafer sind auf längere Zeit ausgebucht. Ich werde einen Teufel tun und bestehende Verträge brechen nur um den ehemaligen Freund reinzubekommen, der muß sich wie alle anderen hinten anstellen und auf freie Kapazitäten warten.
Dem würde ich sogar zustimmen wenn jemand wie ich auf dem CEO Posten bei TSMC sitzen würde. Da sitzt aber wahrscheinlich jemand der das Glück der Firma emotionslos und nach Gewinn lenkt. Geld stinkt immer gleich, egal von wem.
Bucklew
2020-01-23, 14:08:15
Man stelle sich vor ein langjähriger treuer Kunde wechselt mit einem neuen Prozeß zu Samsung weil er die Wafer dort billiger bekommt.
Hat das der treue Kunde denn getan? Es gab nur Gerüchte und NVIDIA fertigt schon seit Jahren teilweise bei Samsung.
Mangel76
2020-01-23, 14:18:42
Warum fragst du mich nach etwas, was für die Diskussion keinerlei Relevanz hat?
Ähm ich habe dich nach den Belegen für DEINE Behauptungen gefragt. Schön das du zugibst, dass die keine Relevanz haben ;D
Bucklew
2020-01-23, 14:20:51
Ähm ich habe dich nach den Belegen für DEINE Behauptungen gefragt.
Meine Behauptung: NVIDIA ist kein kleiner Kunde bei TSMC und erhältlich natürlich genug Wafer, wenn Sie einen Chip fertig haben.
Was willst du da an Belegen?
maximus_hertus
2020-01-23, 14:21:18
Dem würde ich sogar zustimmen wenn jemand wie ich auf dem CEO Posten bei TSMC sitzen würde. Da sitzt aber wahrscheinlich jemand der das Glück der Firma emotionslos und nach Gewinn lenkt. Geld stinkt immer gleich, egal von wem.
Und das könnte halt das Argument sein, warum nV bis auf weiteres schlechtere Konditionen bekommt. Es gibt mit AMD (CPU, APU, GPU, Chipsatz) sowie weiteren Playern genug Abnehmer. Die Verhandlungsposition von nV hat sich verschlechtert.
Das bedeutet NICHT, dass nV keine KApazitäten bekommt oder es massive Lieferschwierigkeiten geben wird. Es könnte nur bedeuten, dass nV evtl. etwas schlechtere Konditionen erhält und dadurch die Marge sinkt. Das wiederum geht gar nicht, ergo könnte das auf nochmals teurere Karten hinauslaufen.
Siehe Apple. Weniger iPhones verkaufen, trotzdem mehr Gewinn / Marge.
Bucklew
2020-01-23, 14:23:27
Das bedeutet NICHT, dass nV keine KApazitäten bekommt oder es massive Lieferschwierigkeiten geben wird.
Das behaupten hier aber Leute und dem widersprechen wir.
Steigende Preise bei TSMC gelten dann übrigens auch für AMD :eek:
maximus_hertus
2020-01-23, 14:40:32
Steigende Preise bei TSMC gelten dann übrigens auch für AMD :eek:
Logisch, Angebot und Nachfrage, wobei AMD was KApazitäten angeht, einen gigantischen Sprung gemacht hat und dadurch von "Massen-Rabatten" profitieren könnte, so dass es relativ günstiger geweorden ist.
Jedoch ist selbst das nicht wirklich belegbar bzw. durch 7nm vs vorher (vor Zen2) 14/16nm ist ein Preisvergleich eh nicht machbar.
Ich denke man kann sich darauf einigen, dass sich das MArktumfeld was Fertigung angeht nicht unbedingt in nVs Richtung verändert hat. Was das am Ende für die KArten und deren Preise bzw. Verfügbarkeit zu bedeuten hat, wird man sehen müssen.
Ich bin jedoch ziemlich sicher, dass es wie immer läuft. nV wird (wie auch AMD) wie immer in letzter Zeit einen Paperlaunch durchziehen bzw. per Salamitaktik Stück für Stück "revealen". Aber ab VK-Start wird jeder der unbedingt eine KArte will auch eine bekommen. Ob man mit dem aufgerufenen Preis einverstanden sein wird ist dann eine komplett andere Frage.
Leonidas
2020-01-23, 14:40:44
Ich werde einen Teufel tun und bestehende Verträge brechen nur um den ehemaligen Freund reinzubekommen, der muß sich wie alle anderen hinten anstellen und auf freie Kapazitäten warten.
Bestehende Verträge bricht man sicherlich nicht. Aber es wird auch in einem solchen Fall einen Kompromiß geben - man will den ehemaligen Freund schließlich nicht gleich wieder einen vor den Latz geben, so dass er bei der allerbesten nächsten Gelegenheit wieder geht. Allein das man sich hinten anstellen muß, wäre da schon (warnende) "Bestrafung" genug.
Aber alles nur Spekulatius.
Bucklew
2020-01-23, 14:45:28
Logisch, Angebot und Nachfrage, wobei AMD was KApazitäten angeht, einen gigantischen Sprung gemacht hat und dadurch von "Massen-Rabatten" profitieren könnte, so dass es relativ günstiger geweorden ist.
Interessant, dass es die jetzt erst gibt und nicht als NVIDIA noch viele Wafer abgenommen hat.... :eek:
nV wird (wie auch AMD) wie immer in letzter Zeit einen Paperlaunch durchziehen bzw. per Salamitaktik Stück für Stück "revealen".
What? Die letzten Launches von NVIDIA waren immer Hardlaunch, speziell Pascal.
MiamiNice
2020-01-23, 15:19:15
Ich denke man kann sich darauf einigen, dass sich das MArktumfeld was Fertigung angeht nicht unbedingt in nVs Richtung verändert hat. Was das am Ende für die KArten und deren Preise bzw. Verfügbarkeit zu bedeuten hat, wird man sehen müssen.
Warum hat es sich nicht positiv für NV entwickelt?
Also jetzt für mein Empfinden: NV bekommt die Chips in 7nm produziert, also gut. NV muss vielleicht bissel was mehr springen lassen -> fangen die Kunden auf. Kapazitäten sind bei TSMC mehr als frei um einen 2. Kunden in der Größe von AMD beliefern zu können. Sieht ergo nicht nach langen Wartezeiten aus.
Wo ist NVs Problem?
Meinst Du die Kunden machen keine weitere Preiserhöhung mit? Bedenke wir sprechen über Nvidias Kunden und nicht über P/L AMD Boys.
|MatMan|
2020-01-23, 15:24:37
Bei so einer extrem wichtigen Entscheidung wie dem Fertiger für die nächste Generation wird mit Sicherheit nichts dem Zufall überlassen und garantiert sehr viel weniger emotional entschieden wie das einige Fans hier tun. Ich kann man nicht vorstellen, dass man so etwas auf gut Glück entscheiden (z.B. "Samsung wird das schon hinbekommen"). Man fertig und evaluiert da sicher Testchips, wahrscheinlich bei beiden Fertigern. Das Design muss ja auch an den Prozess angepasst werden. Das läuft also schon lange im Voraus.
Natürlich kann da immernoch etwas schief gehen, im einfachsten Fall nur eine Verzögerung, dann gäbe es sicherlich irgendwelche Strafzahlungen. Einen später plötzlicher Fertigerwechsel (wodurch dann ggf. keine Kapazität verfügbar wäre) ist eigentlich auszuschließen, das wäre ein Super-GAU. Sowas darf heutzutage nicht mehr passieren.
basix
2020-01-23, 15:47:30
Angesichts der niedrigeren Yields bei NVIDIA aufgrund der größeren Chipgröße, müsste NVIDIA also bereits bei deinen sehr negativ - für NVIDIA - geschätzten Zahlen bereits auf Augenhöhe mit Apple liegen.
Sehe also kein Problem mit meiner These, wenn der Durchschnitt bei NVIDIA gar bei 300mm² läge, würde man deutlich mehr Chipfläche und damit Wafer benötigen, als Apple.
Du versuchst hier mit aller Kraft, deine eigenen Vorstellungen als wahr durchzudrücken. Selbst mit 300mm2 ist der Yield in 12nm >75% wenn man 7nm Yields annimmt. Bei 12nm und geringerer Defect Density wird es eher >80% sein (zum nachrechnen siehe https://caly-technologies.com/die-yield-calculator/)
Ein A13 Bionic eines iPhones benötigt 100mm2. Selbst wenn Apple 100% Yield bei 100mm2 Chips hätte und Nvidia 50 Mio 300mm2 Chips bei 75% Yield herstellt und keine Salvage Chips verwertet, benötigt Apple immer noch mehr Wafer. Ein GP107 wird zudem bei Samsung gefertigt (für Notebooks immer noch in guten Stückzahlen).
Und wenn du jetzt damit kommst, dass die 50 Mio Chips zu wenig sind: Du kannst es auch selbst ausrechnen: ca. 261 Mio PCs wurden 2019 verkauft mit Nvidia GPU-Marktanteil von 17%. Das gibt 44 Mio Stück. Die paar HPC Chips kannst du bezüglich Stückzahlen vernachlässigen.
Wenn du also deine Behauptungen hier glaubhaft rüberbringen willst, dann untermauere sie mit Fakten ;)
Bucklew
2020-01-23, 15:48:58
Du versuchst hier mit aller Kraft, deine eigenen Vorstellungen als wahr durchzudrücken. Selbst mit 300mm2 ist der Yield in 12nm [...Rest logischerweise Bullshit]
Es geht nicht um die Yield in 12nm. Verstehe vielleicht erstmal den Kontext, bevor du irgendwelchen Blödsinn antwortest.
MiamiNice
2020-01-23, 15:49:01
Und wenn du jetzt damit kommst, dass die 50 Mio Chips zu wenig sind: Du kannst es auch selbst ausrechnen: ca. 261 Mio PCs wurden 2019 verkauft mit Nvidia GPU-Marktanteil von 17%. Das gibt 44 Mio Stück.
Fehlen da nicht die Leute die selber aufrüsten, also der DIY Markt?
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.