Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)
Loeschzwerg
2018-08-23, 09:54:49
Ampére 7nm HPC 2019 wäre jetzt meine Spekulation, sollte es denn noch ein Lebenszeichen geben...
Vielleicht ist die allgemeine Nähe und Reife der 7nm Fertigung auch der Hauptgrund für die ganze Verwirrung gewesen und Turing wird eine recht kurze Halbwertszeit haben?
Hübie
2018-08-23, 09:58:14
Wenn ich rätseln müsste, würde ich darauf tippen, dass die nächste Titan kein Turing sein wird. Aber dafür auch erst Ende 2019 / Anfang 2020 erscheinen wird. Frühling 2020 dann das restliche lineup. Aber ob jetzt wirklich Ampére drauf steht?
Thunder99
2018-08-23, 10:08:29
Ampere ist der Nachfolger von Volta denke ich. Wenn 7nm Reif ist kommt der Chip. Titan A ist dann nicht weit für 2000-4000€.
Vielleicht ist die allgemeine Nähe und Reife der 7nm Fertigung auch der Hauptgrund für die ganze Verwirrung gewesen und Turing wird eine recht kurze Halbwertszeit haben?
Nein, da es so aussieht, als würde die ganze Serie in 12nm kommen. Da kannst auf jeden Fall bis 2020 mit warten.
Ampere ist der Nachfolger von Volta denke ich. Wenn 7nm Reif ist kommt der Chip. Titan A ist dann nicht weit für 2000-4000€.
Sehr wahrscheinlich. Das Teil wird direkt Q1 2019 kommen mMn.
Hübie
2018-08-23, 12:15:48
Merkwürdig oder eigenartig ist eigentlich nur, dass es keinerlei hints gibt. Nichts. Oder habe ich was verpasst?
Morgenlicht
2019-10-09, 17:11:11
Seit über einem Jahr ist hier Funkstille. Beim Gedankenspiel, daß Ampere in 7nm kommen wird, dazu scheint's zu bleiben, nur das mögliche Erscheinungsjahr wechselt von 2019 auf 2020 :D
gnomi
2019-10-11, 07:09:36
Wenn die GPU's überhaupt schon Sommer bis Herbst 2020 kommen.
Die Leistungswerte kennt man prinzipiell bereits.
Eine 3080 wird minimal schneller als eine 2080TI.
Eine 3080 TI wird nochmals Minimum 30% schneller.
Speicher wird maximal verdoppelt.
Die großen Fragezeichen sind Preis.
Noch heftiger oder einigermaßen okay?
Das wird von der Konkurrenz und den Verkäufen der Super Karten abhängen.
Entscheidend ist auch, ob Produktionskosten gesenkt werden können?
Zudem ist eine weitere Frage, wie sich RTX entwickelt und inwieweit die Chips hier denn noch schneller werden?
Das kann auch sehr viel beeinflussen.
Bekomme ich eine extrem bessere Grafik als auf den dann neuen Konsolen, und nehmen die Karten den WOW Effekt wie Crysis 3 2013 locker vorweg?
Gibt es auch endlich bessere Monitore, die nicht gegenüber der OLED Technologie beim Panel und Spielen vom Bild her dermaßen chancenlos sind?
Wieso sollte man sonst noch solche Chips zu solchen Preisen kaufen? :wink:
gravitationsfeld
2019-10-11, 07:17:37
chipgröße ist kein wirklicher indikator mehr, da ist selbst die 1080Ti nur mittelklasse. in den letzten generationen sind die strukturen immer feiner geworden, die kosten pro transistor aber nicht wirklich gesunken daher gibt es "echte" high-end-chips im gaming-markt überhaupt nicht mehr - von der Titan V mal abgesehen.
Wuerde ich nicht so sehen. Fast 500 Quadratmillimeter ist ne Menge. Turing TU104 ist einfach absurd riesig.
Bucklew
2019-10-11, 10:01:42
Seit über einem Jahr ist hier Funkstille.
NVIDIAs Geheimhaltung ist seit Pascal wirklich exzellent.
Und wie sie über AMD im Vorfeld Bescheid wissen auch. ;)
AffenJack
2019-10-11, 11:07:28
Seit über einem Jahr ist hier Funkstille. Beim Gedankenspiel, daß Ampere in 7nm kommen wird, dazu scheint's zu bleiben, nur das mögliche Erscheinungsjahr wechselt von 2019 auf 2020 :D
Ist auch noch zu früh, um was zu wissen. Bei Turing gabs die ersten Spekulationen (Außer dem Namen) im April und Launch 5 Monate später im September. Ampere sollte irgendwann spätes Q2 kommen, da wird man erst nach Jahresanfang langsam mal was hören.
Bucklew
2019-10-11, 11:49:18
Ampere sollte irgendwann spätes Q2 kommen, da wird man erst nach Jahresanfang langsam mal was hören.
GTC, GTC, GTC :D
AffenJack
2019-10-11, 13:23:07
GTC, GTC, GTC :D
Da dürfte der HPC Chip vorgestellt werden, ja. Bei dem Ding sollte es ja nur vom EUV Prozess abhängig sein, wann der Release ist. Aber mittlerweile weiß man ja nicht mehr, wieviel die Gamingchips gemeinsam haben werden. Wird nur interessant den generellen Sprung von Volta zu sehen, da man sich dann ähnliches für Gaming erhoffen kann.
Bucklew
2019-10-11, 13:54:11
Aber mittlerweile weiß man ja nicht mehr, wieviel die Gamingchips gemeinsam haben werden.
Die Gamingchips erben die generellen Verbesserungen der HPC-Chips.
Siehe die Perf/Watt Verbesserung bei Shader-Berechnungen in Volta, die es so ja auch zu Turing geschafft hat.
Dural
2019-10-17, 11:24:34
Ja ist sehr ruhig, verdächtig ruhig.
mboeller
2019-10-17, 11:27:51
Ja ist sehr ruhig, verdächtig ruhig.
wieso? Ist Nvidia pleite?
w0mbat
2019-10-17, 11:51:59
Naja, so lange sind die "SUPER"-Karten noch nicht am Markt, Nvidia wäre schön blöd wenn sie jetzt schon die neuen Karten spoilern würden. Ich denke der Faden-Titel hier passt schon, Q2-Q3 2020 wird Nvidia ihre next-gen 7nm Karten bringen, also die RTX 3000 Serie. Ist noch ne Weile hin, ich rechne erst Anfang nächsten Jahres mit Neuigkeiten.
Linmoum
2019-10-17, 11:56:09
Was soll es jetzt auch schon geben? 7nm EUV dauert halt noch, solange muss auch Nvidia noch warten.
Leonidas
2019-10-17, 12:00:49
Richtig, die warten alle auf 7nm EUV. Und das muß dann erstmal massenmarkttauglich große PC-Chips schaffen - ist eine andere Hausnummer als popelige Smartphone-SoCs mit 100mm².
mboeller
2019-10-17, 13:05:00
TSMC hat im Frühjahr 2017 mit der 7nm Massenfertigung gestartet (Ende April 2018):
https://www.anandtech.com/show/12677/tsmc-kicks-off-volume-production-of-7nm-chips
Samsung im Oktober 2018:
https://www.anandtech.com/show/13496/samsung-starts-mass-production-of-chips-using-its-7nm-euv-process-tech
da wären also nur 6 Monate dazwischen. Trotzdem gibt es sehr viel mehr 7nm Chips von TSMC als von Samsung (ich kenne nur den Note10 SoC)
Aber vielleicht hat auch Samsung nur ein wenig viel Marketing gemacht und das hier stimmt eher (Termin Juni 2019):
http://www.businesskorea.co.kr/news/articleView.html?idxno=30792
Damit wäre Samsung ca. 15 Monate später dran als TSMC.
AMD hat die erste 7nm GPU im Januar 2019 verkauft (Vorstellung AFAIR Nov 2018), also ca. 9 Monate nach dem Start der Massenproduktion und die 5700er kamen ca. 15 Monate nach dem Start der Massenfertigung bei TSMC auf den Markt.
Ich bin also schon gespannt, wann Nvidia wirklich die ersten Consumer GPU mit Samsungs 7nm EUV Prozess verkauft/verkaufen kann.
Richtig, die warten alle auf 7nm EUV. Und das muß dann erstmal massenmarkttauglich große PC-Chips schaffen - ist eine andere Hausnummer als popelige Smartphone-SoCs mit 100mm².
Wobei das letztes Jahr auch geklappt hat bei AMD, da war es sicher deutlich schwieriger. NV ist da wieder ne andere Geschichte. Ob die jetzt N7+, N7P oder eine Variante davon, N7FFN oder sowas, verwenden werden, ist bislang offen. NV wird aber sicherlich einiges später erscheinen als Navi12.
Linmoum
2019-10-17, 14:08:50
Nein, ist nicht offen. 7nm EUV ist bereits durch den Korea-Chef von Nvidia vor Monaten bestätigt worden für die kommenden GPUs.
During a press conference in Seoul, Nvidia Korea chief Yoo Eung-joon said that its production of advanced GPUs will be conducted by Samsung Electronics with its 7-nanometer extreme ultraviolet process.
“It is meaningful that Samsung Electronics’ 7-nanometer process would be used in manufacturing our next-generation GPU,” said Yoo. “Until recently, Samsung has been working really hard to secure (partners) for foundry cooperation.”
http://www.koreaherald.com/view.php?ud=20190702000692#cb
Daraufhin musste Nvidia ja korrigieren, dass auch TSMC weiterhin kommende GPUs fertigen wird.
Leonidas
2019-10-17, 14:41:24
TSMC hat im Frühjahr 2017 mit der 7nm Massenfertigung gestartet (Ende April 2018):
https://www.anandtech.com/show/12677/tsmc-kicks-off-volume-production-of-7nm-chips
Erste kaufbare PC-Chip im Juli 2019, außerhalb des expliziten Pipecleaner-Produkts "Vega 20". Es bleibt bei diesem 1-Jahres-Delay zwischen offizieller Massenfertigung und der Fertigung großer PC-Chips.
Die Frage ist damit: Für wann haben TSMC & Samsung den Start der Massenfertigung von 7nm EUV bekanntgegeben? Dies führt uns dann im Fall von Ampere weiter ...
Dural
2019-10-17, 19:38:54
Ampere ist der HPC chip, da sollte schon lange ein 7nm produkt da sein, oder wenigstens was gezeigt werden.
Leonidas
2019-10-18, 03:17:29
Eigentlich ja .. verwundert mich, das diesbezüglich immer noch nichts leakt. So was kann man lange vor einer Massenfertigung realisieren.
horn 12
2019-10-20, 19:08:47
https://www.reddit.com/r/nvidia/comments/dkaej5/ampere_first_back_channel_whispers/
Weihnachten Neue NV Karten als Ablöse der TI
Ghost1nTh3GPU
2019-10-20, 19:18:28
Wenn die Partner jetzt mit dem Design anfangen, dann wohl frühestens ein Paperlaunch auf der CES.
Mortalvision
2019-10-20, 23:45:05
steht doch drin: massiv gesteigertes Raytracing. Dazu bisschen mehr von allem. Die Dickschiffe sollen leicht günstiger werden. Könnte mit weiter abgesenkter Spannung zu tun haben. Das bedeutet weniger hitzeempfindliche VRMs und vermutlich auch besseren Yield. Leider zum Preis eines sinnvollen OCs
gravitationsfeld
2019-10-20, 23:50:36
Da bin ich mal gespannt wie sie das machen wollen mit "massiv gesteigerter RT performance". Schoen falls war, aber ich hab da so meine Zweifel.
Verbesserungen an jeder Front, das hört sich gut an.
Der_Korken
2019-10-21, 00:09:53
Keine Mehrperformance?!
Naja, wo soll die auch herkommen ohne die Preise weiter nach oben zu schrauben? Wenn man TU102 einfach nur shrinken würde, wäre der immer noch ~450mm² groß, wenn man mal die +60% Packdichte von AMD bei 7nm vs 14nm ansetzt. Wenn du jetzt noch mehr Performance haben willst, liegt man schnell jenseits der 500mm².
Nightspider
2019-10-21, 01:58:20
Da steht doch signifikant mehr Leistung, größerer Sprung als zu Turing.
Also mind. 50% mehr Leistung.
Glaub aber nachwievor kaum das die neuen NV Karten vor Sommer 2020 kommen werden.
Am ehesten würde ich noch die mobilen Chips erwarten, denn die kann man jetzt auch schon in großen Mengen fertigen, bei so kleinen Chipflächen.
Zumal der mobile Bereich mit Turing sehr stiefmütterlich behandelt wurde, imho.
Leonidas
2019-10-21, 04:45:41
https://www.reddit.com/r/nvidia/comments/dkaej5/ampere_first_back_channel_whispers/
Weihnachten Neue NV Karten als Ablöse der TI
Das ist nun wieder das unwahrscheinlichste von allen. Normalerweise sollte zuerst die HPC-Ankündigung kommen, danach erst das Gaming-Gerassel. Andererseits sind die Infos zu detailliert, um jene gänzlich als "Nonsens" zu betrachten.
Linmoum
2019-10-21, 08:20:05
Es gab schon etliche solcher Leaks auf reddit, die detailliert(er) waren und sich am Ende dann als heiße Luft herausgestellt haben. Auf sowas würde ich jetzt nun wirklich nichts geben. ;)
AffenJack
2019-10-21, 10:36:48
Es gab schon etliche solcher Leaks auf reddit, die detailliert(er) waren und sich am Ende dann als heiße Luft herausgestellt haben. Auf sowas würde ich jetzt nun wirklich nichts geben. ;)
Ich hab da auch arge Zweifel, vor allem mit dem Einleitungssatz, dass Partner diesen Monat noch Boards kriegen. Dann wäre der Launch in ~3 Monaten (So an Igors Timelines gedacht) und dafür ist es insgesamt in der Gerüchteküche einfach noch zu ruhig.
w0mbat
2019-10-21, 10:51:19
Was stand denn da?
Leonidas
2019-10-21, 11:08:19
Oops, das ging schnell. Das hier stand da:
https://www.3dcenter.org/news/geruechtekueche-nvidias-ampere-generation-vorbereitung-schon-fuer-ende-2019
Ich hab da auch arge Zweifel, vor allem mit dem Einleitungssatz, dass Partner diesen Monat noch Boards kriegen. Dann wäre der Launch in ~3 Monaten (So an Igors Timelines gedacht) und dafür ist es insgesamt in der Gerüchteküche einfach noch zu ruhig.
Ist auch mein Hauptproblem.
Da steht doch signifikant mehr Leistung, größerer Sprung als zu Turing.
Also mind. 50% mehr Leistung.
Glaub aber nachwievor kaum das die neuen NV Karten vor Sommer 2020 kommen werden.
Am ehesten würde ich noch die mobilen Chips erwarten, denn die kann man jetzt auch schon in großen Mengen fertigen, bei so kleinen Chipflächen.
Zumal der mobile Bereich mit Turing sehr stiefmütterlich behandelt wurde, imho.
Ja Klar, ach quatsch, 150% mehr Leistung. Natürlich bei 150mm², das darf man dabei ja nicht vergessen. Ach ja, hab ich die 100W TDP vergessen?
Schoss mir eben so spontan durch denk Kopf als ich grad Leos groteske Feiernews gelesen habe :freak:.
Erinnert ein Bisschen an Volta (pure heiße Luft) und Turing (schaut euch mal die Prognosen an).
Und da wart man immer bei AMD vor zu optimistigen Prognosen. Bei NV ist das einfach Tradition.
Leonidas
2019-10-21, 11:15:45
Ich denke nicht, das sich aus meiner "Feiernews" irgendwas in der Nähe von +150% mehr Leistung bei 150mm² und 100W TDP entnehmen läßt.
Im genauen habe ich geschrieben: Erwartbar +50% mehr Shader-Einheiten bei etwas geringerer TDP und 5-10% Mehrtakt. Es kann sich jeder ausrechnen, wohin das grob führt - eine Performance-Verdopplung ist es jedenfalls nicht. Ich habe selbst die Speichererweiterung kleingeredet, in dem ich drauf hinwies, das "Erweiterung" nicht "Verdopplung" bedeuten muß.
Megamember
2019-10-21, 11:53:38
Ich denke nicht, das sich aus meiner "Feiernews" irgendwas in der Nähe von +150% mehr Leistung bei 150mm² und 100W TDP entnehmen läßt.
Die AMD Boys sind halt meist noch sehr jung und können noch nicht so gut lesen.
Timbaloo
2019-10-21, 12:05:37
Ich denke spätestens nach solchen Beiträgen...
Keine Mehrperformance?!
... sollte klar sein, dass es HOT nicht an einer sinnvollen Diskussion um Ampere / Turing-Nachfolger liegt.
Zum "Leak": Irgendwie ist mir das etwas zu generisch. Bzw. nichts was man nicht ohnehin erwartet hätte. Klar werden es mehr Shader, klar wird es mehr Speicher, klar wird es mehr Takt, klar wird man hinsichtlich RT-Performance nachlegen. Das einzig interessante ist der Zeitpunkt, aber ohne zu wissen wie die Fertigungsprozesse gerade aussehen, bzw. welches Risiko NV bereit ist einzugehen, ist das halt auch nur schwer einzuordnen. Imho.
Klevapalis
2019-10-21, 12:21:46
Ja Klar, ach quatsch, 150% mehr Leistung. Natürlich bei 150mm², das darf man dabei ja nicht vergessen. Ach ja, hab ich die 100W TDP vergessen?
:facepalm:
Ich denke spätestens nach solchen Beiträgen...
... sollte klar sein, dass es HOT nicht an einer sinnvollen Diskussion um Ampere / Turing-Nachfolger liegt.
Das weißt doch jeder, dass es HOT noch nie um einer sinnvollen Diskussion gelegen war. Man schaue sich mal seine Vorhersagen bezüglich Turing/Pascal an. Weiter daneben hat noch maximal Charlie gelegen, der alte NVIDIA-Hater.
Dural
2019-10-21, 13:14:56
Hört sich doch alles so an wie erwartet. Interessant das der beitrag gelöscht wurde.
Wenn die wirklich schon ende Jahr kommen werden sich einige navi käufer sicher ärgern ;)
amdfanuwe
2019-10-21, 13:21:32
werden sich einige navi käufer sicher ärgern ;)
Warum? Nvidia ist nicht für niedrige Preise bekannt.
Wenn die wirklich schon ende Jahr kommen werden sich einige navi käufer sicher ärgern ;)
Erste Chips sollen Ende des Jahres an die Boardhersteller gehen, deswegen ist vor dem Frühjahr nicht damit zu rechnen.
Hugo78
2019-10-21, 13:47:17
+60% mehr ggü. der aktuellen Generation war früher normal beim wechsel full note zu full note. Würde mir auch reichen um meine 1080ti abzulösen, in dem Fall wäre eine 3080ti bei knapp 100% Mehrleistung.
Der_Korken
2019-10-21, 13:50:29
Oops, das ging schnell. Das hier stand da:
https://www.3dcenter.org/news/geruechtekueche-nvidias-ampere-generation-vorbereitung-schon-fuer-ende-2019
Hat wegen der Leistung noch jemand den genauen Wortlaut im Kopf? Ich meine da stand was von "improved rasterizing performance", was man auch rein auf die Verrasterung an sich beziehen könnte. Es steht zwar als Kontrast direkt neben Raytracing, aber im Grunde ist das, was momentan als RT verkauft wird, ein Hybrid, der auch rastert.
AffenJack
2019-10-21, 14:16:36
+60% mehr ggü. der aktuellen Generation war früher normal beim wechsel full note zu full note. Würde mir auch reichen um meine 1080ti abzulösen, in dem Fall wäre eine 3080ti bei knapp 100% Mehrleistung.
60% wirst bestimmt nicht sehen. Solche Sprünge hattest bei Generationen, bei denen die Diesize gleich geblieben ist. Die Turing GPUs sind riesig und die 7nm Gen wird sicher eher im Pascalbereich von der Größe sein, da 7nm teuer ist.
Nehmen wir mal TU102 754 mm²/2 (da bessere Density in den EUV Prozessen im Gegensatz zu DUV, was AMD gerade verwendet) x 1,3 (30% mehr Transistoren) =490 mm². Schon so größer als GP102. Mehr ist kaum vorstellbar am Anfang wegen Yield. Nimm etwas mehr Takt hinzu und paar Architekturoptimierungen, dann könnte man vielleicht auf +40-45% gegenüber Turing kommen im vergleich zu den 30-35% die Turing auf Pascal gebracht hat.
Jegliche Vorstellungen von größeren Leistungsschritten sind in meinen Augen Träumerei.
=Floi=
2019-10-21, 14:22:56
turing ist watt limitiert, nicht in der architektur!
basix
2019-10-21, 15:13:39
turing ist watt limitiert, nicht in der architektur!
Und was hilft uns das konkret? Nichts. Limit ist Limit.
Ich denke auch, dass es evtl. 40-50% werden könnte. Mehr halte ich für ziemlich optimistisch.
Linmoum
2019-10-21, 15:33:24
Hat wegen der Leistung noch jemand den genauen Wortlaut im Kopf? Ich meine da stand was von "improved rasterizing performance", was man auch rein auf die Verrasterung an sich beziehen könnte. Es steht zwar als Kontrast direkt neben Raytracing, aber im Grunde ist das, was momentan als RT verkauft wird, ein Hybrid, der auch rastert.
"Significant raster performance increases (higher than Turing gains)" stand dort.
Davon ab braucht man kein Prophet zu sein um den Leak einordnen zu können. Es ist bereits bekannt, dass Nvidia beim Turing-Nachfolger 7nm EUV nutzen wird. Von den Spekus um Yield-Probleme mal abgesehen (zumindest bei Samsung), ist ein Launch damit innerhalb der nächsten Monate sowieso absurd. Es sei denn, sie handhaben es wie AMD mit Vega20 - also erst HPC und Nachfolger für Volta.
Consumer-GPUs vor der Computex wird mit ziemlicher Sicherheit nicht passieren. Es sei denn, Nvidia hat sich doch (auch) für 7nm DUV entschieden. Dann kann man aber das bisschen auch noch warten und die Vorteile von 7nm EUV direkt mitnehmen.
N0Thing
2019-10-21, 15:43:21
Nehmen wir mal TU102 754 mm²/2 (da bessere Density in den EUV Prozessen im Gegensatz zu DUV, was AMD gerade verwendet) x 1,3 (30% mehr Transistoren) =490 mm². Schon so größer als GP102. Mehr ist kaum vorstellbar am Anfang wegen Yield. Nimm etwas mehr Takt hinzu und paar Architekturoptimierungen, dann könnte man vielleicht auf +40-45% gegenüber Turing kommen im vergleich zu den 30-35% die Turing auf Pascal gebracht hat.
Jegliche Vorstellungen von größeren Leistungsschritten sind in meinen Augen Träumerei.
Diese Einschätzung halte ich auch für plausibel. Spannend ist eigentlich nur der Zeitpunkt, wann die Endkunden-GPUs auf den Markt kommen.
TU102 - 60% (7nm) + Secred Sauce = 500mm²+. Das ist bereits Enthusiast. mit 250W. Garniert mit eben deutlich effektiverem RT, etwas mehr Takt + weitere Architekturverbesserung, macht maximal 30-40% mehr Leistung über alles. Ich lass den Tipp so stehen, mal kann das ja nach Release daran messen. Bin gespannt ;).
Der_Korken
2019-10-21, 15:47:43
Wenn die Dies merklich schrumpfen sollen, finde ich selbst 40% schon schwierig. Im Leak stand was von 100-200Mhz mehr Maximaltakt. Sagen wir mal das Die-Limit setzt Nvidia bei 450mm², damit die Kosten nicht durch die Decke gehen. Das wäre ungefähr das, wo ein geshrinkter TU102 rauskommen würde. Die 2080Ti taktet sehr moderat, um den Verbrauch klein zu halten. Da 7nm deutlich effizienter ist, könnte man den Chip taktmäßig ausfahren, um den Die klein zu halten. Sagen wir mal, sie taktet 25% höher. Die Architekturverbesserungen müssten dann schon allein +12% bringen, um die 40% voll zu machen. Der Verbrauch sinkt auch, aber vielleicht ganz so stark wie theoretisch möglich durch 7nm, weil man eben auf Takt statt auf Effizienz gegangen ist. Ich erinnere hier mal daran, dass V20 allein durch die +25% Takt quasi schon den gesamten Prozessvorteil von 14nm auf 7nm DUV weggefrühstückt hat. Selbst ein TU104 (2080S) verbraucht bereits 250W, wenn man den Takt voll ausfährt. Mit +50% Einheiten und nochmal etwas mehr Takt, kommt man vielleicht von 265W (2080Ti) auf ~230W runter (Shrink). Effizienztechnisch wäre man damit immer noch knapp doppelt so effizient wie AMD, also der alte Abstand zwischen Vega und Turing. Aber der absolute Leistungssprung von +60% wird denke ich sehr schwierig. Sofern Nvidia nicht wieder alle Modelle eine Preisklasse nach oben schiebt.
Dural
2019-10-21, 16:18:32
Glaube nicht das der xx102 nur 450mm2 gross wird. Und überhaupt wird so wie so zuerst ein xx104 kommen, da könnte ich mir in 7nm 350-400mm2 vorstellen.
Edgecrusher86
2019-10-21, 16:43:47
Also die GTC 2020 findet zwischen dem 22.03.-26.03. statt. Cyberpunk 2077 - zusammen mit Doom Eternal (20.03.) erst einmal der wichtigste Titel in dem neuen Jahr betreffend RTX - kommt am 16.04. auf dem Markt. Ein perfekter Bundle-Titel bzw. ein perfektes Doppel-Bundle wie aktuell YB + Control.
Zwei Wochen nach einer Messeankündigung wurde ja schon öfters etwas gelauncht.
Zum HPC Chip wird man dort natürlich auch Infos heraus geben.
Durch den zeitlichen Vorsprung von TSMC könnte man dieses Mal ja zuerst den Desktop-Markt beliefern und im Q3/4 dann HPC mit Samsungs 7nm EUV.
Ja, als Erstes dürfte sicher der 104er erscheinen als 3080 und 3070.
RTX 3080 Spekulatius:
300-400mm²
3584 SP (+16,7% zur 2080S)
~ 1,7-1,8 GHz Base
~ 1,9-2 GHz Boost (2 GHz = + 10% zur 2080S)
16GB 18 Gbps G6 (+16% Bandbreite zur 2080S -> 576GB/s)
~ +10-20% IPC
~ 215W TDP (-16% zur 2080S)
~ $799 MSRP (FE) (-$50 zur 2080)
-----------------------------
RTX 2080 Ti ~ + 10-15%
RTX 2080S ~ + 30-35%
-----------------------------
mit RTX on kommt dann sicherlich nochmals deutlich Mehrleistung hinzu
AMD dürfte sicherlich auch 16GB verbauen im Bereich $600-700 im kommenden Jahr, also sollte NV gut beraten sein, dies ebenfalls zu tun.
Timbaloo
2019-10-21, 17:22:54
Durch den zeitlichen Vorsprung von TSMC könnte man dieses Mal ja zuerst den Desktop-Markt beliefern und im Q3/4 dann HPC mit Samsungs 7nm EUV.
Ist die Aufteilung (Desktop -> TSMC, HPC -> Samsung) so denn spruchreif? Sprich gab es eine Aussage diesbezüglich? Habe das ganze Prozess@NV-Hin-und-Her nicht so verfolgt, deswegen frage ich.
Edgecrusher86
2019-10-21, 17:25:24
Ne, das nicht - war jetzt nur eine Vermutung meinerseits, da NV betonte, man fahre beides. TSMC kann ja definitiv eher liefern als Samsung - ich nehme an, dass ein möglicher Deal mit Samsung auch der Hauptgrund ist, warum NV erst drei Jahre nach Volta den Nachfolger bringt.
AMD dürfte zumindest bis Sommer oder Herbst RDNA2 bringen. Da hätte NV dann mit einem frühen Desktop-Launch schon mal einen Wettbewerbsvorteil.
Timbaloo
2019-10-21, 19:08:16
ich nehme an, dass ein möglicher Deal mit Samsung auch der Hauptgrund ist, warum NV erst drei Jahre nach Volta den Nachfolger bringt.
Ja, das klingt irgendwie stimmig. Ich bin bisher (ohne großartig drüber nachzudenken) eher davon ausgegangen, dass Samsung eher für Consumer und TSMC für HPC gedacht war. Aber später 7nm@Samsung wäre tatsächlich eine Erklärung für einen späten HPC-Chip.
Leonidas
2019-10-21, 19:36:57
Hat wegen der Leistung noch jemand den genauen Wortlaut im Kopf?
Hab das Original der Meldung angefügt:
https://www.3dcenter.org/news/geruechtekueche-nvidias-ampere-generation-vorbereitung-schon-fuer-ende-2019
AffenJack
2019-10-21, 20:39:37
Ne, das nicht - war jetzt nur eine Vermutung meinerseits, da NV betonte, man fahre beides. TSMC kann ja definitiv eher liefern als Samsung
Woher kommt deine Annahme? Sowohl TSMC, als auch Samsung behaupten beide gerade 7nm EUV Chips auszuliefern und in Massenproduktion zu sein. TSMC hatte zwar den 7nm DUV Vorteil, aber ob man mit EUV früher dran ist, weiß man nicht. Als Außenstehender ist das so ziemlich unmöglich zu sagen, wer gerade da im Vorteil ist.
Ich bin sehr sicher, dass der HPC Chip weiterhin von TSMC kommt. Man hat soviel Vertrauen in die und TSMC hat mit V100 ja auch bewiesen, was sie können. Samsung wäre viel zu hohes Risiko dafür. Wenn diesmal mehr Chips von Samsung kommen, dann mehr Consumer.
reaperrr
2019-10-21, 22:03:32
Da bin ich mal gespannt wie sie das machen wollen mit "massiv gesteigerter RT performance". Schoen falls war, aber ich hab da so meine Zweifel.
Ich sehe da in 7nm eigentlich nicht so das Problem. RT-Cores je SM verdoppeln, IPC der RT-Cores etwas verbessern, mehr SM je Preissegment, etwas mehr Takt, schon bist du schnell bei ~dreifacher RT-Leistung.
Das ist nun wieder das unwahrscheinlichste von allen. Normalerweise sollte zuerst die HPC-Ankündigung kommen, danach erst das Gaming-Gerassel.
Das war doch nur bei Volta so, und die Zwischen-Gen gab's mMn nur, weil Pascal in Compute noch nicht so stark war und Turing in der Fläche weniger Rohleistung untergebracht hätte.
Bei Kepler und Pascal kam der HPC-Chip erst nach den Desktop-Chips, ich würde von AMD's 320mm² V20 nicht auf Nvidia's >=500m² HPC-Chip schließen, was den Veröffentlichungszeitpunkt relativ zu den Consumer-Chips angeht.
Da steht doch signifikant mehr Leistung, größerer Sprung als zu Turing.
Raster-Leistung != generelle Gaming-Leistung.
Könnte also einfach nur "mehr GPCs" heißen.
Z.B. 1660-Nachfolger 3 GPCs statt 2, 2070-Nachfolger 4 (oder mehr) statt 3, 2080Ti-Nachfolger 8 statt 6 (2080 hatte mit 6 eigentlich genug für ihr Segment, aber mal abwarten).
Mehr Leistung wird's natürlich trotzdem in jedem Preissegment geben, bloß 50% ist eventuell zu optimistisch.
Ich gehe außerdem davon aus, dass die 3070 wieder auf dem xx4 basieren wird. Spekulation:
GA102 (GA104 * 1,5) - 3080 Ti
GA104 (TU104-Specs + 25% SM) - 3080, 3070
GA106 (entweder halbe GA104- oder volle TU106-Specs, aber mit 192bit-SI) - 3060 (Ti)
GA107 (2/3 von GA106) - 3050 (Ti)
Damit würde man auch zu Pascal-artigen Chipgrößen zurückkehren, vielleicht etwas drüber.
gravitationsfeld
2019-10-21, 23:13:31
Ich sehe da in 7nm eigentlich nicht so das Problem. RT-Cores je SM verdoppeln, IPC der RT-Cores etwas verbessern, mehr SM je Preissegment, etwas mehr Takt, schon bist du schnell bei ~dreifacher RT-Leistung.
Nein. Bist du eben nicht. RT ist oft komplett Speicher-Durchsatz und Speicher-Latenz limitiert weil die Divergenz dir den Cache killt.
Morgenlicht
2019-10-22, 00:02:46
Nein. Bist du eben nicht. RT ist oft komplett Speicher-Durchsatz und Speicher-Latenz limitiert weil die Divergenz dir den Cache killt.Läßt sich der Satz mit dem kompakten Wort Divergenz für nicht ganz so fachlich bewanderte anders formulieren? Mit Speicher-Durchsatz und Speicher-Latenz kann man noch gedanklich mitkommen, aber dann nicht mehr. Der per Suchmachine verlinkte Wiki-Link (https://de.wikipedia.org/wiki/Divergenz_eines_Vektorfeldes) brachte mir kein Verständnis ins verständliche.....
pixeljetstream
2019-10-22, 00:13:11
@Morgenlicht.
Die Threads arbeiten in einer kleinen Gruppe zusammen, bei NV 32, aka Warp. Normalerweise sind Datenzugriffe besonders dann flott wenn sie ähnliche Speicherregionen anfordern. Der schnellste Fall wäre alle gleiche Adresse, oder aber fortlaufend so dass der Warp einen ganzen Block anfordert, oder bei 2d Texturen ähnliche Positionen. Das erhöht die Trefferwahrscheinlichkeit im Cache. Je zufälliger/unterschiedlicher die Adressen der Threads, aber auch aller warps die gerade laufen, desto weniger helfen die Caches. Divergenz ist eben dieser Unterschied entweder innerhalb des warps, oder über die gpu hinweg gesehen. Manchmal meint man damit unterschiedliche Befehlsabfolgen (divergent control flow), oder stark unterschiedliche Zugriffsmuster (divergent memory access).
Raytracing nutzt oft "zufälliges" sampling in unterschiedliche Richtungen und verschärft dadurch das Problem. Jeder Strahl kann was komplett anderes treffen. Es gibt hier aber auch Strategien das abzuschwächen. Ray oder Hit sorting etc.
kunibätt
2019-10-22, 00:29:39
Können die das Problem nicht mit (besserem?) Ray-Bundling entschärfen?
Bei traditionellen GPUs kamen ja auch Schrittweise verbesserte Verfahren zur Reduktion des Overdraws zum Einsatz.
pixeljetstream
2019-10-22, 00:47:30
Können die das Problem nicht mit (besserem?) Ray-Bundling entschärfen?
Bei traditionellen GPUs kamen ja auch Schrittweise verbesserte Verfahren zur Reduktion des Overdraws zum Einsatz.
Es gibt viele Möglichkeiten. Raytracing bei Film & TV ist ja schon ne Weile in, viele Paper etc. Die Frage ist, was klappt besonders gut für Realtime auf GPU im Detail. Da wird halt nun etwas Evolution ins Land gehen, so wie es bei klassischen Raster content halt auch war/ist. Nicht alle Raster Game oder HW engines laufen gleich.
x-force
2019-10-22, 01:51:22
https://www.reddit.com/r/nvidia/comments/dkaej5/ampere_first_back_channel_whispers/
Weihnachten Neue NV Karten als Ablöse der TI
falls es im anderen thread zu den news untergeht, oder euer gedächtnis nicht mehr auf zack ist:
maxwell geht bis 1.281v, daher sind das ziemlich sicher fake news.
Leonidas
2019-10-22, 04:27:59
Raster-Leistung != generelle Gaming-Leistung.
In dem Augenblick meint das Gerücht sicher nicht die eigentliche Raster-Leistung, sondern die gewöhnliche, allgemeine Performance außerhalb von RayTracing. Ergibt sich daran, wie die nachfolgende RayTracing-Aussage formuliert ist. Nebenbei ist es unwahrscheinlich, das irgendjemand wirklich was zur reinen Raster-Leistung sagt, die beachtet heutzutage kaum noch jemand.
dargo
2019-10-22, 08:06:39
Hört sich doch alles so an wie erwartet. Interessant das der beitrag gelöscht wurde.
Wenn die wirklich schon ende Jahr kommen werden sich einige navi käufer sicher ärgern ;)
Du meinst so wie sich alle Turingkäufer ärgern werden?
https://abload.de/img/hu2pk1h.jpg
https://www.youtube.com/watch?v=oej2ev3g-sM
Und das P/L-Verhältnis bei der 2060S ist noch einiges besser als bei den schnelleren Geforces.
falls es im anderen thread zu den news untergeht, oder euer gedächtnis nicht mehr auf zack ist:
maxwell geht bis 1.281v, daher sind das ziemlich sicher fake news.
< 1V, jo ist Fake-News. Realistischerweise müsste man hier auch 1,1 - 1,2V erwarten.
Edgecrusher86
2019-10-22, 10:15:15
Woher kommt deine Annahme? Sowohl TSMC, als auch Samsung behaupten beide gerade 7nm EUV Chips auszuliefern und in Massenproduktion zu sein. TSMC hatte zwar den 7nm DUV Vorteil, aber ob man mit EUV früher dran ist, weiß man nicht. Als Außenstehender ist das so ziemlich unmöglich zu sagen, wer gerade da im Vorteil ist.
Ich dachte mir, dass man für Desktop den DUV-Prozess nutzen könnte. Andererseits ist es ja zum Beispiel bis Mitte April (wovon ich als frühstmöglichen Termin nach der GTC ausgehe) noch mehr als ein halbes Jahr hin - unter Umständen wäre dafür auch EUV spruchreif.
< 1V, jo ist Fake-News. Realistischerweise müsste man hier auch 1,1 - 1,2V erwarten.
Maxwell (Ref) war in Form von 980 SLI von Haus aus bei 1,193V und 1,213V (GTX TITAN X je leicht darunter) , meine 1080 Ti FE läufen mit maximal 1,062V out of the box. Ich würde es nicht für unmöglich halten, wenn man es bei der nächsten Generation schaffen würde, leicht unter 1V zu kommen (Werkszustand); bei Custom Modellen natürlich entsprechend höher.
Wenn der Fokus weiterhin auf der Effizienz liegt, wie die Chefarchitekten vor einiger Zeit in einem Interview andeuteten, dann dürfte man sicherlich bestrebt sein, auch die Spannungen der GPUs möglichst niedrig zu halten.
Spielt man mit etwas UV herum, ist ja auch zum Beispiel mit Pascal einiges möglich -> etwa grob Richtung 1,7 GHz bei 0,8V oder 1,9 GHz bei 0,9V. Die besten Chips schaffen die 2,0 GHz Marke bei unter 1V. Mit Turing verhält es sich ähnlich.
Der Spielraum nach unten dürfte in Zukunft mit Sicherheit nicht schlechter werden.
So ein Quatsch, die nehmen sich doch nicht die Möglichkeit, den Boost vernünftig anzureizen. Es zeigte sich ja bisher auch, dass 7nm nicht mit weniger Spannung betrieben wird, jedenfalls bei TSMC. < 1 V ist einfach Unfug.
Bambuslooter
2019-10-22, 12:09:03
Bei Turing wurde noch erwähnt, dass der neue Virtuallink USB C Anschluss bis zu 30W zieht.
Hier kann man doch bestimmt Verbesserungen erwarten, ohne den wäre die Energiebilanz schon besser gewesen.
Dural
2019-10-22, 12:54:16
1Volt halte ich mit 7nm für sehr realistisch.
y33H@
2019-10-22, 13:14:06
Bei Turing wurde noch erwähnt, dass der neue Virtuallink USB C Anschluss bis zu 30W zieht. Hier kann man doch bestimmt Verbesserungen erwarten, ohne den wäre die Energiebilanz schon besser gewesen.Die 27W werden nur genutzt wenn ein VR-Headset dran hängt.
https://translate.google.at/translate?hl=de&sl=en&u=https://fudzilla.com/news/pc-hardware/49183-is-amd-rome-burning&prev=search
"...TSMC-Spezifikation mit 7 nm für 1,3 V..."
Alles unter diesen 1,3v ist Reserve für die OCler :)
(ka ob 7+nm auch "nur" 1,3v auf Dauer vertragen)
Unterstützt Ampere schon DP 2.0 und HDMI 2.1 ?
(konnte noch nichts konkretes dazu finden)
M.f.G. JVC
AffenJack
2019-10-22, 13:31:35
Ich dachte mir, dass man für Desktop den DUV-Prozess nutzen könnte. Andererseits ist es ja zum Beispiel bis Mitte April (wovon ich als frühstmöglichen Termin nach der GTC ausgehe) noch mehr als ein halbes Jahr hin - unter Umständen wäre dafür auch EUV spruchreif.
Nv wird kein DUV nutzen, hätte man das gewollt, hätte man jetzt schon Produkte gebracht. EUV läuft schon in Massenproduktion und ist der in allen Belangen bessere Prozess.
Hugo78
2019-10-23, 10:46:31
60% wirst bestimmt nicht sehen. Solche Sprünge hattest bei Generationen, bei denen die Diesize gleich geblieben ist. Die Turing GPUs sind riesig und die 7nm Gen wird sicher eher im Pascalbereich von der Größe sein, da 7nm teuer ist.
Nehmen wir mal TU102 754 mm²/2 (da bessere Density in den EUV Prozessen im Gegensatz zu DUV, was AMD gerade verwendet) x 1,3 (30% mehr Transistoren) =490 mm². Schon so größer als GP102. Mehr ist kaum vorstellbar am Anfang wegen Yield. Nimm etwas mehr Takt hinzu und paar Architekturoptimierungen, dann könnte man vielleicht auf +40-45% gegenüber Turing kommen im vergleich zu den 30-35% die Turing auf Pascal gebracht hat.
Jegliche Vorstellungen von größeren Leistungsschritten sind in meinen Augen Träumerei. Wenn aber nicht wenigstens +90% ggü. einer 1080 Ti auf dem Balken stehen, kann Nvidia den Krempel gleich behalten. Und selbst +100% ist bei dem Preis und nach der Zeit, nicht sonderlich sexy.
Timbaloo
2019-10-23, 11:40:27
Wenn aber nicht wenigstens +90% ggü. einer 1080 Ti auf dem Balken stehen, kann Nvidia den Krempel gleich behalten. Und selbst +100% ist bei dem Preis und nach der Zeit, nicht sonderlich sexy.
Mach am besten einen eigenen Thread mit Verlinkung auf der Hauptseite auf. Das Thema, also ab wann du was kaufst, ist ultraspannend.
dargo
2019-10-25, 19:25:51
< 1V, jo ist Fake-News. Realistischerweise müsste man hier auch 1,1 - 1,2V erwarten.
Begründung?
Eine RX 5700 läuft auch unter 1V.
https://www.igorslab.media/amd-radeon-rx-5700-und-rx-5700-xt-im-test-der-raytracing-freie-sargnagel-von-vega-und-fast-2-1-ghz-takt-unter-wasser/11/
Die RX 5700XT tut das nur wegen den höheren Taktraten nicht, einfach schlechteren Betriebspunkt gewählt. Würde diese mit ~1,7Ghz laufen würden auch hier <1V reichen.
=Floi=
2019-10-25, 22:29:28
turing karten haben jetzt schon 1,06volt. Ich sehe unter 1 volt schon realistisch.
BlacKi
2019-10-25, 22:50:58
wenn das powerlimit oder templimit bei den 1080ti karten einsetzt, dann liegen oft ebenfalls unter 1v an.
x-force
2019-10-25, 23:09:07
kontext?
wenn 1,093 bei pascal genannt werden, ist von der maximal vom hersteller zugelassenen spannung die rede.
das heißt nicht mehr und nicht weniger, ihr braucht da keinen bullshit zu konstruieren ;)
BlacKi
2019-10-26, 00:52:37
1.093 ist wirklich BS
ich kenne den orignalpost ja nicht...
x-force
2019-10-26, 00:58:16
ja sry, es sind 1.094 bei pascal :P
edit: laut hwinfo... die quelle nannte 1.093, wenn leo nicht falsch abgeschrieben hat
falls ihr nicht versteht was die eigentliche kritik ist:
es geht nicht darum, daß ampere wahrscheinlich weniger als 1v nutzen wird, sondern darum, dass die quelle in der angabe der spannungen zu maxwell daneben liegt und nur bei pascal korrekt ist.
das entwertet imo die infos in gänze.
wer weiß wovon er redet, dem passiert das nicht ;)
AffenJack
2019-11-08, 10:19:36
Will mal die News von Wccftech aufgreifen:
https://wccftech.com/nvidia-geforce-rtx-2080-ti-super-q1-2020-launch-rumor/
Wccftech bezieht sich auf einen Twitteruser, der seine Posts in Bezug auf Ampere mittlerweile gelöscht hat, nach der News. Aber seine Posts zu Turing zeigen, dass er definitiv Quellen hat, denn seine geposteten Infos waren richtig und deutlich früher als zb Videocardz, die das meiste geleakt haben. Die ganze Superlinie hat er früher, als alle Onlinemedien geleakt.
Zb., wenn auch mit falschen Namen am 11 Juni:
1650Ti is based on TU116-250, 1280SP, 128bit GD6.
Letzter Post war, dass in Q1 2020 wahrscheinlich eine 2080Ti kommen soll.
Ich versuche mal seine gelöschen Posts zu Ampere zu rekapitulieren:
Da hatte er geposted, dass HPC Ampere aus 2 Chips besteht:
GA100 mit 6 HBM Stacks, 6072Bit, doppelte Anzahl Tensor Cores pro SM.
GA101 mit 3 HBM Stacks, halber GA100, wurde laut ihm gecancelt.
Die weiteren Infos hatte er als nicht sicher markiert, aber ich poste es trotzdem mal zur Diskussion:
GA100 8GPCx8TPC= 8192 Shader
GA101 und GA101 bei TSMC mit EUV
Gaming waren glaube 5 Chips komplett bei Samsung mit EUV laut ihm, aber auch unsicher.
Nun weiß man bei Samsung wirklich nicht, wie es so um deren EUV Prozess wirklich steht. Aber nachdem David Schor neulich geposted hatte, dass 1 Hauptkunde jetzt Samsung den Rücken kehrt (Kann nur Nvidia oder QC sein, sonst gibts da keine großen mehr, tippe auf QC) hört sich das alles nicht gut an. Ne 2080 TI Super in Q1 würde auf jeden Fall auf ne Verschiebung von Ampere deuten und ich schätze, dass dies an Samsungs Prozess liegen könnte.
Ach und zum Schluß noch, der Ampere Nachfolger soll "Hopper" heißen laut ihm und wird nicht mehr monolithisch im HPC Bereich.
sulak
2019-11-08, 20:51:43
60% wirst bestimmt nicht sehen. Solche Sprünge hattest bei Generationen, bei denen die Diesize gleich geblieben ist. Die Turing GPUs sind riesig und die 7nm Gen wird sicher eher im Pascalbereich von der Größe sein, da 7nm teuer ist.
Nehmen wir mal TU102 754 mm²/2 (da bessere Density in den EUV Prozessen im Gegensatz zu DUV, was AMD gerade verwendet) x 1,3 (30% mehr Transistoren) =490 mm². Schon so größer als GP102. Mehr ist kaum vorstellbar am Anfang wegen Yield. Nimm etwas mehr Takt hinzu und paar Architekturoptimierungen, dann könnte man vielleicht auf +40-45% gegenüber Turing kommen im vergleich zu den 30-35% die Turing auf Pascal gebracht hat.
Jegliche Vorstellungen von größeren Leistungsschritten sind in meinen Augen Träumerei.
Möchte das nochmal aufgreifen, da ich auf dieses Video gestoßen bin:
5VilkryKVUY
Ist jetzt nicht hoch intellektuell, zeigt aber sehr gut über Preispunkt, die GTX1080Ti ist eine Ausnahme.
Die gesamte RTX-Serie ist daher für mich auch ein Reinfall, weil auf Perfomance Seite nicht genug Dampf in allen! Preisregionen rumkommt und RTX als Feature keine echte Marktdurchdringung erlangt hat. Grade die RTX2060 mit 6GB war/ist der blanke Hohn. Und die Karte sitzt im richtigen Preissegment.
Enthusiast kann RTX als Feature gerne kaufen, aber der Mainstream kauft sich das doch nicht wegen 5-6 Spielen. Wäre es universeller oder einfacher einzucoden (per DX12 RT) könnte man es durchgehen lassen.
Aber es sind keine Blockbuster mit im Boot und zukunftstauglich sind die 300-500€ RTX Karten sicher nicht sein, da schon hart abgespeckt wurde.
Schade das "diese" Gen eher Rotz ist, kann man auslassen und sich sparen (nicht jeder gibt +500€ für die GPU aus, auch wenn das gerne von der Werbung suggeriert wird).
Big Ampere ist doch sicher wieder für irgend ein Super-Cluster vorgesehen, aber der nächste Brocken, glaub Perlmutter für das US Energieministerium, kommt 1Halbjahr 2020, hat noch keine Erwähnung der Ampere GPUs gesehen...
robbitop
2019-11-08, 22:05:03
Sehe ich als 1080ti Besitzer auch so. 600€ für die Karte in 2017 und 1200€ für die 2080ti in 2018. Für 30% mehr Leistung? Meh. Ich warte auch auf big Ampere.
x-force
2019-11-08, 22:39:55
äpfel und birnen? non release vs release, custom vs founders?
ich sehe bisher nur cherrypicking
ich nehme an, daß du einen link zur geizhals preisentwicklung setzen kannst, der mir eine 1080ti für 600€ im jahr 2017 zeigt?
zum thema 30% performance von 1080ti -> 2080ti
rdr2 pcgh test in 1080p
1080ti:50fps
2080ti:75fps
-> +50%
du redest dir deine kirsche echt schön, lustig anzusehen/lesen :)
Ravenhearth
2019-11-08, 22:47:20
Ich hoffe, dass es nächstes Jahr dann auch mehr Spiele mit RT-Unterstützung gibt. Wie viele Spiele gibt es aktuell? Fünf? Also BF V, SotTR, Metro, Control und CoD:MW? Quake II klammer ich mal aus, das ist ja alt und hat eher den Charakter einer Techdemo. Es gibt also mehr RTX-Karten als Spiele :freak:
Und ich hoffe, dass die Spiele das dann auch zum Release unterstützen und nicht erst Monate später, wie SotTR. Wolfenstein Youngblood ist jetzt auch fast 4 Monate draußen und und vom versprochenen RTX-Support keine Spur.
Höhnangst
2019-11-08, 23:49:12
Wolfenstein Youngblood ist jetzt auch fast 4 Monate draußen und und vom versprochenen RTX-Support keine Spur.
Ich denke, das Spiel ist gefloppt und würde mich wundern, wenn da noch viele Entwicklungsressourcen für überhaupt irgendwas reinfließen.
Ansonsten bleibt zu sagen, dass RT erst mit der nächsten Konsolengeneration richtig Fahrt aufnehmen wird. Ich spekuliere mal, dass wir inkl. der bereits vorhandenen Titel maximal ein Dutzend Spiele bis PS5 und Xbox Next mit RT bekommen werden. Ich glaube aber auch, dass sich die Anzahl der unterstützenden Spiele ab 2021/22 deutlich erhöhen wird. Es wird darauf hinauslaufen, dass nVidias 4000er und 5000er Serie (und die entsprechenden AMD-Counterparts) genau in dieses Fenster fallen werden und RT damit wirklich durchgängig nutzbar sein wird.
Damit meine ich konkret UHD @ 60 fps mit RT. Aber das sind halt auch noch 2-3 Jahre hin.
robbitop
2019-11-09, 08:05:32
äpfel und birnen? non release vs release, custom vs founders?
ich sehe bisher nur cherrypicking
ich nehme an, daß du einen link zur geizhals preisentwicklung setzen kannst, der mir eine 1080ti für 600€ im jahr 2017 zeigt?
zum thema 30% performance von 1080ti -> 2080ti
rdr2 pcgh test in 1080p
1080ti:50fps
2080ti:75fps
-> +50%
du redest dir deine kirsche echt schön, lustig anzusehen/lesen :)
IMO: Du musst wirklich mal an deinem Ton arbeiten. Das ließt sich bei dir immer sehr schnell flapsig und respektlos. Und das völlig grundlos (denn niemand hat diesen Ton dir ggü angeschlagen). [äpfel/birnen, cherrypickijg, kirsche, das findest du lustig... IMO ist das von oben herab]
Zum Thema: Ich hab meine Karte 2017 zu dem Preis gekauft. Mag sein, dass es eine besonders gute Rabattaktion war. Ich hab mir die Performance zum Release der 2080 ti angeschaut. Da waren es iirc 30%. Dass ein ganz neues Spiel (was iirc jetzt noch nicht mal released ist) da auf einen anderen Wert kommt, mag sein. Ggf bekommt Turing die Optimierungen ja auch zu erst. Für mich zählt da eher der Mittelwert aus vielen Spielen. Nicht eines einzelnes. Wäre hier übrigens auch eine „Kirsche“.
Und selbst wenn man das alles zusammenzieht, schafft TU102 mit Ach und Krach das P/L seines Vorgängers. Das empfinde ich unschön. Mir geht es gar nicht um ganz konkrete Zahlen sondern mein Punkt ist folgender:
Ein Upgrade muss IMO ein besseres P/L haben als sein Vorgänger. Erinnere dich, dass das Jahrzehnte lang so war. Ich würde auch eine GPU für 2000€ ohne mit der Wimper zu zucken kaufen, wenn das P/L mich entsprechend umhaut. Kein Thema.
Ich bin mir auch ziemlich sicher, dass das im High End wieder besser wird, sobald es da wieder Wettbewerb gibt. Bis zum 400€ Preispunkt ist der gegeben und zack stimmt da auch bei beiden IHVs das P/L. Deswegen finde ich Wettbewerb klasse.
@robbitop. Ich halte sogar deine +30%fps für TU als zu großzügig.
Im Schnitt über alte sowie neue Spiele betrachtet und die "Unfairness FE vs FE" berücksichtigt,
Sind es eher ~+15-25% (je nachdem wie gut das eigene 10ner Modell ist)
Aber klar, wenn man sucht wird man immer einzelne Tests/Spiele mit mehr als +50% finden...
M.f.G. JVC
Lehdro
2019-11-09, 11:19:21
zum thema 30% performance von 1080ti -> 2080ti
rdr2 pcgh test in 1080p
1080ti:50fps
2080ti:75fps
-> +50%
du redest dir deine kirsche echt schön, lustig anzusehen/lesen :)
Wer hier wohl Rosinen pickt, bist wohl du. Nehmen wir das mal auseinander:
PCGH:
Im Leistungsindex genau 30%, unter 4k +35%. (https://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Tests/Review-1265133/)
CB:
Non OC 1080 TI FE vs 2080 TI FE: "+35% in 4k & 5k"
OC 1080 TI FE vs 2080 TI FE OC: "+37% in 4k" +"+39% in 5k" (https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/3/#abschnitt_benchmarks_in_1920__1080_und_2560__1440)
Anandtech:
Unter 4k zwischen +32% und +37% (https://www.anandtech.com/show/13346/the-nvidia-geforce-rtx-2080-ti-and-2080-founders-edition-review/17)
Techspot:
In 4k +30% in 35(!) Games. (https://www.techspot.com/article/1702-geforce-rtx-2080-mega-benchmark/page5.html)
Gamers Nexus:
"+30%" (https://www.youtube.com/watch?v=PpDG13PrNPg)
3DCenter 4k Launch Analyse:
+34,8% (https://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-rtx-2080-2080-ti/launch-analyse-rtx-2080-2080-ti-seite3)
Und das ist alles nur unter 4k, also best Case...
Also sind 30%+ wohl sehr wohl viel realistischer als deine 50%, vorallem wenn man bedenkt wie schlecht eine 1080 Ti FE eigentlich ist, im Vergleich zu einer 2080 Ti FE.
Troyan
2019-11-09, 11:35:15
"Best Case"? "Best Case" ist mit Raytracing und dort sind es auch mal 3x soviel Leistung: https://pclab.pl/art82294-5.html
Und wenn man betrachtet, dass ein RDR2 auf einer 2080TI nicht besser läuft als CoD:MW und Control mit Raytracing, dann muss man auch nicht mehr über den "Sinn" von RT reden.
pixeljetstream
2019-11-09, 13:51:49
wieso immer die gleichen Streitereien, robbitops Aussage lässt sich leicht verifzieren, dass das P/L beim 3dcenter 4k index ziemlich gleich blieb von 1080 TI auf 2080 TI während 980 TI auf 1080 TI ein deutliches Plus war.
Wobei die Karte damals auch keine Konkurrenz hatte, die R7 mit ähnlicher Leistung kam fast zwei Jahre später, also Wettbewerb ist nicht der einzige Faktor ;) Waren halt bessere Umstände bei Pascal. Deswegen bleibt Turing als Architektur und aus technischer Sicht dennoch der wichtigere Sprung, jetzt wo fast alle neuen features auch in DX demnächst kommen, sieht man ja wo die Reise für die Industrie als ganzes hin geht, auch wenn eben nur handvoll Titel das Potential besser ausreizen können, haben Übergangsphasen so an sich.
Nightspider
2019-11-09, 13:58:20
äpfel und birnen? non release vs release, custom vs founders?
ich sehe bisher nur cherrypicking
ich nehme an, daß du einen link zur geizhals preisentwicklung setzen kannst, der mir eine 1080ti für 600€ im jahr 2017 zeigt?
zum thema 30% performance von 1080ti -> 2080ti
rdr2 pcgh test in 1080p
1080ti:50fps
2080ti:75fps
-> +50%
du redest dir deine kirsche echt schön, lustig anzusehen/lesen :)
Betreibst du da nicht selbst Cherrypicking?
Hab für meine 1080ti 2017 nur 540 euro gezahlt mit PayPal Rabatt Gutschein.
Es gab massig 1080ti Karten neu für 620 Euro auf eBay damals.
Platos
2019-11-09, 14:41:26
Ihr macht euch ja viel Mühe, dabei macht diese ja Leonidas in seinen Launch-Analysen für uns. Und wenn man die (oder den Perfomance-Index) ansieht, ist die RTX2080Ti ziemlich genau 35% schneller bei der FE und 30% schneller bei den Standart-Karten.
Da muss man eig. gar nicht gross diskutieren. Die Werte liefert Leonidas zuverlässiger als alle anderen, das er so viele Testseiten in den Wert miteinbezieht.
Bedenkt man ausserdem, wie teuer beide bei Launch waren, gibt es nicht nur nicht mehr Leistung pro Dollar, sondern sogar noch weniger.
Real waren die Karten etwa 850 und 1300 bei Launch (die etwas brauchbareren, ansonsten eben 750/800 und 1250)
Auf jeden Fall gibts weniger (!) Leistung pro Dollar, als zuvor. Ist hald auch ne höhere Preisklasse, aber eig. ja die selbe Modellreihe.
Edit: Das selbe spielchen kann man eig. bei allen Turing Karten machen und man wird auf ein schlechteres P/L kommen oder knapp darüber/gleich (dann aber oft mit weniger Grafikspeicher dafür RT, was de facto den Wert nicht ersetzt, da (immer noch) zu wenig stark verbeitet)
x-force
2019-11-09, 16:19:37
IMO: Du musst wirklich mal an deinem Ton arbeiten. Das ließt sich bei dir immer sehr schnell flapsig und respektlos. Und das völlig grundlos (denn niemand hat diesen Ton dir ggü angeschlagen). [äpfel/birnen, cherrypickijg, kirsche, das findest du lustig... IMO ist das von oben herab]
du sollst dich nicht angegriffen fühlen, ich habe nur ausgedrückt, daß du den sachverhalt ziemlich gefärbt darstellst, was als besitzer einer 1080ti ja auch psychologisch absolut nachvollziehbar ist.
ich kann das zumindest von außen etwas objektiver betrachten als du, da ich zwar auch maxwell und pascal gekauft habe, aber weder 1080ti noch 2080ti besitze und mich trotzdem nvidias geschäftsgebahren anwidert
Mag sein, dass es eine besonders gute Rabattaktion war.
wenn du es nicht bei geizhals in der preisentwicklung verlinken kannst, ist es wohl kein repräsentativer preis. für rabattaktionen ist der händler verantwortlich. wenn mir ein freund seine 2080ti für 800€ verkauft, ist das noch lange nicht der preis zu dem die karte zu bewerten ist.
freu dich über deinen schnapper, aber solange du den preis im vergleich nicht findest, hilft er wenig weiter.
wie gesagt, ich kritisiere nur deine darstellung als extrem subjektiv und einseitig, denn die 1200€ für die 2080ti sind sicherlich nicht rabattiert ;)
Ein Upgrade muss IMO ein besseres P/L haben als sein Vorgänger. Erinnere dich, dass das Jahrzehnte lang so war. Ich würde auch eine GPU für 2000€ ohne mit der Wimper zu zucken kaufen, wenn das P/L mich entsprechend umhaut. Kein Thema.[...] Deswegen finde ich Wettbewerb klasse.
da bin ich absolut bei dir. ich denke nvidia wäre sogar ein fall für die kartellbehörde, aber frisierte zahlen beim preis und der leistung helfen da nicht wirklich weiter.
bleib einfach bei preisen und leistung zum release.
damit wäre dein punkt genau so valide, jedoch glaubwürdiger, da weniger theatralisch dargestellt!
ich gehe jetzt einfach mal ungeprüft davon aus, daß platos korrekt von leo abgeschrieben hat:
Und wenn man die (oder den Perfomance-Index) ansieht, ist die RTX2080Ti ziemlich genau 35% schneller bei der FE
Real waren die Karten etwa 850 und 1300 bei Launch (die etwas brauchbareren, ansonsten eben 750/800 und 1250)
ungeschönt sind das dann eben 35% leistung, tendenz mit der zeit -wie bei nvidia üblich- steigend, zu einem aufpreis von etwas mehr als 50%
Auf jeden Fall gibts weniger (!) Leistung pro Dollar, als zuvor. Ist hald auch ne höhere Preisklasse, aber eig. ja die selbe Modellreihe.
das ist auf jeden fall noch ein guter punkt. je höher die preisklasse, desto schlechter das p/l verhältnis, sieht man ja an den titanen am besten.
tl:dr
natürlich ist das turing update ein flop aus mehreren (u.a. den genannten) gesichtspunkten, aber es besteht keine notwendigkeit dafür, mehr als nötig auf die kacke zu hauen und sich dafür im nachhinein die besten zahlen herauszupicken ;)
BlacKi
2019-11-09, 16:30:39
@robbitop. Ich halte sogar deine +30%fps für TU als zu großzügig.
Im Schnitt über alte sowie neue Spiele betrachtet und die "Unfairness FE vs FE" berücksichtigt,
Sind es eher ~+15-25% (je nachdem wie gut das eigene 10ner Modell ist)
Aber klar, wenn man sucht wird man immer einzelne Tests/Spiele mit mehr als +50% finden...
M.f.G. JVC
es zeichnet sich ab, das es in zukunft mehr wird, denn aktuelle spiele performen auf turing schon deutlich besser und das sag ich als 1080ti besitzer.
es wurmt mich das nun pascal "so schlecht" bei den neuen api abschneidet, als beispiel ziehe ich hier mal CoD heran, wo ich trotz core und ram OC gerade mal eine auslastung zwischen ca70% avg und im besten fall 90% von 120% des powertargets(nicht gpu load) habe. es gibt spiele, bei denen die 120% nicht ganz ausreichen, aber bei CoD unter dx12 dümpel ich bei 70% herum?
dabei soll ja dx12 dafür bekannt sein die HW endlich auslastbar zu machen. das ich nicht lache!
ich glaub auch das wir das in zukunft öfter so sehen werden.
Ghost1nTh3GPU
2019-11-09, 20:47:40
Nvidia hat ja mit Turing gezeigt, wo es bei Pascal noch Auslastungsprobleme gab: Integer-Berechnungen, Async-Compute.
Was wohl eine Ampere GPU mit integrierten Carmel-Cores und viel Flashspeicher auf dem PCB in zukünftigen Spielen besser machen könnte?
Platos
2019-11-09, 21:03:34
@ x-Force: Ja, ich finde eigentlich auch nicht, dass man Launchpreise mit irgendwelchen E-Bay Preisen vergleichen sollte. Aber dennoch ist es ganz deutlich, auch wenn man Launchpreise nimmt. Und ja, ich sage ja, ist eine andere Preisklasse, aber das ja nur, weil man die Preise so stark erhöht hat.
Und deine 50% sind ja dann doch auch etwas (weit) daneben ;) Also lagen wohl beides etwas von der Realität (bzw. fairer Vergleich) daneben.
Man kann natürlich auch die RTX 2080 als Vergleich nehmen, da damals plus minus Preisgleich. dafür dann 3GB weniger Speicher bei plus minus selber Leistung. Sieht also nirgendswo gut aus und die Kernaussage von robbitop (oder mir), dass das P/L einfach nicht gesteigen ist (oder nur so, dass man es schon fast als Messchwankung abtun könnte), stimmt dann eben doch.
Auch wenn es etwas übertrieben/überzeichnet dargestellt wurde. Ich bin auch kein Freund von Ebay-Preisverlgeichen.
robbitop
2019-11-09, 21:13:40
Nvidia hat ja mit Turing gezeigt, wo es bei Pascal noch Auslastungsprobleme gab: Integer-Berechnungen, Async-Compute.
Was wohl eine Ampere GPU mit integrierten Carmel-Cores und viel Flashspeicher auf dem PCB in zukünftigen Spielen besser machen könnte?
Was sollen ARM Cores einer GPU bringen? Nichts.
Turing ist vor allem durch die bessere Hitrate (größere Caches) und die INT Units schneller pro SM. Dafür kosten die SMs aber auch massiv mehr Transistoren. Perf/Transistor hat ggü Pascal eher abgenommen.
Aber ja: technologisch ist da schon einiges passiert. Irgendwann muss man Innovationen halt mal bezahlen. Pionierprodukte sind halt immer ein wenig meh.
es zeichnet sich ab, das es in zukunft mehr wird...
Jo, irgendwie altern NV Grakas immer besonders schnell, sogar wenn sie mal genug RAM haben.
Ich wusste ja das NV beim "async-support" gepatzt/gespart hat, dachte aber nicht das sich das so schnell auswirkt...
M.f.G. JVC
y33H@
2019-11-09, 21:32:57
Das ist mehr als nur AC ... davon ab immer? man erinnere sich an die 8800 GTX ^^
robbitop
2019-11-09, 21:46:12
Ja G80 war so legendär wie es neben R300 eigentlich keine GPU mehr war. Beide relativ langlebig - und das in einer Zeit in der es alle 18 Monate grob eine Leistungsverdopplung für dem gleichen Preis gab.
Heute freuen sich alle wenn es 30% mehr Leistung für den doppelten Preis gibt. :D (ich übertreibe bewusst)
x-force
2019-11-10, 02:44:51
Und deine 50% sind ja dann doch auch etwas (weit) daneben ;) Also lagen wohl beides etwas von der Realität (bzw. fairer Vergleich) daneben.
der trend geht defintiv dahin. vor allem in 4k sind es jetzt schon mehr!
pcgh hat einen index erstellt und über 4 auflösungen gemittelt und kommt da schon auf 36%.
wie gesagt es wird garantiert noch mehr werden. ich weiß auch nicht ob ein einziges ray tracing szeanrio gebencht wurde, denn dann sind 50% ebenfalls weit daneben und zwar nach unten ;)
die aktuelle generation wird im laufe ihres lebenszyklus immer schneller
als pascal neu war, war die 1070 maximal ähnlich schnell wie die 980ti, mittlerweile ist die 1070 15% schneller.
BlacKi
2019-11-10, 02:50:12
pascal wird eher langsamer wenn ich mir die auslastung meines powertargets ansehe, als würde sie nicht richtig ausgelastet werden.
x-force
2019-11-10, 02:51:42
pascal wird eher langsamer wenn ich mir die auslastung meines powertargets ansehe, als würde sie nicht richtig ausgelastet werden.
im verhältnis zu turing ja, aber sicher nicht zu maxwell
robbitop
2019-11-10, 08:30:37
Ich habe den Eindruck, dass die Vorgänger uArch ab einemgewissen Punkt weniger Treiberoptimierungen für neue Spiele bekommt (oder diese später kommt). Kepler und Maxwell haben beides in einigen Spielen schon hinter sich. Merken tut man das hin und wieder wenn mit damals ähnlich schnellen AMD Karten mit heutigen Spielen verglichen wird. ZB hatte DF gerade entdeckt, dass Tahitii die 970 in rdr2 in den Boden stampft. Die waren damals ähnlich schnell.Die 780 (der eigentliche Wettbewerber) sieht wahrscheinlich noch schlimmer aus.
Ist imo auch nachvollziehbar. Bei NV hat sich mehr getan in Bezug auf die HW uArchs, so dass das Nachpflegen des Treibercodes für mehrere Generationen aufwändiger ist.
dildo4u
2019-11-10, 08:35:49
Pascal fällt eher negativ auf laut PCGH ist die 1060 kein Stück schneller als die 970,da hakt es noch gewaltig.Es könnte aber noch was kommen Nvidia hat z.b immer Probleme mit den Forza DX12 Games dort wurde gerade erst die Turing Performance gefixt,hat aber Monate gedauert.
https://www.pcgameshardware.de/Red-Dead-Redemption-2-Spiel-59923/Specials/RDR2-PC-Release-Patch-Benchmarks-Review-1336285/
https://www.heise.de/newsticker/meldung/Nvidia-Treiber-GeForce-436-02-WHQL-Mehr-Leistung-und-neue-Funktionen-4501960.html
dargo
2019-11-10, 09:16:25
Ich habe den Eindruck, dass die Vorgänger uArch ab einemgewissen Punkt weniger Treiberoptimierungen für neue Spiele bekommt (oder diese später kommt). Kepler und Maxwell haben beides in einigen Spielen schon hinter sich. Merken tut man das hin und wieder wenn mit damals ähnlich schnellen AMD Karten mit heutigen Spielen verglichen wird. ZB hatte DF gerade entdeckt, dass Tahitii die 970 in rdr2 in den Boden stampft. Die waren damals ähnlich schnell.Die 780 (der eigentliche Wettbewerber) sieht wahrscheinlich noch schlimmer aus.
Ein aktuelles Beispiel dürfte dann auch das neue NfS sein.
https://gamegpu.com/racing-simulators-/-%D0%B3%D0%BE%D0%BD%D0%BA%D0%B8/need-for-speed-heat-test-gpu-cpu
R9 290X = R9 390 36% vor GTX970. Selbst wenn man den Unfall mit dem Speicher der 970 ausblendet und die GTX980 nimmt sind es immer noch 15%. Zur damaligen Zeit war R9 390 und GTX970 eher Gleichstand.
Edit:
Ok... die R9 390 war damals schon bis 8% in 1440p schneller im Schnitt.
https://www.computerbase.de/2015-08/radeon-300-im-test-alle-amd-grafikkarten-von-r7-360-bis-r9-390x-im-vergleich/2/#diagramm-rating-2560-1440-hohe-qualitaet
Pascal fällt eher negativ auf laut PCGH ist die 1060 kein Stück schneller als die 970,da hakt es noch gewaltig.Es könnte aber noch was kommen Nvidia hat z.b immer Probleme mit den Forza DX12 Games dort wurde gerade erst die Turing Performance gefixt,hat aber Monate gedauert.
https://www.pcgameshardware.de/Red-Dead-Redemption-2-Spiel-59923/Specials/RDR2-PC-Release-Patch-Benchmarks-Review-1336285/
Wäre aber schon etwas komisch wenns am Treiber liegt. Zumal Maxwell hier offenbar normal performt. Auch sieht mir das Verhältnis zwischen 980TI und 1070 normal aus.
AffenJack
2019-11-10, 10:43:40
Ein aktuelles Beispiel dürfte dann auch das neue NfS sein.
https://gamegpu.com/racing-simulators-/-%D0%B3%D0%BE%D0%BD%D0%BA%D0%B8/need-for-speed-heat-test-gpu-cpu
R9 290X = R9 390 36% vor GTX970. Selbst wenn man den Unfall mit dem Speicher der 970 ausblendet und die GTX980 nimmt sind es immer noch 15%. Zur damaligen Zeit war R9 390 und GTX970 eher Gleichstand.
Performanceverluste durch Einsatz von Async vll? Denn Pascal performt in NFS gar nicht so schlecht und da gabs die ersten Verbesserungen.
Generell würde ich das aber nicht nur an den Treibern festmachen, die Spieleentwickler nehmen einfach weniger Rücksicht auf alte Architekturen, da hauptsächlich mit den neuen getestet wird. Nvidia hat da mit Maxwell und Pascal in Sachen Async ein Problem, dass die Architekturen schlecht altern lassen wird.
AMD hat von DX12 eigentlich ja immer mehr profitiert, da müsste man vll eher gucken, ob die neuen DX12 Spiele sich anders verhalten, als die alten DX12 Spiele.
Sobald RDNA in Konsolen ist, würde mich ähnliches bei GCN aber auch nicht verwundern. Es gibt ja jetzt schon Spiele, wo GCN extrem gegenüber RDNA abfällt.
dildo4u
2019-11-10, 10:51:44
Das mit der schlechten Nvidia Optimierung wundert mich nicht.
Rockstar hat vermutlich wieder nur extrem kurzfristig Zugriff auf das Game gegeben,die scheinen da mit niemanden lange zusamen gearbeitet zu Haben.
Ich wette Nvidia hätte alles dafür gegeben RTX unterzubringen,das Game sollte sich z.b deutlich besser verkaufen als Watch Dogs 3 nästes Jahr.
Das RDNA abräumt macht hingegen mehr Sinn,ich glaube nicht das sie für GTA6 die Engine großartig umschreiben.
Ich glaube der größte Teil ist schon jetzt passiert daher sind sie direkt auf Vulkan/DX12 gegangen.
robbitop
2019-11-10, 10:54:33
Laut Coda und Alphatier (beides AAA Entwickler) gibt es von NV kaum Einblick in die uArch. NV will idR vorab Zugang zum Code des Spiels haben und biegt es im Treiber um (was auf neuen uArchs auch phantastisch umgesetzt wird). Beide wirkten damals bei ihren Aussagen auch ein wenig frustriert darüber.
Entsprechend liegt ein großer Teil des Einflusses bei NV.
Zumal ich mir gut vorstellen kann, dass sie Optimierungen (Entwicker/Studio seitig) so priorisiert werden, dass sie einen möglichst großen Einfluss auf die bereits installierte HW Basis der Kundschaft haben. Da ist Pascal sicherlich noch stark relevant. Ggf verbreiteter als Turing.
AMDs Karten haben ggf den Vorteil, dass ihre uArch offen dokumentiert ist. Entsprechend haben die Entwickler selbst die Möglichkeit darauf zu optimieren. Somit sind die Karten ggf weniger angewiesen auf „Treiberliebe“. Die ja ggf abnimmt, wenn die Nachfolge uArch kommt.
Ich kann mir gut vorstellen, dass ähnliche uArchs profitierten. Also Maxwell von Pascals (Treiber-) Optimierungen profitiert hat. Unterschiedliche uArchs dann aber rausfallen. So wie Fermi zu Kepler. Kepler zu Maxwell. Und Pascal zu Turing.
Ähnliches ist bei AMD sicherlich auch der Fall. VLIW->GCN->RDNA. Wobei RDNAs ISA ja relativ nahe an GCN liegt.
dargo
2019-11-10, 11:03:01
Performanceverluste durch Einsatz von Async vll?
NFS ist DX11.
aufkrawall
2019-11-10, 11:06:24
Der Unterschied zu GTA V ist jedenfalls schon gewaltig. Ähnlich war es mit Frostbite, als Battlefront nicht mehr für die alte Gen kam.
So viel zu der hier manchmal getätigten Aussage, dass die Konsolen AMD nicht helfen würden. Jetzt kommt halt noch Stadia dazu.
gnomi
2019-11-10, 11:07:48
Zum Launch war Turing nicht gerade attraktiv.
Jetzt mit mehr LL API, RTX, DLSS Support und dem Treiberfokus generell drauf plus dem neuen Super Portfolio sieht es muss man sagen schon ganz klar anders aus. Geht dann plötzlich ratzfatz.
2060 & 2070 Super haben sehr angezogen. 2080 im Abverkauf ist auch top.
Man merkt zudem, dass AMD nvidia auch mal wieder gefährlich wird.
Sie haben zwar kein RTX, aber sind ansonsten voll dran...
2080 Super und 2080 TI finde ich mangels Konkurrenz nicht mehr ganz so attraktiv. Aber bei letzterer stimmt natürlich besonders die konkurrenzlose Leistung.
Mit einer 1080 TI kann man die Generation aussitzen. Irgendwie ist das finde ich auch die Idee dieser Kartenserie, die ja auch ihren eigenen Preisbereich mit sich bringt.
Man darf auch nicht vergessen, wie viele UE4 DX 11 und andere verbreitete Engines von guten Entwicklern mit bekannten Marken doch noch so rauskommen. Da wird Pascal weiterhin stark abliefern, da traditionell gut und drauf optimiert.
Meine 2080 finde ich für 600 Euro mit Spiel überraschend gut.
Habe lange überlegt, und es ist nur eine Übergangskarte.
Aber dieser Karte wird die gesamte Entwicklung jetzt in die Karten spielen.
1440P wird bis Ende 2020 auf 8GB Ram optimiert. RTX auf Nutzbarkeit. Und 40% mehr GPU Power zur 1080 und damit gesicherte 60 fps werden Standard sein.
COD, Metro und SOTTR im SP schön mit RTX. Oder Quantum Break ohne Upscaling spielbar. Turing hat -wenn man mal ehrlich ist- eher besser abgeliefert als Geforce 1 & 3. (bei der Vorstellung mit BF V RTX und zu hohen Performance Einbußen war das natürlich aber noch nicht so)
Die nächste Generation wird allerdings übel umkämpft werden.
Nvidia sollte mit Ampere extrem abliefern können, aber AMD ist im Performance Bereich dran und in beiden Konsolen, und Raytracing wird eben eher wie in COD und nicht wie in Quake 2 eingesetzt. Ob nvidia da im High End Bereich so extrem vorne bleiben kann, ist selbst mit einem guten Chip unklar.
Für uns Spieler wird es egal wie es ausgeht aber ein größerer Sprung nach vorne.
Selbst die Preise können nur bedingt so übel hoch bleiben, da beide Konsolen abwärtskompatibel und bei ~500 Euro auch ansonsten extrem viel bieten werden. Und Streamen kann man ja auch noch.
Also der ganze Markt wird sich enorm verändern.
dargo
2019-11-10, 11:09:38
Generell würde ich das aber nicht nur an den Treibern festmachen, die Spieleentwickler nehmen einfach weniger Rücksicht auf alte Architekturen, da hauptsächlich mit den neuen getestet wird.
Gilt das nur für Geforce? Bei Radeon kann ich das nicht beobachten. Zumindest nicht im neuen NFS was ich verlinkt hatte.
Sobald RDNA in Konsolen ist, würde mich ähnliches bei GCN aber auch nicht verwundern. Es gibt ja jetzt schon Spiele, wo GCN extrem gegenüber RDNA abfällt.
Wo soll das denn der Fall sein? Ich sehe immer wieder RX 5700 leicht vor Vega64, was sich schon beim Release abzeichnete. Nenne mir einen Fall in DX12/Vulkan wo RDNA sich stark von Vega absetzen kann. Und bitte Games wo die neuen Renderer nicht komplett verhunzt sind.
Edit:
Ok... du meinst also Games die 2020+ erst rauskommen. Das wird sich dann zeigen müssen.
Ich wette Nvidia hätte alles dafür gegeben RTX unterzubringen,das Game sollte sich z.b deutlich besser verkaufen als Watch Dogs 3 nästes Jahr.
Jo... macht Sinn. Rockstar überfährt so schon mit max. Details jede RTX 2080TI, da würde Ray Tracing noch wunderbar reinpassen damit jeder RTX 2080TI User mit gigantischen 10-15 fps spielen kann. :ulol:
AffenJack
2019-11-10, 11:20:43
Gilt das nur für Geforce? Bei Radeon kann ich das nicht beobachten. Zumindest nicht im neuen NFS was ich verlinkt hatte.
Das liegt daran, dass du nur an GCN denkst und die Änderungen innerhalb von GCN insgesamt nicht so groß waren und jedes Spiel sowieso dank Konsolen auf die ersten GCN Versionen optimiert ist. Pre-GCN ist dagegen nach dem Release von GCN ganz schön abgekackt. Nvidia hat jeweils bis auf bei Maxwell/Pascal immer größere Änderungen an den Chips vorgenommen, da optimiert der Entwickler natürlich nicht für sonstwie viele Architekturen. GCN ist dank Konsolen eh immer dabei und dann nimmt man das neueste was Nvidia hat dazu.
Wo soll das denn der Fall sein? Ich sehe immer wieder RX 5700 leicht vor Vega64, was sich schon beim Release abzeichnete. Nenne mit einen Fall in DX12/Vulkan wo RDNA sich stark von Veg aabsetzen kann. Und bitte Games wo die neuen Renderer nicht komplett verhunzt sind.
Ghost Recon Breakpoint zb, allerdings ist das auch noch DX11. Aber GCN performt da extrem schlecht:
https://www.computerbase.de/2019-10/ghost-recon-breakpoint-benchmark-test/2/#abschnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd
dargo
2019-11-10, 11:26:38
Das liegt daran, dass du nur an GCN denkst und die Änderungen innerhalb von GCN insgesamt nicht so groß waren und jedes Spiel sowieso dank Konsolen auf die ersten GCN Versionen optimiert ist.
Ghost Recon Breakpoint zb, allerdings ist das auch noch DX11. Aber GCN performt da extrem schlecht:
https://www.computerbase.de/2019-10/ghost-recon-breakpoint-benchmark-test/2/#abschnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd
Finde den Fehler. Im übrigen performt dort Pascal auch extrem schlecht. ;)
btw.
Ich sprach von DX12/Vulkan, nicht der DX11 Grütze.
AffenJack
2019-11-10, 11:39:30
Finde den Fehler. Im übrigen performt dort Pascal auch extrem schlecht. ;)
Touché, aber Breakpoint ist ein AMD Spiel, kann sein, da kann man auch nicht ausschließen, dass AMD etwas optimierung Richtung Navi bevorzugt hat.:wink:
btw.
Ich sprach von DX12/Vulkan, nicht der DX11 Grütze.
Erwarte ich bei DX12 erst recht extremer, dass alte Architekturen abfallen, sobald neue raus sind. Deswegen eben auch bei GCN. Mehr Low-Level erzeugt auch mehr Unterschiede, wenn man keine Rücksicht mehr nimmt.
Zusätzlich wird mit RDNA2 und den Konsolen auch Mesh Shader Einzug halten bei AMD. Das alleine wird GCN schon ein Stück schlechter aussehen lassen (und RDNA1).
aufkrawall
2019-11-10, 11:48:03
Erwarte ich bei DX12 erst recht extremer, dass alte Architekturen abfallen, sobald neue raus sind. Deswegen eben auch bei GCN. Mehr Low-Level erzeugt auch mehr Unterschiede, wenn man keine Rücksicht mehr nimmt.
Das wird aber voraussichtlich erst passieren, wenn die Spiele neue HW-Features in den nächsten Konsolen nutzen werden, die die alten GPUs nicht haben. Bis dahin dauert es noch.
dargo
2019-11-10, 11:57:11
Touché, aber Breakpoint ist ein AMD Spiel, kann sein, da kann man auch nicht ausschließen, dass AMD etwas optimierung Richtung Navi bevorzugt hat.:wink:
So einfach wie du das darstellen möchtest ist es leider nicht. Mit UE4 hat AMD auch noch so seine Defizite. Selbst unter DX12 hilft es gegenüber der Konkurrenz nichts im GPU-Limit.
https://www.computerbase.de/2019-09/gears-5-benchmark-test/2/#diagramm-gears-5-2560-1440
Auch nicht bei RDNA. ;) Und auch hier heißt es Navi 10 Salvage = ~Vega64.
x-force
2019-11-10, 17:03:32
Ist imo auch nachvollziehbar. Bei NV hat sich mehr getan in Bezug auf die HW uArchs, so dass das Nachpflegen des Treibercodes für mehrere Generationen aufwändiger ist.
im gegensatz zu amd haben sie aber die manpower, jedoch nicht die vernunft dafür
Langlay
2019-11-10, 19:52:46
Ghost Recon Breakpoint zb, allerdings ist das auch noch DX11. Aber GCN performt da extrem schlecht:
https://www.computerbase.de/2019-10/ghost-recon-breakpoint-benchmark-test/2/#abschnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd
Ist imo das typische Auslastungsproblem.
Radeon VII VS 5700XT in 1080p ist die 5700XT 15% schneller als die VII, in 1440p ist die XT dann noch 8% schneller und in 4k ist dann die VII 4% schneller als die XT.
crux2005
2019-11-12, 17:46:36
Der Unterschied zu GTA V ist jedenfalls schon gewaltig. Ähnlich war es mit Frostbite, als Battlefront nicht mehr für die alte Gen kam.
So viel zu der hier manchmal getätigten Aussage, dass die Konsolen AMD nicht helfen würden. Jetzt kommt halt noch Stadia dazu.
War doch von Anfang an klar. Wer meint Konsolen helfen AMD nicht ist entweder blind oder will es nicht wahrnehmen (aka Fanboy).
Nenne mir einen Fall in DX12/Vulkan wo RDNA sich stark von Vega absetzen kann. Und bitte Games wo die neuen Renderer nicht komplett verhunzt sind.
CoD: Modern Warfare. Oder gilt das nicht?
https://www.techpowerup.com/review/call-of-duty-modern-warfare-benchmark-test-performance-analysis/5.html
Cubitus
2019-11-12, 18:03:08
Damit dürfte wohl eine spekulierte Super 2080 TI nicht mehr kommen..
Juni 2020 ist okay, dann dürfte es die Karten spätestens August/September geben..
Genau 2 Jahre Lifetime, wenn man direkt bei VÖ gekauft hatte..
Finde ich okay :)
dildo4u
2019-11-12, 18:06:13
War doch von Anfang an klar. Wer meint Konsolen helfen AMD nicht ist entweder blind oder will es nicht wahrnehmen (aka Fanboy).
CoD: Modern Warfare. Oder gilt das nicht?
https://www.techpowerup.com/review/call-of-duty-modern-warfare-benchmark-test-performance-analysis/5.html
Gears 5 läuft mit Vega auch kacke aber Polaris hat das Problem nicht RX 590 deutlich vor GTX 1060,Vega 64 langsamer als 5700.
https://www.computerbase.de/2019-09/gears-5-benchmark-test/2/#diagramm-gears-5-1920-1080
Die 590 ist bei der Frametimes sogar auf 1660 Ti Level.
Es macht Null Sinn warum Vega jetzt noch mal zurück kommen sollte wenn die Konsolen Navi und Polaris nutzen.
crux2005
2019-11-12, 18:09:59
Damit dürfte wohl eine spekulierte Super 2080 TI nicht mehr kommen..
Juni 2020 ist okay, dann dürfte es die Karten spätestens August/September geben..
Genau 2 Jahre Lifetime, wenn man direkt bei VÖ gekauft hatte..
Finde ich okay :)
Eigentlich gebe ich dir recht. Nur brauchte NV leider 6-12 Monate für Turing "Optimierungen" oder Fehlerbehebungen. Also könnten das ruhig 2,5 Jahre sein bis Ampere. Notiz an mich, nie wieder eine Grafikkarte mit neuer uArch bei VÖ kaufen. :)
Cubitus
2019-11-12, 18:17:26
Eigentlich gebe ich dir recht. Nur brauchte NV leider 6-12 Monate für Turing "Optimierungen" oder Fehlerbehebungen. Also könnten das ruhig 2,5 Jahre sein bis Ampere. Notiz an mich, nie wieder eine Grafikkarte mit neuer uArch bei VÖ kaufen. :)
Also abgesehen vom Kinderschuh behafteten RTX lieferten die Karten doch aus dem Stand eine super Leistung, oder was meinst du genau?
Ich kanns halt nur aus meiner Perspektive sagen das der Sprung von einer 1080GTX auf eine 2080 TI schon enorm geil war :)
4K auf dem TV war jetzt keine Wunschauflösung mehr sondern ganz normal.. 3K auf dem PC reicht heute noch für alles auf Ultra..
crux2005
2019-11-12, 18:22:21
Also abgesehen vom Kinderschuh behafteten RTX lieferten die Karten doch aus dem Stand eine super Leistung, oder was meinst du genau?
Ich kanns halt nur aus meiner Perspektive sagen das der Sprung von einer 1080GTX auf eine 2080 TI schon enorm geil war :)
Spielst wohl die richtigen Spiele. Bei z.B. CoD: Bo4 haben sie sehr lange (10-12 Monate) gebraucht um das Stottern zu fixen. Die Forza Spiele liefen mit meiner 2080 OC aka Super im vergleich zu einer GTX 980 Ti OC sehr lange (auch wieder 12 Monate+) nicht viel schneller. Probleme in Forza Spielen gibt es bis jetzt: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12142034&postcount=1 Etc. Beispiele gibt es genug.
4K auf dem TV war jetzt keine Wunschauflösung mehr sondern ganz normal.. 3K auf dem PC reicht heute noch für alles auf Ultra..
RDR2 sicher nicht. :)
Cubitus
2019-11-12, 18:27:16
Spielst wohl die richtigen Spiele. Bei z.B. CoD: Bo4 haben sie sehr lange (12 Monate) gebraucht um das Stottern zu fixen. Die Forza Spiele liefen mit meiner 2080 OC aka Super im vergleich zu einer GTX 980 Ti OC sehr lange (auch wieder 12 Monate+) nicht viel schneller. Probleme in Forza Spielen gibt es bis jetzt: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12142034&postcount=1 Etc. Beispiele gibt es genug.
RDR2 sicher nicht. :)
Okay ich hab Forza Horizon 4, da ist glaub AMD sogar besser..
Aber das läuft auf 3440*1440 ganz passabel von dem her ists mir nicht aufgefallen..
Bzw. RDR2 kann ich mit 4K und Ultra vergessen, ja :freak:
3440*1440 sind noch gerade so i.O auf maxxed out.. Aber durchgängig 60 FPS erreiche ich da auch nicht..
dargo
2019-11-12, 19:46:37
CoD: Modern Warfare. Oder gilt das nicht?
https://www.techpowerup.com/review/call-of-duty-modern-warfare-benchmark-test-performance-analysis/5.html
:confused:
Ich sehe dort immer noch RX 5700 = ~V64.
Leonidas
2019-11-12, 20:06:44
Ich versuche mal seine gelöschen Posts zu Ampere zu rekapitulieren:
Danke für diese Datenrettung der inzwischen nicht mehr einsehbaren Postings. Ich hab es in eine News verwurstet:
https://www.3dcenter.org/news/geruechtekueche-angeblich-allererste-technische-daten-zu-nvidias-ampere-generation
crux2005
2019-11-12, 20:06:50
:confused:
Ich sehe dort immer noch RX 5700 = ~V64.
+10% in 1080p
+8% in 1440p
+5% in 4K
Die 5700 XT ist bis auf 4K auch vor der Radeon 7. In 4K verliert die 0,19%. Also Messtoleranz.
Das ist nicht deutlich genug? :confused:
wolik
2019-11-13, 01:50:59
Ich kanns halt nur aus meiner Perspektive sagen das der Sprung von einer 1080GTX auf eine 2080 TI schon enorm geil war :)
Aus Perspektive GTX 980 wäre noch geiler. Nur 2080Ti hat 1080Ti abgelöst. Mit Leistung Steigerung nicht mal 20%. Mit eingeschalteten HGrl sogar 50% weniger zum 1080Ti ohne HGrl. Über Preis will ich nicht mal sprechen.
Cubitus
2019-11-13, 05:06:41
Aus Perspektive GTX 980 wäre noch geiler. Nur 2080Ti hat 1080Ti abgelöst. Mit Leistung Steigerung nicht mal 20%. Mit eingeschalteten HGrl sogar 50% weniger zum 1080Ti ohne HGrl. Über Preis will ich nicht mal sprechen.
Also wenn ich eine (TI) gehabt hätte, hätte ich nicht gewechselt...
Aber bei Ampere sieht es wohl nach mehr Steigerung aus..
dargo
2019-11-13, 07:21:26
+10% in 1080p
+8% in 1440p
+5% in 4K
Die 5700 XT ist bis auf 4K auch vor der Radeon 7. In 4K verliert die 0,19%. Also Messtoleranz.
Das ist nicht deutlich genug? :confused:
Nicht wirklich... denn im Schnitt mehrerer Spiele ist eine RX 5700 auch schon 3-4% vor der V64 in 1080p-1440p.
https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-1920-1080
Und, dass Navi bei geringerer Pixellast sich etwas stärker von Vega absetzen kann ist schon lange bekannt. Wir werden hier aber verdammt OT. :)
BlacKi
2019-11-13, 11:25:42
Aus Perspektive GTX 980 wäre noch geiler. Nur 2080Ti hat 1080Ti abgelöst. Mit Leistung Steigerung nicht mal 20%. Mit eingeschalteten HGrl sogar 50% weniger zum 1080Ti ohne HGrl. Über Preis will ich nicht mal sprechen.
hier zwischen 30-47%, so wie in den meisten neueren spielen. https://www.youtube.com/watch?v=RCtOkH7nGD0
dennoch ist der aufpreis das einfach nicht wert, selbst als toptier gpu. bei der 2070s vs 2080ti stehen 30% performance über 100% preisaufschlag gegenüber. bei der 10er serie hast du fast 1zu1 zum aufpreis die mehrleistung erhalten. da fehlt die 2080tis. die 1080ti hatte auch keine konkurenz benötigt für den pricetag, also kommt mir nicht mit der fehlenden konkurenz.
wolik
2019-11-13, 14:29:14
hier zwischen 30-47%, so wie in den meisten neueren spielen. https://www.youtube.com/watch?v=RCtOkH7nGD0
dennoch ist der aufpreis das einfach nicht wert, selbst als toptier gpu. bei der 2070s vs 2080ti stehen 30% performance über 100% preisaufschlag gegenüber. bei der 10er serie hast du fast 1zu1 zum aufpreis die mehrleistung erhalten. da fehlt die 2080tis. die 1080ti hatte auch keine konkurenz benötigt für den pricetag, also kommt mir nicht mit der fehlenden konkurenz.
Hier ist 1440p. Schade das AMD(ATI) schläft.
https://abload.de/img/2080197jfv.png
https://abload.de/img/2080rzjvm.png
Wenn die jetzt echt noch ne 2080Ti Super bringen wird das nix vor 21 mit einer Consumer-Generation. Ich denke, dass hier viele Infos einfach wieder total durcheinander gingen. Ampere ist mMn wieder ne reine Profigeneration. Das sind jetzt 2 Chips, die in 7LPP gefertigt werden. Die kommen dieses Jahr und lösen Volta ab. Bei Consumer möchte NV ja so billig wie irgendmöglich bleiben, das geht in 7nm eigentlich nicht, es sei denn, man verwendet den N6-Prozess und genau das werden die tun. Die machen das wie bei 12FFN, es wird einen extra angepassten 6FFN geben in 21 und die werden darauf die Nachfolgegeneration von Turing bringen, dann wieder große Chips, um einen adäquaten Performancesprung zu liefern. Ich würd mich bei NV von 7nm Consumer generell komplett verabschieden - 6nm ist deren eigentliches Ziel. Ich weiss, jetzt werd ich wieder gesteinigt, aber wir sehen uns dann in 21 wieder. Man wird einfach einen Performancesprung von 50% oder mehr anpeilen und so kann man das auch schaffen.
Edgecrusher86
2019-11-24, 02:27:13
Wenn im Frühjahr die letzten TU-S Modelle (Ti und Mobile) kommen, so muss das nicht zwangsläufig bedeuten, dass es das für 2020 war, siehe TITAN Black, 1080 Ti und TITAN Xp. Im jeweiligen Zeitraum von September bis Dezember gab es zumindest neue Performance- oder Enthusiasten-Karten (GTX 980/970 und TITAN V).
Ich kann es mir schwer vorstellen, dass es in NVs Interesse ist, dass RDNA2 die Krone 2020 in quasi allen Segmenten des Desktopbereichs übernimmt (ob man auch 2080 Ti/Ti S schlägt muss sich dann zeigen, unmöglich wäre es aber nicht mit entsprechend doppelt N10 plus weiteren Verbesserungen und 350W(+) PT).
Zumindest die 2080S wird AMD wohl mit Leichtigkeit überflügeln, bringt man ein Modell mit 3585-3840SPs; dürfte dann wohl grob 10-15% hinter der 2080 Ti landen. Hier würde ich auf ein 384-bit SI und 12GB tippen.
Zwei bis drei RDNA2 Chips dürfte man sicherlich im H2/2020 auflegen.
Ohne neue Modelle könnte NV nur über Preissenkungen antworten, analog Intel aktuell - aber einen zweiten Refresh wird man sicherlich nicht sehen. :-)
Es mag sein, dass Ampere nur für den HPC-Markt bestimmt ist, aber zumindest so eine TITAN im Bereich $3000-5000 für die ganz Verrückten bis Dezember '20 würde ich nicht ausschließen.
Man wird sehen, was die GTC im März an Infos parat haben wird.
Ausschließen, dass man so verfährt wie mit Volta und Turing kann man sicher nicht. Dann könnte sich das für den normalen Desktop-Markt durchaus bis Q1/Q2 2021 hinziehen.
hasebaer
2019-11-24, 03:03:11
Nvidia wird schon im Zeitraum Juni - August eine GTX 3060 bringen, denn Rest später, denn sie werden es sich nicht leisten können/wollen, AMD und den Next Gen Konsolen, die ganze Aufmerksamkeit in 2020 zu überlassen.
sentinel_first
2019-11-27, 01:08:01
NV wird jeglichen Vorstoß anderer sofort kontern, weil man überlegenheitsbedingt ansparen konnte.
Big Navi = RTX 2080ti super oder RTX 2090 ( und super?)
Die (RayX) RTX 3080 und 3080ti werden bei Zeiten angestoßen; um den Markt im High - Gaming leistungstechnisch mundtot zu machen, mit unfassbaren (um der Fertigung Zeit zu gewähren, quasi Paperlunch) Preisen.
Denkt bitte auch an die Quartalsberichte für die Anleger: https://www.finanzen.net/aktien/nvidia-aktie
:Glasmurmel off
Dural
2019-11-27, 11:15:00
Die NV Aktie ist auch brutal abgegangen, wenn man 2015 für 10.000.- gekauft hätte, hätte man stand heute 120.000.- Gewinn :freak:
robbitop
2019-11-27, 12:04:32
NV wird jeglichen Vorstoß anderer sofort kontern, weil man überlegenheitsbedingt ansparen konnte.
Big Navi = RTX 2080ti super oder RTX 2090 ( und super?)
Die (RayX) RTX 3080 und 3080ti werden bei Zeiten angestoßen; um den Markt im High - Gaming leistungstechnisch mundtot zu machen, mit unfassbaren (um der Fertigung Zeit zu gewähren, quasi Paperlunch) Preisen.
Denkt bitte auch an die Quartalsberichte für die Anleger: https://www.finanzen.net/aktien/nvidia-aktie
:Glasmurmel off
Das muss nicht immer so sein. Siehe Intel im Moment. ;)
Aber ja - ich tippe auch darauf, dass NV schwer zu schlagen sein wird. Denn im Gegensatz zu Intel sind sie ja recht aggressiv unterwegs und schlafen nicht. Aber guter Zweiter zu sein ist IMO auch ok. Der Markt ist groß genug.
Dural
2019-11-27, 14:33:46
Ich bin mir ziemlich sicher dass die nächste Generation wie eine Bombe einschlagen wird.
NV weiss seit Jahren das Intel kommen wird, NV scheint die aktuellen 7nm Produkte von AMD ziemlich kalt zu lassen, es ist unheimlich ruhig bei NV! Das war bis jetzt immer ein Zeichen das was grossen kommt, immer.
Ich bin mir ernsthaft am überlegen ob ich bei NV einsteigen soll, das einzige was mich unschlüssig macht ist die ganze Autosparte! Ich glaube leider nicht das sich NV dort durchsetzen kann, und wenn es dort Anfängt zu bröckeln wird der Kurs fallen und zwar richtig.
robbitop
2019-11-27, 15:56:03
Mit Intel meinte ich eher, dass sie im CPU Bereich gerade vom einem Faktor >10 kleineren Underdog überrannt werden. Weil sie gepennt haben mangels Wettbewerb. Im High End Gaming Bereich ein halbes Jahrzehnt keinen signifikanten Shrink und keinen neuen Core ist aber auch schon extrem IMO. (vor 2021 ist ja wohl keine Änderung zu erwarten)
Das ist ja bei NV nie der Fall gewesen.
Bei NV einsteigen? Der Kurs ist ja schon ziemlich weit oben. Ist denn ein signifikantes Wachstum von Gewinn und Umsatz zu erwarten? In ihren Kernmärkten haben sie doch bereits sehr hohe Marktanteile. Selbst wenn Ampere wieder sehr gut wird - das Wachstumspotenzial ist überschaubar da man ja schon ganz oben ist.
Bei AMD ist bspw das Potenzial größer. Mobile, Desktop, Server: da sind die Anteile recht klein. Aber sie haben überall Produkte (bzw in der Pipeline), die das Potenzial haben, das zu ändern.
Gerade im CPU/APU Bereich steigen die Margen dort auch enorm.
Einsteigen wenn das Unternehmen noch nicht oben ist und das Potenzial da ist. AMD ist nur ein Beispiel.
sentinel_first
2019-11-28, 00:40:24
KI ist derzeit im Aufbau und verhungert an leistungsschwachen GPU, deshalb konzentriert sich Intel auch auf GPU ( aus der Not heraus ).
CPU sind zum einem quasi ausgereizt, zum anderen ist der Leistungsbedarf über Gebühr gedeckt, außer eventuell noch im Serversegment nicht.
Dass die NV - Aktie explodiert hat seine Berechtigung und ganz oben ist immer relativ.
robbitop
2019-11-28, 07:29:38
AI ist wesentlich besser/schneller pro W auf dedizierten ASICs. Das auf GPUs mitzumachen ist ein Anfang. Aber nicht ohne Grund gibt es immer mehr reine AI Chips von allen möglichen Firmen. Google, Tesla, Amazon arbeitet an eigenem Silizium etc.
Troyan
2019-12-18, 15:59:52
Orion kommt im 8nm (Samsung-)Verfahren. Könnte darauf hindeuten, dass die nächste GPU-Generation ebenfalls auf 8nm kommt.
AffenJack
2019-12-18, 16:03:50
Deutet auf jeden Fall darauf, dass Samsung 7nm EUV schlecht läuft. Könnte sein, dass Nvidia da nen ziemlichen Bock geschossen hat auf Samsunsg zu setzen.
Troyan
2019-12-18, 16:07:43
Also Orion ist 3x effizienter als Xavier. So schlecht kann der Prozess nicht sein.
Auch gegen Turing T4 ist Orion 65% effizienter mit INT8. Und T4 war 85% effizienter als Xavier.
Architektur nimmt einen viel stärkeren Anteil ein als der Fertigungsprozess.
x-force
2019-12-18, 16:09:31
dass Nvidia da nen ziemlichen Bock geschossen hat auf Samsunsg zu setzen.
das war von anfang an klar.
sie denken die milchleistung ihrer kuh noch weiter steigern zu können, d.h. die architektur ist so überlegen, daß sie mit einem schlechteren und billigerem prozess am ende trotzdem vorne sind.
wie viel schlechter samsung ist, sah man schon an den pascal varianten die von samsung kamen.
robbitop
2019-12-18, 16:11:38
8nm? Oh das ist aber unschön. Das ist ja eher sowas wie ein 10nm+ Prozess und weit von 7nm entfern iirc. Auch wenn die Zahl was anderes sagt.
Da hat NV mit Samsung wohl aufs falsche Pferd gesetzt. Erinnert mich an 2004 als man mit NV40 auf IBM statt TSMC setzte und trotz überlegener uArch von R420 dank 100 MHz Takt abgezogen wurde.
Bucklew
2019-12-18, 16:43:10
Deutet auf jeden Fall darauf, dass Samsung 7nm EUV schlecht läuft.
Nö.
Warum sollte man sich selbst Konkurrenz bei 7nm Wafern machen mit so einem Produkt?
Viel wichtiger ist der kommende HPC- und Gaming-Chip.
BoMbY
2019-12-18, 16:47:39
Orin saugt vermutlich auch bis zu 70 Watt laut Anandtech - wenn man davon ausgeht dass man mindestens zwei davon verbauen muss, dann wären das bis zu 140W. Das ist eigentlich viel zu viel für ein eAuto - das wäre grob das Doppelte von Teslas HW3 wenn ich das richtig im Kopf habe.
Geächteter
2019-12-18, 16:49:02
Unschön nur für den Endkunden, bekommt nicht das mögliche Maximum und Nvidia maximiert die Rendite.
Um AMDs Architektur(evolutionen) in Schach zu halten, reicht es dicke.
Und TSMC kommt ja schon so kaum mit dem Fertigen hinterher, da ist es nur sinnig, zu Samsung zu gehen.
Bucklew
2019-12-18, 16:51:49
Das ist eigentlich viel zu viel für ein eAuto - das wäre grob das Doppelte von Teslas HW3 wenn ich das richtig im Kopf habe.
144 Teraops bei 72W von Tesla.
Hier 100 Teraops bei 40W oder 400 bei 130W:
Nvidia hat uns die einzelnen Abstufungen von Drive AGX Orin genannt: Die kleinste Single-Chip-Version mit 15 Watt schafft 36 TOPS, die mit 40 Watt kommt auf 100 TOPS. Zwei gekoppelte Orin mit zusammen 130 Watt erreichen 400 TOPS, das Modell mit doppeltem Orin und zwei Next-Gen-GPUs liefert 2.000 TOPS bei 750 Watt.
750 Watt sind natürlich auch ne Ansage :ugly:
w0mbat
2019-12-18, 16:53:09
das war von anfang an klar.
sie denken die milchleistung ihrer kuh noch weiter steigern zu können, d.h. die architektur ist so überlegen, daß sie mit einem schlechteren und billigerem prozess am ende trotzdem vorne sind.
wie viel schlechter samsung ist, sah man schon an den pascal varianten die von samsung kamen.
Naja, Turing ist trotz 12nm bei der Effizienz immer noch (wenn auch nur sehr knapp) vor Navi in 7nm. So Unrecht werden sie also wohl nicht haben.
x-force
2019-12-18, 17:05:50
Naja, Turing ist trotz 12nm bei der Effizienz immer noch (wenn auch nur sehr knapp) vor Navi in 7nm. So Unrecht werden sie also wohl nicht haben.
ich befürchte auch, daß sie sich diese dekadenz am ende leisten können.
750 Watt sind natürlich auch ne Ansage :ugly:
damit sind sie in bereichen, die die fahrleistung merkbar reduzieren ;D
robbitop
2019-12-18, 17:13:37
AMD bleibt nicht stehen. Intel hat auch den Fehler gemacht, sie zu unterschätzen. Ich denke AMD wird auch im GPU Bereich aufschließen. Vermutlich war Navi 1x nur der Anfang.
BoMbY
2019-12-18, 17:29:02
144 Teraops bei 72W von Tesla.
Hier 100 Teraops bei 40W oder 400 bei 130W:
Es sind 200 bei 130 Watt, da beide Hälften das gleiche berechnen müssen um ein Quorum zu bilden, wobei ich bei Tesla jetzt auch nicht sicher bin ob das doppelt oder einfach gerechnet ist.
AffenJack
2019-12-18, 18:02:34
Nö.
Warum sollte man sich selbst Konkurrenz bei 7nm Wafern machen mit so einem Produkt?
Viel wichtiger ist der kommende HPC- und Gaming-Chip.
In nennenswerten Stückzahlen ist er eh erst 2022 gebaut fällt mir so ein, da wäre bei 7nm schon genug Kapazität vorhanden. Allerdings macht damit auch das Argument mit den Problemen bei Samsung keinen Sinn, da es schon ziemlich unwahrscheinlich ist, dass Samsung 7nm bis dahin nicht gefixt hätte, selbst wenn der Prozess nicht so toll wäre.
Irgendwie scheint 8nm eine merkwürdige Entscheidung zu sein.
BoMbY
2019-12-18, 19:20:33
Ja, sieht so aus als wäre NVidia bei 3 Tops/Watt in 8nm (?) und Tesla bei 2 Tops/Watt in 14nm.
Troyan
2019-12-18, 21:21:46
Es sind 200 bei 130 Watt, da beide Hälften das gleiche berechnen müssen um ein Quorum zu bilden, wobei ich bei Tesla jetzt auch nicht sicher bin ob das doppelt oder einfach gerechnet ist.
Es sind 200 TOPS bei +-65W. Oder 400 Tops bei 130W: https://www.computerbase.de/2019-12/nvidia-drive-agx-orin-gtc-china/
Bei NV gehts um Yields bei extremen Chipgrößen und möglichst effektiven Fertigungskosten. Wenn die 8 LPP so billig bekommen haben, wird das schlicht und einfach der Grund sein. Zudem haben sie sicherlich Zeit gebraucht, um 8 LPP zu customisieren, wie das bei 12 FFN der Fall war. NV wollte doch auch Nachfolgeprozesse anpassen. Für NV-Freunde wäre 8 LPP übrigens ne gute Nachricht, das bedeutet nämlich, dass es auf jeden Fall spätestens Mitte nächsten Jahres neue Chips gibt, was bei 7nm ziemlich sicher nicht der Fall gewesen wäre, da N7/P offensichtlich ausgelassen wurde und bei N7+ NV von TSMC nicht erwähnt wurde (überhaupt scheint der Prozess recht unbeliebt zu sein). Das Ganze würde auch sehr gut erklären, warum sich NV bei dem Thema 7nm immer außerst zurückhaltend geäußert hat. Wenn man die Strategie weiterspinnt wäre das 12FFN -> 8LPPN -> 6LPPN -> 4LPPN.
BoMbY
2019-12-19, 09:56:58
Es sind 200 TOPS bei +-65W. Oder 400 Tops bei 130W: https://www.computerbase.de/2019-12/nvidia-drive-agx-orin-gtc-china/
Du hast es scheinbar nicht verstanden? Beide Chips berechnen immer das gleiche, und das Ergebnis wird verglichen um Fehler auszuschließen. Die theoretische Leistung wird also praktisch immer halbiert.
Dural
2019-12-19, 09:59:41
Naja, wenn ich mir die 7nm Produkte anschaue schneiden die alle ziemlich schlecht ab. Kosten explosion und nur sehr geringe Vorteile.
NV sagte mal das 7nm zu teuer ist für die Vorteile die es bringt.
dildo4u
2019-12-19, 10:04:06
7nm EUV wird nicht billiger aber vermutlich nötig wenn sie mehr als +30% im High-End rausholen wollen.
Mann kann von den Drive Chips nicht ableiten was sie für High-End Chips nutzen werden.
Und 7nm scheint billig genug wenn sie Nvidia alles von 300 bis 500€ wegnehmen dort hast du Marge und Stückzahl. https://youtu.be/YjAQIH1yKGY?t=338
|MatMan|
2019-12-19, 10:37:31
Du hast es scheinbar nicht verstanden? Beide Chips berechnen immer das gleiche, und das Ergebnis wird verglichen um Fehler auszuschließen. Die theoretische Leistung wird also praktisch immer halbiert.
Man wird die doch wohl auch regulär betreiben können, wenn man mehr Leistung haben möchte.
Ohnehin ist mir unklar, was es helfen soll mit 2 Chips dasselbe zu rechnen. Ist das Ergebnis unterschiedlich, weiß ich trotzdem welcher von beiden falsch gerechnet hat. Und dann? Notstop?
7nm EUV wird nicht billiger aber vermutlich nötig wenn sie mehr als +30% im High-End rausholen wollen.
Mann kann von den Drive Chips nicht ableiten was sie für High-End Chips nutzen werden.
Das spielt für NV denke ich einfach keine Rolle. Man muss sich mal ansehen, was mit 12FFN passiert ist. Man hat ein bestimmtes Taktziel erreicht und es läuft einfach optimal. Vega -> Navi beispielsweise zeigt ja ebenfalls, dass Architektur wichtiger ist als die pure Fertigung.
robbitop
2019-12-19, 11:42:03
Es ist eine Mischung aus beidem. Navi kommt noch nicht an die Energieffizienz von Turing heran - hat aber ggü den Vorgänger uArchs stark aufgeholt. AMD ist dabei (dank guter Führung und steigenden Gewinnen) wieder nach vorne zu kommen. Und das mit relativ hoher Dynamik.
An NVs Stelle würde ich jetzt nirgends locker lassen oder eine Nummer schlechter wählen. (man muss aber auch konstatieren dass NV sich im Gegensatz zu Intel nie ausgeruht hat - sie haben ihren Gewinn maximiert aber ansonsten blieb man schon dran)
... sie haben ihren Gewinn maximiert aber ansonsten blieb man schon dran)
Man nutzte die schwäche des Gegners um an nem "Herr der Ringe"(RTX) Ding zu basteln...
Davor war es das G-Sync-Modul...
Davor GPP...
Und nicht das Glanzstück NDA(siehe Sig.) vergessen.
NV hätte sicherlich mehr Leistung und die auch noch günstiger anbieten können.
Aber so ist die Wirtschafft, man nimmt was man kriegen kann und gibt nur her was unbedingt nötig ist.
M.f.G. JVC
robbitop
2019-12-19, 12:13:16
HW Raytracing ist die nächste Stufe wie damals Shader. Kostet Transistoren aber heute will auch keiner mehr ohne Shader. HW RT wird mittelfristig eine ähnliche Rolle einnehmen.
Ja NV hätte mehr Performance rausholen können. Wenn man aber mal schaut, wie viele uArchs (und die entsprechenden Fortschritte pro uArch) man brachte würde ich schon sagen, dass man drangeblieben ist.
Perf/EUR geht ohne starken Wettbewerb leider flöten. Das ist leider so. Gut dass AMD nun sein Comeback bringt. Schade, dass man seit 2006 aber keine vollständige harte Konkurrenz mehr war.
HW Raytracing ist die nächste Stufe
Raytracing Ja.
Aber ganz sicher in "spezieller" Hardware ?
(erinnert mich zu sehr an das G-Sync-Modul...)
Ich traue mich nicht darauf wetten, das die kommenden Konsolen RT in Hardware haben.
Es liegt durchaus im Bereich des Möglichen das "RTX" ein Sonder/Pflegefall werden könnte.
M.f.G. JVC
WedgeAntilles
2019-12-19, 12:25:51
Erwartet ihr für die Geforce 3xxx Serie eine deutliche Steigerung bei Geschwindigkeit und/oder Effizienz?
Hintergrund: Ich habe eine alte GTX 970, die langsam in die Jahre kommt.
Eigentlich hatte ich im März für Cyberpunk eine neue GraKa geplant. Aber wenn ein halbes Jahr später die nächste Generation herauskommt erscheint mir das als schlechter Zeitpunkt.
Andererseits gab es zwischen Geforce 1XXX und 2XXX jetzt nicht die riesigen Unterschiede.
Bevor ich aber eine Karte kaufe, die absehbar 6 Monate später stark veraltet ist, warte ich lieber 6-12 Monate mit Cyberpunkt. (Ist ja jetzt nicht so, dass ein Spiel nach Release schlechter wird oder ich sonst große Halde mit Spielen habe, die ich unbedingt mal zocken will...)
Sorry falls die Frage hier schon mal beantwortet wurde - ich habe mir die letzten 2 Seiten durchgelesen und den Großteil nicht wirklich verstanden^^
robbitop
2019-12-19, 12:28:09
Raytracing Ja.
Aber ganz sicher in "spezieller" Hardware ?
(erinnert mich zu sehr an das G-Sync-Modul...)
Ich traue mich nicht darauf wetten,
das die kommenden Konsolen RT in Hardware haben.
M.f.G. JVC
Wie spezielle HW? MWn funktioniert HW Raytracing auch bei NVs Implemtierung so dass es über DX RT Schnittstelle und selbiger für Vulkan angesprochen werden kann. Wie jeder Vendor es konkret umsetzt bleibt ihm überlassen - es muss nur über die entsprechende API funktionieren. Das ist doch mit der HW für die Shader das gleiche. Das ist vendorspezifisch.
Dass Nextgen Konsolen RT HW haben ist doch längst bestätigt. Die entsprechenden Schnittstellen gibt es längst und bevor die verabschiedet werden werden sie in einem Gremium entwickelt und beschlossen. Im DX Gremium sitzt auch AMD. Bei Vulkan/OpenGL sind sie idR auch nicht ausgeschlossen.
—————
Ja ich gehe davon aus, dass die 3000er Serie ordentlich etwas drauflegen wird auf die 2000er.
Ich tippe darauf, dass die uArch ähnlich ist aber mehr Einheiten und ggf mehr Takt vorhanden sein wird. Mehr Rohleistung eben.
Wie spezielle HW?
Eben eine die herstellerspezifisch ist.
(ich glaube kaum das NV alles zum kopieren offen legt)
Dass Nextgen Konsolen RT HW haben ist doch längst bestätigt.
Ich hab nur mitbekommen das man RT definitiv unterstützen wird.
Falls AMD nicht liefern kann hoffe ich auf ne "3080Ti" mit mindestens 16Gb und HDMI 2.1 sowie DP 2.0 sind Pflicht.
RT steht noch nicht auf meiner Wunschliste, da gibt es für mich wichtigeres.
M.f.G. JVC
Wäre es nicht sinnvoll, wenn die Leistung von "RT HW" auch für Spiele ohne RT irgendwie nutzbar wäre?
Wäre es nicht sinnvoll, wenn die Leistung von "RT HW" auch für Spiele ohne RT irgendwie nutzbar wäre?
Über normale Einheiten eben ... = Softwarelösung
Ach bei RT red ich besser nicht mit ^^
Interessiert mich eigentlich noch nicht und daher bin ich da auch nicht "up to date".
M.f.G. JVC
robbitop
2019-12-19, 12:55:15
@JVC
1. wie gesagt ist bei DX RT und für Vulkan eine API für HW RT Funktion vorhanden. Diese kann von jedem IHV mittels HW bedient werden. Wie auch für alles andere was die APIs abbilden. Da ist nichts Propertär. Die HW ist es. Aber der Rest der GPU ist auch propertär. Das liegt in der Natur der Sache. Jeder macht seine eigene Implementierung. Wichtig ist nur die Schnittstelle für und Endkunden damit es mehrere konkurrierende Lösungen für den Endmarkt gibt. Und das ist der Fall. Deine Sorge ist somit zum Glück unberechtigt. Und der Vergleich zum GSync Modul somit zum Glück nicht passend. :)
2. Ja HW RT ist bestätigt. Wie gesagt, auch AMD sitzt im Gremium für 3D APIs. Das Zeug ist also seit Jahren in der Mache. Andernfalls wäre es unmöglich dass 2020 schon HW dafür seitens AMD vorhanden wäre, wenn man erst auf Turing reagiert hätte. Turing war schlicht die erste uArch. Irgendwer ist mir irgendwas immer der erste. ;)
robbitop
2019-12-19, 12:57:40
Wäre es nicht sinnvoll, wenn die Leistung von "RT HW" auch für Spiele ohne RT irgendwie nutzbar wäre?
Das funktioniert so nicht. :)
Das war damals mit Pixelshadern ja ähnlich. Heute will sie keiner missen aber die Transistoren brachten nichts für DX7 Spiele. ;)
In ein paar Jahren wenn es zum Mainstream gehört und die Entwickler etwas Zeit hatten zu optimieren und Erfahrung zu sammeln wird auch von uns niemand mehr RT missen wollen.
@JVC
1. Diese kann von jedem IHV mittels HW bedient werden.
Da ist nichts Propertär. Die HW ist es.
Deine Sorge ist somit zum Glück unberechtigt. :)
Diese kann aber auch über Software bedient werden.
Jo, na, Heid jo, Morgn na ... *schertzchen* :biggrin:
Ich bin immer kritisch und mach mir immer sorgen ... Dein Wort in Gottes Ohr
2. Ja HW RT ist bestätigt.
Irgendwer ist mit irgendwas immer der erste. ;)
Ok, Danke :smile: muss ich suchen, oder hast du n Link zufällig parat?
Jo das kann NV, reinkrätschen mit ellbogeneinsatz ...
Als Markführer haben sie es aber auch wesentlich leichter damit.
Das war aber auch nicht immer hilfreich/gut für uns Konsumenten ...
M.f.G. JVC
BoMbY
2019-12-19, 13:18:56
Man wird die doch wohl auch regulär betreiben können, wenn man mehr Leistung haben möchte.
Ohnehin ist mir unklar, was es helfen soll mit 2 Chips dasselbe zu rechnen. Ist das Ergebnis unterschiedlich, weiß ich trotzdem welcher von beiden falsch gerechnet hat. Und dann? Notstop?
Ja, eigentlich wären drei sinnvoller. Aber diese Systeme sind halt designed für autonomes Fahren, und es werden immer die Ergebnisse von beiden verglichen, und nur bei Übereinstimmung gehandelt. Im Fall das es unterschiedliche Ergebnisse gibt sollte das System die Automatik abschalten, und den Fahrer warnen.
aufkrawall
2019-12-19, 13:25:37
Es gibt noch keine KHR-Extension für Vulkan-RT, ist noch in der Mache.
Das funktioniert so nicht. :)
Das war damals mit Pixelshadern ja ähnlich. Heute will sie keiner missen aber die Transistoren brachten nichts für DX7 Spiele. ;)
In ein paar Jahren wenn es zum Mainstream gehört und die Entwickler etwas Zeit hatten zu optimieren und Erfahrung zu sammeln wird auch von uns niemand mehr RT missen wollen.
Mmh, hatte noch folgende Meldung im Gedächtnis, dass AMD irgendwie eine Hybrid-Lösung aus Software und Textur-Prozessor plant.
Licht in Spielen: AMD patentiert eigene Raytracing-Technologie (https://www.computerbase.de/2019-07/amd-raytracing-patent/)
In dem Patent beschreibt AMD seinen hybriden Ansatz zur Berechnung von Raytracing auf den hauseigenen GPUs. Anders als Nvidia, die beim Thema Raytracing auf eine reine Hardwarelösung setzen, wird AMDs Lösung auf eine Kombination aus Software und Hardware basieren und soll Raytracing dadurch besser machen. Die Berechnung der Raytracing-Effekte soll mit den normalen Shader-Einheiten durchgeführt werden, welche allerdings durch einen Textur-Prozessor unterstützt werden sollen. Dieser spezielle Textur-Prozessor soll die Leistungseinbußen minimieren, die auf Grafikkarten ohne dedizierte Raytracing-Kerne auftreten.
BoMbY
2019-12-19, 14:00:27
Es gibt noch keine KHR-Extension für Vulkan-RT, ist noch in der Mache.
Ja, 8 Nov 2018:
Thanks for expressing your interest in realtime raytracing extensions in Vulkan.
We have formed a Vulkan Ray Tracing subcommittee to explore how to expose ray tracing in Vulkan, and the topic is under active discussion. This is a high priority for some members, and we have received design contributions from several hardware vendors and are reviewing feature requirements from software developers as inputs to the standardization process. As always, our priorities for new technology in Vulkan are driven by input from the Vulkan developer community and the broader Vulkan ecosystem.
-Daniel (Vulkan Ray Tracing Chair)
https://github.com/KhronosGroup/Vulkan-Docs/issues/686#issuecomment-437107651
Das letzte Update vom 4. Oktober 2019.
The last public update from the TSG was given at SIGGRAPH 2019.
See https://www.khronos.org/assets/uploads/developers/library/2019-siggraph/Vulkan-01-Update-SIGGRAPH-Jul19.pdf Slides 27-30
^ video: https://youtu.be/1fU4w2ZGxH4?t=1465
https://github.com/KhronosGroup/Vulkan-Docs/issues/686#issuecomment-538482022
https://github.com/KhronosGroup/Vulkan-Docs/issues/686#issuecomment-538484119
robbitop
2019-12-19, 14:19:31
Es gibt noch keine KHR-Extension für Vulkan-RT, ist noch in der Mache.
OK. Aber sie kommt und das ist das wichtige. :)
Bucklew
2019-12-19, 14:27:38
Über normale Einheiten eben ... = Softwarelösung
Funktioniert nicht.
Halte dich doch bitte aus Diskussionen raus, von denen du nicht den Hauch einer Ahnung hast. Danke.
pixeljetstream
2019-12-19, 17:06:25
JVC wie robbitop sagt ist die komplette Implementierung der APIs (Raster, raytracing, compute etc.) für alle großen Hersteller proprietär.
Nur weil manche open-source Treiber haben ist das HW Design nicht offen. Keiner der Hersteller stellt dir einfach Details der Umsetzung zur Verfügung, manche erlauben die Lizenzierung unter gewissen Rahmenbedingungen, aber im Prinzip kriegst du immer "das ganze" Paket und nie unit x von A und unit y von B, so funktioniert hw Design innerhalb der GPU nicht. Dafür ist der ganze Datenfluss zu kritisch dass er aufeinander abgestimmt ist.
x-force
2019-12-19, 17:57:27
Heute will sie keiner missen aber die Transistoren brachten nichts für DX7 Spiele. ;)
pixelshader mit dx7?
afaik hatte das meine geforce 256, aber das war hw t&l und kein pixelshader.
ich bin mir aber ziemlich sicher mit der karte das feature zu lebzeiten noch genutzt zu haben, ich meine das war quake 3.
pixeljetstream
2019-12-19, 18:04:48
die geforce256 hatte noch keine pixelshader, aber sie hatte konfigurierbare texture combiner, das reichte für das multi-texturing von quake 3 aus. Quake3's "shader" system basierte auf dem kombinieren von texturen mit fixen modi, was dann ohne hw support multi-passing und blending brauchte.
robbitop
2019-12-19, 18:26:23
pixelshader mit dx7?
afaik hatte das meine geforce 256, aber das war hw t&l und kein pixelshader.
ich bin mir aber ziemlich sicher mit der karte das feature zu lebzeiten noch genutzt zu haben, ich meine das war quake 3.
Genau das meinte ich ja. Programmierbare Pixelshader kamen mit DX8. Die HW dafür kam erstmalig bei NV20 (geforce 3) und R200 (Radeon 8500). Für DX7 brachten die Transistoren für die Pixelshader HW eben nichts.
HW TnL ist was anderes. Vor DX7 wurde die Transformation der Dreiecke vom 3d space in den 2d space von der CPU Erledigt. Die Geforce 256 (NV10) brachte dafür erstmals eine HW Einheit mit. DX7 und OGL brachten dafür eine entsprechende Schnittstelle. (Später übernahm der Vertexshader diese Aufgabe. Ab DX10 gab es in HW keine VS und PS mehr. Beides wurde in dann in HW kombiniert. Auch kamen ergänzende Shader später dazu.)
Zurvor sollten 3dnow und SSE bei der Beschleunigung dieser Aufgabe auf der CPU helfen (gab natürlich auch andere Anwendungszwecke). DX6.1 brachte dafür die entsprechende Schnittstelle mit.
Wie dem auch sei - das Prinzip ist überall ähnlich. Spezifische HW bringt erst nach dessen Unterstützung für eben diesen spezifischen Einsatzzweck etwas. Vorteil: spezifische HW ist in ihrem Usecase oft massiv schneller und energieffizienter als generelle.
x-force
2019-12-19, 18:55:10
ja ok, dann hatte ich dich falsch verstanden. diese art von henne-ei problemen hat man ja mit allem was neu ist. vgl cpu kerne und deren nutzung.
historisch betrachtet sollte man davon ausgehen, daß ampere deutlich mehr leistung in den neuen disziplinen bietet.
nvidia könnte ensprechende einheiten durchaus verdreifachen und in der darauf folgenden generation architekturverbesserungen bringen, weil man bis dahin weiß wo in der praxis die flaschenhälse liegen.
Über normale Einheiten eben ... = Softwarelösung
Funktioniert nicht.
https://www.youtube.com/watch?v=xlMcFfqsQqM
"Neon Noir - Real Time Software Based Ray Tracing On AMD GPUS! - SAPPHIRE NITRO+ RX 5700 XT"
https://www.youtube.com/watch?v=efOR92n9mms
Neon Noir: Crytek's Software Ray Tracing! How Does It Work? How Well Does It Run?
Auf die schnelle gefunden, es interessiert mich aber eigentlich noch nicht...
M.f.G. JVC
robbitop
2019-12-19, 21:38:37
das was Crytek da macht ist aber auch stark eingeschränkt im Vergleich zu dem was mit echtem HW RT geht. Trotzdem schon bemerkenswert was soe durch Trockserei möglich machten.
Was RT Speed angeht: ich glaube mit Erhöhen der RT Cores ist es nicht gemacht. Es gibt ne Menge an Interdependenzen mit den bestehenden Shadercores. Aber ggf lassen sich andere Dinge optimieren um die Geschwindigkeit stark zu erhöhen. Gemeinsam mit einer generellen Anhebung der Rohleistung.
Man muss auch konstatieren dass RT unglaublich aufwändig ist. Man lässt aktuell ja schon eine ganze Menge weg lässt (nur beschränkte Anzahl von Bounces, Anzahl von Rays pro Pixel - zum Kaschieren eine entsprechende Rauschunterdrückung). Es ist schon eine extrem bemerkenswerte Entwicklung dass man das im hybriden Ansatz überhaupt in dem Detailgrad in Echtzeit schafft.
Aber klar - die Entwicklung bleibt natürlich nicht stehen..
dargo
2019-12-19, 23:31:47
Was RT Speed angeht: ich glaube mit Erhöhen der RT Cores ist es nicht gemacht. Es gibt ne Menge an Interdependenzen mit den bestehenden Shadercores.
Wenn ich die früheren Ausführungen von pixeljetstream richtig verstanden habe ist es auch so. Vereinfacht ausgedrückt... ohne viel Shaderpower wenig RT-Power. Das wird u.a. auch der Grund sein warum RT nicht bei jedem Turing in HW zur Verfügung steht.
Setsul
2019-12-20, 00:56:23
@robbitop:
https://static.techspot.com/articles-info/1831/images/2019-04-16-image-2.png
Pascal Raytracing is auch "Software", also wieso sollte das stark einschränken?
Statt etwas mehr als die Hälfte der fps ohne RT bleiben eben nur etwas weniger als die Hälfte. Das hängt viel stärker an der Rohleistung als an irgendwas sonst und Rohleistung war bei AMD nie das Problem.
RT Cores sind keine magische Hardware. Das ist eher wie FP16. Zu 90% die gleiche Hardware und vielleicht Faktor 2 bei der Leistung. Sicherlich gut, löst aber das Problem nicht wenn einem Faktor 4 zu realtime fehlt. Deshalb sind alle Raytracing-Implementierungen momentan sehr eingeschränkt.
pixeljetstream
2019-12-20, 01:39:39
Der Faktor der RT cores ist deutlich höher als 2x wenn es nur um die Tracing Leistung geht. Bei q2 rtx wo deutlich mehr strahlen geschossen werden, bei einfachen surface shadern, sieht man das zum Beispiel auch stärker. Imo werden BFV und SOTTR immer ein bisschen darunter leiden "die ersten" gewesen zu sein.
Der Vergleich mit fp16 ist nicht so optimal, weil fp16 Instruktionen mit fixer Laufzeit sind, während RT cores async laufen. Das ist ähnlich wie ne texture unit die nach einer Anfrage je nach Cache Situation die Werte Mal schneller oder langsamer zurückgeben kann.
Leonidas
2019-12-20, 06:02:35
Genau das meinte ich ja. Programmierbare Pixelshader kamen mit DX8. Die HW dafür kam erstmalig bei NV20 (geforce 3) und R200 (Radeon 8500). Für DX7 brachten die Transistoren für die Pixelshader HW eben nichts.
Jup. Damals gab es gut und gern Fälle, wo die GeForce 3 langsamer als eine GeForce 2 Ultra war - für die damaligen Entwicklungsfortschritte ein Sakrileg. Aber schon ein Jahr später hat die GeForce 3 mit aller DX7-HW den Boden geputzt bei neueren Spielen.
Bucklew
2019-12-20, 09:56:07
"Neon Noir - Real Time Software Based Ray Tracing On AMD GPUS! - SAPPHIRE NITRO+ RX 5700 XT"
Neon Noir: Crytek's Software Ray Tracing! How Does It Work? How Well Does It Run?
Es war schon klar, dass du keine Ahnung hast, du musst es nicht nochmal extra belegen. Also halte dich doch bitte aus der Diskussion raus und informiere dich erstmal über Raytracing, bevor du weiter das Forum mit Nonsense zu spammst.
RT Cores sind keine magische Hardware.
Niemand spricht von Magie, es ist schlicht Fixed-Function Einheiten.
Wie gut das funktioniert sieht man z.B. an den Video En- bzw. Decodern. Da will auch niemand mehr drauf verzichten und dafür 100W an Shaderpower drauf ballern - was auch problemlos möglich wäre.
Troyan
2019-12-20, 10:06:14
DXR ist Software. Daher ist es schon dämlich darüber zu reden, man könne Raytracing auch über Shader realisieren, wenn dies genau bei Pascal mit DXR geschieht.
dargo
2019-12-20, 10:06:32
Der Faktor der RT cores ist deutlich höher als 2x wenn es nur um die Tracing Leistung geht. Bei q2 rtx wo deutlich mehr strahlen geschossen werden, bei einfachen surface shadern, sieht man das zum Beispiel auch stärker. Imo werden BFV und SOTTR immer ein bisschen darunter leiden "die ersten" gewesen zu sein.
Der Vergleich mit Quake 2 RTX hinkt imho. Dort wird kaum Shaderpower beim Rasterizer gefordert, ergo kann man sich mehr Strahlen bei RT leisten. Imho sollten wir uns auf aktuelle und neue Games die erst kommen konzentrieren und nicht solche alten Schinken wie Quake 2. Die nächste "Spaßbremse" sehe ich bei den kommenden Konsolen. Dort wird garantiert auch die Anforderung der Shaderpower einiges steigen, ganz ohne RT.
@robbitop:
https://static.techspot.com/articles-info/1831/images/2019-04-16-image-2.png
Pascal Raytracing is auch "Software", also wieso sollte das stark einschränken?
Statt etwas mehr als die Hälfte der fps ohne RT bleiben eben nur etwas weniger als die Hälfte. Das hängt viel stärker an der Rohleistung als an irgendwas sonst und Rohleistung war bei AMD nie das Problem.
Das konnte man schon an Volta @Titan V ganz gut erkennen. Je nach Implementierung kann die Titan V ohne RT-Hardware mit der RTX 2080 bis 2080S mithalten.
https://www.overclock3d.net/news/gpu_displays/no_nvidia_s_titan_v_is_not_equal_to_the_rtx_2080_ti_when_ray_tracing_battlefield _v/1
Bucklew
2019-12-20, 10:14:45
wenn dies genau bei Pascal mit DXR geschieht.
Dann müsste man ja - angesichts der Pascal-Performance - sofort auch die Konsequenz ziehen, dass es ohne spezielle Einheiten wie RT Cores nicht funktioniert :ugly:
dildo4u
2019-12-20, 10:22:23
PCGH hatte doch mal ein extrem beeindruckendes Metro Video,schätze mal mit ein Grund warum AMD DXR immer noch nicht unterstützt sie warten vermutlich auf RDNA2.
https://youtu.be/v16Fb8jSPc8?t=185
pixeljetstream
2019-12-20, 10:34:52
Der Vergleich mit Quake 2 RTX hinkt imho. Dort wird kaum Shaderpower beim Rasterizer gefordert, ergo kann man sich mehr Strahlen bei RT leisten. Imho sollten wir uns auf aktuelle und neue Games die erst kommen konzentrieren und nicht solche alten Schinken wie Quake 2. Die nächste "Spaßbremse" sehe ich bei den kommenden Konsolen. Dort wird garantiert auch die Anforderung der Shaderpower einiges steigen, ganz ohne RT.
Ich verstehe die Antwort nicht ganz.
Mein Argument ist, dass fixed function blocks wie rt core oder der rasterizer oder texture de compression etc. alle deutlich effizienter als Faktor 2x sind in dem was sie tun.
Der Hinweis auf q2rtx ist im Zusammenhang mit der Leistung von RT cores gegenüber einer Implementierung die nur generischen compute Code nutzt. Ohne mehr Strahlen zu schießen kann man nicht die Effizienz vergleichen. Wenn du performance von rasterizer vergleichen willst nimmst du auch Szenen mit viel Geometrie und wenig shading, hohe Auflösung/msaa.
Diese Aussage hat nix mit dem "großen ganzen" zu tun, welches immer von einer Vielzahl von Faktoren beeinflusst wird und damit die Stärke einzelner Units je nach Szenario relativiert wird. Das ist aber bei allem so.
Irgendwas ist immer der limiter.
https://developer.nvidia.com/sites/default/files/GPUTraceNew.png
Die Graphen sind ziemlich bunt (mehrere Subsysteme werden unterschiedlich belastet) ;)
Die Motivation für RT cores ist zu sagen, dass vorher halt die Limitierung raytracing mit shadern zu machen stark am Tracing selbst lag. Reduziert man dies durch hw, werden andere Faktoren nun stärker zum limiter. Aber man hat dennoch ne Hürde genommen, und das Gesamtbild wird idealerweise ausgewogener. Grundsätzlich wird die HW immer weiter entwickelt mit generischen workloads besser umzugehen. Nur sind hier nicht magische 5x oder so drin, daher die spezialisierten Units.
robbitop
2019-12-20, 10:37:15
Je nach Implementierung ist der Lastfall anders gelagert. Viele firt gen Titel setzen RT noch sehr sparsam ein. Wenige Rays, begrenzte Anwendungsbereiche. Control nutzt es als modernes AAA Spiel noch am meisten. Quake RTX verscheißt wahrscheinlich noch die meisten Strahlen - aber wie dargo schon schrieb wenig Arithmetische klassische Shaderlast.
Ich bin mir ziemlich sicher, dass mit zunehmender HW Leistung es immer stärker eingesetzt werden wird. Und desto größer wird die Spreizung der Performance zur Softwarelösung.
dargo
2019-12-20, 10:39:13
PCGH hatte doch mal ein extrem beeindruckendes Metro Video,schätze mal mit ein Grund warum AMD DXR immer noch nicht unterstützt sie warten vermutlich auf RDNA2.
https://youtu.be/v16Fb8jSPc8?t=185
Dieser Vergleich ist für die Diskussion nicht besonders zielführend. Wenn man schon als Basis die 2060 nimmt kann man schlecht die 1660TI als Vergleich für RT-Performance ohne RT-Hardware nehmen. Die 2060 hat schon alleine 20% mehr Shaderpower. In BFV sieht man bsw., dass die 2060 rund 50% schneller als die 1060TI ist. Wie es mit den Caches zwischen den beiden ausschaut weiß ich jetzt nicht. Große Caches helfen aber bei RT afaik auch. Bei gleicher Shaderpower dürfte die Graka der gleichen Architektur (wenn man es jetzt von dem Ergebnis in BFV und der 2060 ableitet) rund 20% schneller sein. Sprich... mit 20-25% mehr Shaderpower erreichst du die selben Frameraten ohne RT-Hardware.
Als Anhaltspunkt für das Rechenbeispiel habe ich diese Szene genommen.
https://abload.de/thumb/bfvrsk55.jpg (https://abload.de/image.php?img=bfvrsk55.jpg)
Viel interessanter wäre hier also der Vergleich RTX 2070(S) ohne Benutzung der RT-Hardware vs. RTX 2060 mit Verwendung der RT-Hardware. ;) Ich weiß nur nicht ob man bei RTX Turing die Software überlisten kann, dass die RT-Hardware nicht verwendet wird. Wahrscheinlich wird Nvidia sowas schon unterbieten wollen... aus Gründen. ;)
PS: die Rechnung wird natürlich in der Szene von Metro Exodus nicht aufgehen. Dafür ist die Leistung ohne RT-Hardware viel zu schlecht. Bei SotTR wird man auch mehr Shaderpower ohne RT-Hardware brauchen um gleiche Performance zu liefern. Hängt halt alles von der jeweiligen RT-Implementierung ab.
Ich verstehe die Antwort nicht ganz.
Eigentlich ganz einfach... nimm bei einem aktuellen Game mehr Strahlen etc. und schon hast du trotz RT-Hardware eine Diashow. Es gibt schon gute Gründe warum aktuell RT noch so sparsam eingesetzt wird.
Ex3cut3r
2019-12-20, 10:54:26
Ja genau, deswegen ist eine RTX 2080 einfach mal über 80% schneller als eine 1080Ti in Metro Exodus mit RT. Dargos Logik: RT Cores gleich vollkommen überflüssig. RT über die Shader Leistung. = Holy Grail. :freak:
6W8_NRVCJS0
robbitop
2019-12-20, 11:00:07
Ich weiß nicht, ob das sein Punkt ist. Das wäre nämlich ein äußerst engstirniger, kurzsichtiger und ehrlich gesagt hirnloser Punkt. Das sähe dargo mMn nicht ähnlich (auch wenn er manchmal ein wenig dickköpfig ist :D).
Von 1st Gen darf man nicht zu viel erwarten. Es gibt immer eine Pionierphase.
Hätte man 2001 fette lange Shader verwendet, wäre die GF3 auch dolle eingebrochen. -> Shader doof/sinnlos?
Man muss den Anwendugsfall natürlich so lagern so dass er zu der HW passt.
Ich gehe jede Wette ein, dass mittelfristig niemand mehr HW RT missen wollen wird.
Bucklew
2019-12-20, 11:07:11
Ich weiß nicht, ob das sein Punkt ist. Das wäre nämlich ein äußerst engstirniger, kurzsichtiger und ehrlich gesagt hirnloser Punkt. Das sähe dargo mMn nicht ähnlich (auch wenn er manchmal ein wenig dickköpfig ist :D).
20% Vorsprung für die RT Cores ist auf jeden Fall mal ne ziemlich dämliche Aussage von dargo. Zumal es mehr als genug Vergleiche gibt - siehe Executor - von Turing vs. Pascal mit vergleichbarer Shaderpower gibt.
dargo
2019-12-20, 11:08:43
Ja genau, deswegen ist eine RTX 2080 einfach mal über 80% schneller als eine 1080Ti in Metro Exodus mit RT. Dargos Logik: RT Cores gleich vollkommen überflüssig. RT über die Shader Leistung. = Holy Grail. :freak:
https://youtu.be/6W8_NRVCJS0
Erst Kopf einschalten, dann posten. Hat die 1080TI die gleiche Shaderpower wie die 2080Ti? :rolleyes: Dabei nicht die nackten TFLOPs vergleichen, das bringt nichts. Turing TFLOPs sind effizienter als Pascal TFLOPs. Nichts anderes als RDNA TFLOPs vs. GCN TFLOPs. Hat sie die gleich großen und schnellen Caches? Selbst bei deiner Unverhältmäßigkeit steht die 1080TI ohne RT-Hardware in deinem Video gar nicht mal so katastrophal da bei Metro Exodus, zumindest in einzelnen Szenen. Schließlich wurde dort RT-Ultra verwendet. Mit RT-Low sollte der Unterschied kleiner ausfallen. Momentan ist ein fairer Vergleich no RT-Hardware vs. RT-Hardware schwierig da bei Turing RTX Hardware automatisch auch mehr Shaderpower hat. Man könnte dem aber entgegenwirken indem man zb. die 2060 auf die Shaderpower einer 1660TI runtertaktet. Dann bleibt aber immer noch die Frage nach den Caches. Zudem weiß ich nicht wie groß der Einfluss der Bandbreite auf RT-Leistung ist. Auch das muss man eventuell berücksichtigen.
Ich weiß nicht, ob das sein Punkt ist. Das wäre nämlich ein äußerst engstirniger, kurzsichtiger und ehrlich gesagt hirnloser Punkt. Das sähe dargo mMn nicht ähnlich (auch wenn er manchmal ein wenig dickköpfig ist :D).
In diesem Forum muss man penibel aufpassen was man schreibt. Siehst du ja... ich schreibe was von BFV dann kommt einer mit Metro Exodus daher. :freak: Deshalb den Post oben ergänzt.
Ich gehe jede Wette ein, dass mittelfristig niemand mehr HW RT missen wollen wird.
Ist das nicht irgendwo selbstverständlich? Irgendwann kommt halt der Punkt, dass Beleuchtung, Schatten etc. nur noch über RT in Games realisiert werden. Welche Wahl hätte man dann? :wink: Die interessanteste Frage ist eher wieviele Jahre werden vergehen bis RT-Hardware Pflicht ist weil es gar keine andere Methode gibt?
Bucklew
2019-12-20, 11:14:18
Erst Kopf einschalten, dann posten.
Ja bitte halte dich daran.
Wo hat eine 1080Ti denn 80% weniger Shaderpower als eine 2080Ti? Sind doch eher so 20%? :cool:
Gleiche Architektur passt dir bei Turing vs. Turing auch nicht.
dargos Meinung steht eben fest, 20% sind es nur, man solle ihn da doch bitte nicht mit Fakten kommen!
Selbst bei deiner Unverhältmäßigkeit steht die 1080TI ohne RT-Hardware in deinem Video gar nicht mal so katastrophal da bei Metro Exodus
Video: 17 vs. 84 FPS - fast 5x schneller die 2080Ti bei gerade mal 20% mehr Shaderleistung ;D ;D
gbm31
2019-12-20, 12:17:19
Ich weiß nicht, ob das sein Punkt ist. Das wäre nämlich ein äußerst engstirniger, kurzsichtiger und ehrlich gesagt hirnloser Punkt. Das sähe dargo mMn nicht ähnlich (auch wenn er manchmal ein wenig dickköpfig ist :D).
Von 1st Gen darf man nicht zu viel erwarten. Es gibt immer eine Pionierphase.
Hätte man 2001 fette lange Shader verwendet, wäre die GF3 auch dolle eingebrochen. -> Shader doof/sinnlos?
Man muss den Anwendugsfall natürlich so lagern so dass er zu der HW passt.
Ich gehe jede Wette ein, dass mittelfristig niemand mehr HW RT missen wollen wird.
Eben. Siehe Voodoo1, Geforce256, Geforce3. Ist doch nichts neues jetzt...
pixeljetstream
2019-12-20, 12:18:53
Eigentlich ganz einfach... nimm bei einem aktuellen Game mehr Strahlen etc. und schon hast du trotz RT-Hardware eine Diashow. Es gibt schon gute Gründe warum aktuell RT noch so sparsam eingesetzt wird.
Ich glaube wir reden aneinander vorbei, in der letzten Antwort schrieb ich ja dass das "große Ganze" von vielen Faktoren abhängt, weswegen es natürlich nicht die RT cores alleine sind. Das ändert aber nix an der Tatsache dass die RT cores selbst das tracen (ohne shading) deutlich effizienter machen, was ja Kern meiner Aussage war. Ersetze RT cores mit rasterizer und Du hast den gleichen Sachverhalt. Mehr rasterizer bringen Dir nix wenn Du shading bound bist, gleichzeitig geht es ohne sie nachwievor nicht, denn das Problem in compute zu lösen wäre auch nachwievor noch deutlich zu ineffizient, und wir sind jetzt an dem Punkt weil damals es auch Firmen wagten die "profi technik hw rasterization" in den consumer markt zu bringen. Jeder Titel beansprucht die Hardware anders, es gibt immer Teile die mal über- und mal unterdimensioniert sind. Je neuer die Titel sind, desto mehr Erfahrung konnte schon einfließen, was die Nutzung der RT apis angeht, weswegen es fair und logisch ist dass einige hier auf die Unterschiede in neueren Titeln verweisen.
Deine Kritik dass man keine Wahl mehr hat ist imo unbegründet, gerade die Verbesserungen in der generischen Leistung ermöglichen ja erst diese Fortschritte, man analysiert was sind elementare Operationen (die man vorher eben anders umsetzt) und gießt das dann wegen der Effizienz in HW. Es herrscht aber nirgends Stillstand.
dargo
2019-12-20, 12:29:09
Deine Kritik dass man keine Wahl mehr hat ist imo unbegründet...
Ich kann dir hier nicht folgen. Auf was beziehst du dich hierbei?
Geächteter
2019-12-20, 12:58:32
Eben. Siehe Voodoo1, Geforce256, Geforce3. Ist doch nichts neues jetzt...
Einziger Unterschied damals, Silizium noch recht unverbraucht und noch masssig Luft im TDP-Fenster. Beides sorgte für gute, garantierte und leicht erreichbare jährliche Leistungssprünge.
Heute stockt es gewaltig und die Preisschraube dreht sich auch andesrum.
pixeljetstream
2019-12-20, 13:01:10
Welche Wahl hätte man dann? ;)
Das in der Kombination damit dass es sich für mich so ließt als würdest Du den Einsatz von RT cores für nicht sinnvoll halten.
Allerdings fällt es mir auch schwer Deinen Standpunkt wirklich zu verstehen. Wenn Du grundsätzlich für den Einsatz von spezieller Hardware bist (Du meinst nun es wird irgendwann Pflicht) und auch an die Zukunft von mehr RT Effekten in diesem Markt glaubst, dann ist doch die Antwort immer das Einsatz von spezial hardware möglichst früh sinnvoll ist? Weil ohne sie wird jeder Strahltest die Gesamtauslastung des Systems deutlich mehr beeinflussen, als ohne sie. Mit ihr kann man sich dann besser auf den "Rest" konzentrieren.
dargo
2019-12-20, 13:20:13
Das in der Kombination damit dass es sich für mich so ließt als würdest Du den Einsatz von RT cores für nicht sinnvoll halten.
Dann musst du was falsch verstanden haben. :) Mein Standpunkt ist der, dass je nach Implementierung (Beispiel BFV) manchmal sogar eine Leistungsstufe höher bei der Grafikkarte reicht damit es ohne RT-Hardware mit vergleichbarer Framerate läuft. Wenn nicht bei RT-Ultra dann halt bei RT-Medium bis Low. Grundsätzlich finde ich aktuell die Kosten der RT-Implementierungen zu hoch für das Gebotene. Und da schiele ich nicht auf irgendwelche 2080TIs für >1000€ sondern auf Grafikkarten die die Masse interessieren. Also der Bereich von 200-400€. Bei Turing ist es sogar so, dass unterhalb der 2060 dem Käufer RT-Hardware verwehrt blebt. Das sagt eigentlich schon alles. Die Zeit ist einfach noch nicht für die Masse reif.
btw.
Nicht, dass wir uns falsch verstehen. Ich persönlich finde die Kosten für 4k vs. 1440p ohne RT auch zu teuer. Mit 1440p + gutem TAA samt Schärferfilter erzielt man auch schon günstig sehr gute Ergebnisse. Es ist also nicht so, dass ich das ganze nur auf RT runter brechen würde. :)
Grundsätzlich finde ich aktuell die Kosten der RT-Implementierungen zu hoch für das Gebotene.
+1 :up:
M.f.G. JVC
y33H@
2019-12-20, 13:27:42
Du sagst selbst von RT keine Ahnung zu haben und dich nicht dafür zu interessieren, dafür postest du ziemlich oft in entsprechenden Threads :freak:
Du sagst selbst von RT keine Ahnung zu haben und dich nicht dafür zu interessieren, dafür postest du ziemlich oft in entsprechenden Threads :freak:
Hab ich mich vertan und das ist der "Real-time RayTracing-Thread" ?
Natürlich interessiere ich mich für einen möglichen Nachfolger meiner 1080Ti.
M.f.G. JVC
P.s.: SRY, falls nicht Ich gemeint war.
gnomi
2019-12-20, 13:53:48
Das Problem ist imho einfach dieses (ab)urteilen, ohne entsprechend Hardware zu haben.
Der Gast hat es finde ich zuletzt gut auf den Punkt gebracht.
Die Nutzbarkeit ist eben sogar erfreulich gegeben.
Anschaffungspreise 2018 waren unschön, aber früher hat man sich schon mal über weniger bahnbrechende Features gefreut und auch keine TI @ Launch bekommen. (wenngleich irre teuer!)
Auch wird verstärkt beim RTX Support mehr geleistet und optimiert.
Und das Nachschieben der Super Karten hat die Preise jetzt auch etwas gedrückt. Falsch war das ja auch nicht.
Eine 2070 Super zu 500 Euro schlägt nun eine 1080TI in modernen Spielen und kostet um die 500. Ist natürlich nicht der Hammer, aber AMD hat eben auch 2019 nichts schnelleres.
Wer zum Beispiel eine 1070 oder drunter hat, bekommt wenigstens 50% und mehr Performance.
Turing ist gar nicht so verkehrt. Bzw. wird Pascal mit mehr DX 12,Vulkan und RTX langsam verkehrter... :wink:
Setsul
2019-12-20, 13:59:21
@pixeljetstream:
Der Punkt ist man braucht die Hardware nicht. Keiner wird nein sagen zu mehr Leistung aber man kann ohne RT Cores das gleiche machen wie mit, genauso wie bei FP16.
Q2 ist ein sehr schlechtes Beispiel weil das so wenig Leistung braucht dass wirklich 99% der Last Raytracing ist. Davon sind wir in aktuellen Spielen weit entfernt wenn man mehr als 5 fps will, RT Cores hin oder her. Mal nebenbei hat Intel 2007 schon Quake 4 mit Raytracing auf der CPU demonstriert. Also das ist alles nicht repräsentativ.
@topic:
Raytracing ist momentan so wie 4K. Solange man sich entscheiden muss zwischen fps oder Qualität kann es nicht "Pflicht" werden. RT oder 4K mit akzeptablen fps bedeutet so niedrige Qualität dass es ohne besser aussieht. RT oder 4K mit besserer Qualität als konventionell bzw. 1080/1440p bedeuten unspielbare fps. Ich bezweifle stark dass die RT Cores von nVidia so unausgereift sind dass sich die Leistung in der nächsten Generation verzehnfacht.
Interessant wird es dann wenn mit einer Midrange Karte ein paar RT Features in vernünftiger Qualität anschalten kann ohne dass es zur Diashow wird. Dann macht RT HW den Unterschied ob man eine 200€ GPU oder eine 500€ GPU braucht. Aber solange 97% der Nutzer inklusive Konsolen nichts damit anfangen können sind RT Cores ziemlich nutzlos.
Die große Frage ist ob und wieviel RT bei den next-gen Konsolentiteln zum Einsatz kommt und ob die Hardwareunterstützung mitbringen.
robbitop
2019-12-20, 14:29:59
Ich bin gerade bei dir überrascht über diese Sichtweise. Sonst stellst du alles nüchtern, objektiv und differenziert auf. IMO ist deine Darstellung nicht falsch - aber auch sehr einseitig.
Vieles ist ohne FF Einheiten eben zu langsam. Wenn man RT will, muss es in Echtzeit machbar sein und einen optischen Mehrwert. Irgendwelche CPU Demos oder SE Emulation die nochmal eine Stufe langsamer ist wird nicht dazu führen, dass sich das ganze durchsetzt. Der Punkt war nun in 2018 möglich. Und ich glaube nicht, dass wenn es sich erst durchgesetzt hat es jemand missen will.
Wozu braucht man noch mehr Auflösung? Spiele werden dadurch kaum noch hübscher. TAA und andere Rekonstruierubfsverfahren ist heutzutage schon sehr sehr gut.
Nochmal ein richtiger optischer Sprung - da ist RT definitiv eine von mehreren Möglichkeiten.
Legacy Software ist eh schnell genug auf heutigen GPUs.
Der Fakt, dass es auch in Konsolen und AMD HW Einzug halten soll zeigt, dass der Großteil der Branche es auch so sieht.
pixeljetstream
2019-12-20, 14:34:19
@pixeljetstream:
Der Punkt ist man braucht die Hardware nicht. Keiner wird nein sagen zu mehr Leistung aber man kann ohne RT Cores das gleiche machen wie mit, genauso wie bei FP16.
Q2 ist ein sehr schlechtes Beispiel weil das so wenig Leistung braucht dass wirklich 99% der Last Raytracing ist.
Imo ist das ein Widerspruch: zu sagen RT cores bringen keinen Vorteil, gleichzeitig zu sagen dass die Titel die massiv Raytracing einsetzen und damit die Vorteile der HW Lösung zeigen, kein gutes Beispiel sind?
Welchen Titel/Benchmark würdest Du nehmen um die Vorzüge von HW Rasterisierung aufzuzeigen? Ein aktuelles Spiel, oder einen Benchmark der in erster Linie bei der Rasterisierung limitiert ist, und nicht anderen Teilen. Shadow map pass, CAD Geometrie etc.?
Es sind hier zwei Themen die aus irgendeinem Grund vermischt werden. Das eine ist, dass manchen RT Effekte in den aktuellen Titeln zu viel Leistung kosten für dass was sie liefern. Darüber würde ich nicht streiten, weil das halt auch viel subjektiv ist. Genau wie Dargo die 4k Diskussion erwähnte, mancher will es, mancher nicht. Ich hab privat ne 1080 und die ps4pro, das reicht mir für das was ich spiele.
Daneben ist dann die Diskussion wie man die Qualität der Titel erhöht, und es mit den RT Effekten in den Mainstream schafft. Ob dafür spezielle Hardware nötig ist oder nicht etc. Allerdings höre ich von den Kritikern mehr zum ersten Punkt als zum zweiten. Sprich wie wäre denn die Herangehensweise an das Thema "besser"? Warten bis die Konkurrenz als erster Teile in HW gießt ;)? Woher kommt die Erkenntnis die Hardware zu bauen die dann im Mainstream landet (150 Watt)?
Es klingt für mich extrem konservativ zu sagen, nur nix ändern. Wie soll eurerer Meinung nach der Fortschritt hierfür erzielt werden, was hättet ihr in HW umgesetzt?
Setsul du schreibst selbst dass die RT cores schon halbwegs ordentlich designt sein werden...
Troyan
2019-12-20, 14:48:31
Die Diskussion über die benötigte Leistung ist doch lächerlich. In Control und Deliver us the Moon werden Effekte geboten, die ohne Raytracing nicht möglich sind. Wie soll man hier den Leistungseinbruch bewerten? Vernünftige Schatten haben schon immer viel gekostet - siehe PCSS/HFTS und Co. Mit Raytracing gibt jetzt noch bessere Qualität mit der gleichen benötigten Leistung.
Mit DLSS in Deliver us the Moon sind auch Frames kein Thema mehr. Und Ampere wird mehr Leistung liefern.
dargo
2019-12-20, 14:52:18
Der Fakt, dass es auch in Konsolen und AMD HW Einzug halten soll zeigt, dass der Großteil der Branche es auch so sieht.
RT in Hardware bestellt Sony/Microsoft, nicht der/die Spieleentwickler. Nur weil RT in Hardware kommen soll heißt es noch lange nicht, dass ab Release alle Spiele mit RT kommen. Das ist ein schleichender Prozess. Und eine Konsole hat eine Lebenszeit von etwa 5+ Jahren. Das ist mit Desktop GPUs nicht unbedingt vergleichbar. Auch ist es fraglich ob RT in den Konsolen 2020 intensiv zum Einsatz kommt. Ich zweifle daran noch wenn ich mir die geleakten Daten so anschaue.
Imo ist das ein Widerspruch: zu sagen RT cores bringen keinen Vorteil, gleichzeitig zu sagen dass die Titel die massiv Raytracing einsetzen und damit die Vorteile der HW Lösung zeigen, kein gutes Beispiel sind?
Ich sehe da keinen Widerspruch solange die RT-Performance von viel Shaderpower abhängig ist. Die Quake 2 Demo ist eventuell nettes Marketing für die Zukuft, aber sicherlich nicht für das hier und jetzt. Aber vielleicht kannst du mir erklären warum Nvidia bei TU116/117 RT in Hardware gestrichen hat? Schließlich hätte NV weiter nach unten skalieren können.
Daneben ist dann die Diskussion wie man die Qualität der Titel erhöht, und es mit den RT Effekten in den Mainstream schafft. Ob dafür spezielle Hardware nötig ist oder nicht etc. Allerdings höre ich von den Kritikern mehr zum ersten Punkt als zum zweiten. Sprich wie wäre denn die Herangehensweise an das Thema "besser"? Warten bis die Konkurrenz als erster Teile in HW gießt ;)?
Das ist eigentlich ganz einfach. Die treibenden Kräfte sind nach wie vor Sony und MS mit ihren Konsolen. Dort sind die Entscheidungsträger was wir in zukünftigen Games sehen werden. Das mag den einen oder anderen eingefleischten PC-ler schmerzen, es ist aber nunmal Fakt.
pixeljetstream
2019-12-20, 15:04:03
RT in Hardware bestellt Sony/Microsoft, nicht der/die Spieleentwickler.
Und wer beeinflusst Sony/MS bei dieser Entscheidung? Glaubt ihr nicht dass die selbst genug Austausch mit Spezialisten haben, Sony mit seinen Studios etc. Es ließt sich echt so als würdest Du glauben, dass die Entscheider keine Ahnung haben, obwohl die das schon Jahrzehnte machen, bzw. Leute haben die das tun.
Ich komme auch nicht ganz mit dem hin und her mit. Du benutzt erst Sony/MS als Gegenargument (nach dem Motto die Bosse haben RT hw entschieden), dann als Argument für RT?? weil die Konsolen ja treibend sind wie die Games entwickelt werden.
dargo
2019-12-20, 15:11:51
Und wer beeinflusst Sony/MS bei dieser Entscheidung?
Beeinflussen ist hier die falsche Wortwahl. Vorschläge kann man aus Entwicklerkreisen sicherlich machen. Was im Endeffekt rein kommt entscheidet immer noch Sony und MS selbst. Natürlich mit Absprache mit dem Fertiger, in dem Fall AMD was für Budget X machbar ist. Wenn das so einfach mit dem Beeinflussen wäre hätten die nächsten Konsolen 64GB Speicher. Jedenfalls würde das sicherlich gravitationsfeld sehr begrüßen. ;)
robbitop
2019-12-20, 15:18:31
Man hätte 2001 auch locker eine GF3 mit 8 Pixelpipelines zum gleichen Transistorbudget ohne programmierbare PS/VS machen können. Doppelte Rohleistung für Bestandsspiele. Ein Glück hat man es nicht getan. IMO ähnliche Situation.
Gleiches gilt auch für alle nachfolgenden Technologiestufen für beide IHVs. Die kosten halt Transistoren die ohne explizite Unterstützung brach liegen.
Es ist aber ärgerlich, dass die Fortschritte in der Fertigungstechnologie relativ zu den 90ern und 2000ern so nachgelassen haben. Ansonsten hätte man ratz-fatz wieder einen schönen großen fühlbaren Sprung.
BlacKi
2019-12-20, 17:49:29
PCGH hatte doch mal ein extrem beeindruckendes Metro Video,schätze mal mit ein Grund warum AMD DXR immer noch nicht unterstützt sie warten vermutlich auf RDNA2.
https://youtu.be/v16Fb8jSPc8?t=185
da bin ich aber mal auf big navi gespannt, n10 x1,5 + RT shader
500mm² 7nm chip incomming?:freak:
dargo
2019-12-20, 18:04:28
Und was verwundert dich jetzt daran? Vor allem wo TU102 schon in 12nm 754mm² groß ist? Viel mehr würde ich mir Sorgen machen wie NV die Leistung beim Nachfolger groß steigern will um in diese ~500mm² erstmal reinzupassen. Sollte eine 3800TI in 7nm weiter >700mm² werden sehe ich eher 1.500+€ incoming. :freak:
Setsul
2019-12-20, 18:33:40
@robbitop:
Der Punkt ist dass der Großteil eben auch mit RT Cores noch nicht in Echtzeit machbar ist. Zumindest nicht in einer besseren Qualität als ohne Raytracing.
@pixeljetstream:
Das ist kein Widerspruch. Irgendeine Demo in der man nur einen rotierenden Würfel raytraced und mit RT Cores 70000 fps statt 10000 fps bekommt ist eben nicht repräsentativ.
Raytracing braucht einfach an sich so viel Leistung, dass momentan der Effekt von Hardware dafür wesentlich weniger spürbar ist, weil wir uns nur einen kleinen Anteil an RT leisten können. Wenn man ein Spiel das nicht Quake 2 o.ä. ist komplett auf RT umstellt dann bringen auch RT Cores nichts mehr weil ob 1 oder 5 fps ist auch egal. Andererseits wenn RT nur minimal für ein paar Effekte zum Einsatz kommt merkt man auch wenig, ob man jetzt 68 fps oder 62 fps statt 70 fps bekommt wenn man den Effekt anschaltet ist nicht so wichtig.
Momentan treffen sehr wenige Spiele genau einen Punkt dazwischen wo ohne RT Cores die Performance inakzeptabel ist, aber mit RT Cores es einigermaßen zu verschmerzen ist.
Das ganze skaliert mit der Rohleistung und momentan ist die Situation übertrieben gesagt eher so dass man ohne RT z.B. 80 fps bekommt, mit RT in hoher Qualität aber ohne RT Cores nur 20 fps, mit RT und RT Cores 40 fps, was immer noch keiner will, und mit RT in niedriger Qualität die nicht besser aussieht als ohne 60 fps. Interessant wirds dann wenn sich die Rohleistung sagen wir mal verdoppelt oder verdreifacht hat und RT in hoher Qualität ohne RT Cores von 80 auf 40 fps drückt aber mit RT Cores noch 60 fps bleiben.
Nebenbei ist es auch naiv anzunehmen dass mit der Zeit alles auf RT umgestellt wird. Gerade für Realtime ist 90% der Qualität bei 25 oder 50% des Rechenaufwandes immer eine Überlegung wert.
Ich denke bei Turing werden die RT Cores für den Nutzer immer eine Spielerei bleiben. Für Entwickler ist es vielleicht interessant um sich mit der Hardware vertraut zu machen, aber bei viel RT geht Turing immer noch in die Knie. Viel wichtiger als Hardware ist jetzt erstmal rauszufinden wo Raytracing deutliche Qualitätsvorteile bringt (nicht "wir können in 3 von 10 Screenshots den Unterschied erkennen") und Implementierungen die nicht 10 mal so viel Leistung fressen wie ohne RT.
Dann kann man auch wieder an der Hardware arbeiten. Wie soll man denn die perfekte Hardware für eine Workload entwickeln, von der noch keiner eine Ahnung hat wie sie aussieht?
Die nächste Frage ist dann natürlich wieviel hat nVidia bis jetzt gelernt um bei Ampere Verbesserungen einzubauen? Wenn man bedenkt wann die Entwicklung angefangen haben muss, muss ich vermuten "nicht viel".
AMD wird wahrscheinlich auch Hardware liefern und im Laufe der nächste Konsolengeneration wird man dann herausfinden welche Software-Implementierungen gut sind und welche eher weniger, was sich mit der Hardware gut beschleunigen lässt und was weniger, welche Vorteile jeweils die Hardware von nVidia und AMD hat und welche Änderungen nützlich wären.
Deshalb denke ich dass noch einige Jahre ins Land gehen bevor wir den Punkt erreichen wo Spiele wirklich auf RT Effekte setzen. Momentan ähnelt das noch der "Umstellung" auf DX12 wo DX12 zwar vorhanden ist damit der Entwickler zeigen kann wie modern er ist aber gleichzeitig oft schlechter ist als die DX11 Variante. Es gibt natürlich immer positive Ausnahmen, die aber leider jahrelang Ausnahmen bleiben.
Troyan
2019-12-20, 18:44:37
@robbitop:
Der Punkt ist dass der Großteil eben auch mit RT Cores noch nicht in Echtzeit machbar ist. Zumindest nicht in einer besseren Qualität als ohne Raytracing.
Wat? Eine RTX2060 erreicht 30FPS+ in Deliver us the Moon:
https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/deliver-us-the-moon-fortuna-ray-tracing-dlss/deliver-us-the-moon-fortuna-nvidia-geforce-rtx-ray-tracing-dlss-2560x1440-performance.png
https://www.nvidia.com/en-us/geforce/news/deliver-us-the-moon-fortuna-ray-tracing-dlss/
Das ist Echtzeit.
Setsul
2019-12-20, 19:12:45
Man kann sich jetzt streiten wo die Grenze zu Echtzeit ist. 60 fps? 30 fps? 15 fps? 1 fps?
Aber viel wichtiger ist doch: "Großteil" bedeutet "Großteil", nicht "alle ohne eine einzige Ausnahme".
Sicher, wenn man alles was mehr als 15 fps mit einer 2080 Ti bekommt als Echzeit zählt ist Raytracing heute kein Problem mehr.
sulak
2019-12-20, 19:20:14
Ich hoffe, das neben RT auch VRS in den nächsten Engine Entwicklungen guten Einzug halten wird.
Kann denn die "Intensität" des RT auch variabel pro Sektion eines sichtbaren Bildes variieren, oder ist der "RT-Faktor" Fix?
VRS dürfte einiges an Entlastung bringen in Zukunft.
robbitop
2019-12-20, 19:32:51
Was ist mit Control? Da wird es relativ vielfältig und echt hübsch umgesetzt. Es geht problemlos in Echtzeit und kostet in etwa eine Auflösungsstufe. Und das auf 1st Gen HW. Ampere wird das wesentlich souveräner übernehmen.
Wer sagt, dass Spiele vollständig auf RT umgestellt werden müssen? Das wäre ineffizient. Rastergrafik und RT haben beide ihre Stärken und Schwächen. Beides zu kombinieren ist sinnvoll und effizienz. The right tool for the right job.
Ich gehe jede Wette ein, dass niemand hier (auch die Skeptiker) ihren Standpunkt in 5 oder 10 Jahren immer noch so sehen. Ich finde es etwas kurzsichtig.
dargo
2019-12-20, 20:03:07
Wat? Eine RTX2060 erreicht 30FPS+ in Deliver us the Moon:
https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/deliver-us-the-moon-fortuna-ray-tracing-dlss/deliver-us-the-moon-fortuna-nvidia-geforce-rtx-ray-tracing-dlss-2560x1440-performance.png
https://www.nvidia.com/en-us/geforce/news/deliver-us-the-moon-fortuna-ray-tracing-dlss/
Das ist Echtzeit.
Das ist auch Echtzeit mit einer RTX 2070 OC. Vorallem kommen die 10fps so richtig geil rüber wo eigentlich nichts besonderes im Bild zu sehen ist. :freak:
Pd8VcBzlbKc
pixeljetstream
2019-12-20, 20:18:21
@Setsul
Ich gebe Dir Recht was die restliche Leistung angeht, sonst wäre dieser Schritt auch schon früher gekommen (es wurde ja schon probiert). Wie Du richtig sagst, kann man darüber Streiten wann der richtige Zeitpunkt wäre, er ist es für Dich und andere offensichtlich nicht, für andere, inklusive der Industrie, die sich für die Standardisierung entschloss schon. (Andererseits wurden geometry shader auch standardised und waren nicht wirklich praktisch ;) )
Du attestierst in Deinem Zahlenspiel einmal RT cores on/off mit 20 zu 40 fps, nen Faktor 2x. Das heißt mit einem Bruchteil der Fläche erreicht man das, wofür man normalerweise zwei Generationen braucht. Und das wegen der spezialisierten HW. Die alleine macht es natürlich nicht, wie Du sagst ohne den Rest an Leistung geht's nicht weiter, aber sie ebnet den Weg schon ordentlich.
Wie soll man denn die perfekte Hardware für eine Workload entwickeln, von der noch keiner eine Ahnung hat wie sie aussieht?
Die perfekte Hardware gibt es eh nicht. Jeder Titel, jeder frame, jeder Teil eines Frames belastet sie unterschiedlich, siehe der nsight-screenshot vorher mit den Auslastungswerten verschiedener Systeme. Es ist immer ein trade-off, immer ein balancing.
Die Erkenntnisse aus der Vergangenheit mit vorhandenen Mitteln Raytracing oder andere globale Beleuchtungseffekte (Maxwell's voxelisierungs GI/AO) umzusetzen liegen ja auch bereits vor. Es ist also kein totaler Schuss ins blaue.
Und wie es weiter geht erleben wir nun live ;)
Wie Du richtig sagst, bedeutet das für andere Bereiche kein Stillstand, und die rasterization units sind ein praktisches Werkzeug was uns noch lange erhalten bleibt.
Anyway ich merke ich schreibe zu viel :) will dich im ersten Punkt nicht umstimmen, jeder hat ne andere Meinung. Aber ich hoffe der zweite Teil ist nachvollziehbar.
robbitop
2019-12-20, 20:34:18
Wie man an TU116 zu den übrigen Turings sieht, machen die RT Cores gar nicht so extrem viel aus. Die Volta/Turing SMs sind ggü Pascal auch mächtig gewachsen. Interessant ist, dass Navi ohne RT Cores und mit weniger INT Units ähnlich viele Transistoren pro normierter Rohleistung braucht.
Linmoum
2019-12-20, 20:44:08
Mal was anderes abseits der RT-Diskussion:
Jensen Huang: TSMC will still get the bulk of orders for NVIDIA's next generation 7nm products.
Samsung will only get a small part.
https://twitter.com/chiakokhua/status/1208068846084509696
Oder eher: Samsungs 7nm suckt wie es die Gerüchte seit Monaten immer wieder besagen.
Setsul
2019-12-20, 21:33:30
Der Punkt ist man braucht die Hardware nicht. Keiner wird nein sagen zu mehr Leistung aber man kann ohne RT Cores das gleiche machen wie mit, genauso wie bei FP16.
Ich sage nicht dass es sich nicht lohnt. FP16 lohnt sich schließlich auch, weil es spottbillig ist.
Ich sage dass man es nicht braucht. Was man unbedingt braucht ist bessere Software. Daran hängts momentan.
Turing hat eben das Problem dass es so oder so nicht reicht. Niedrigere Auflösung + DLSS auf ner 2080 Ti für spielbare fps betrifft genau wie ich gesagt habe eben kaum Nutzer aber für die Entwickler ist es interessant. Irgendwann muss man ja anfangen.
Ich bezweifle einfach dass Ampere große Sprünge macht weil zum Zeitpunkt der Entwicklung es noch kaum neue Erkenntnisse gab.
7nm GPUs kommen dem ganzen so oder so näher, wenn man am Rest der Engine nichts ändert aber auf einmal 20 TFlops statt 10 hat, hat man ein bisschen Luft um Leistung für Raytracing zu verschwenden.
Filmindustrie ist etwas anders weil da Performance sich in ganz anderen Bereichen bewegt. Die sind durchaus bereit das 10-fache an Rechenleistung draufzuwerfen wenn die Qualität entsprechend hochgeht. Mit realtime und begrenzter TDP als Voraussetzung sind Consumer GPUs einfach ein viel schwierigerer Markt für RT.
robbitop
2019-12-20, 21:46:26
Wie gesagt, so viel Fläche nehmen die RT Cores gar nicht ein. Controll ist flüssig spielbar auf Ampere mit RT. Mit Pascal ider Volta mit SW RT wäre das vermutlich nicht der Fall.
sulak
2019-12-20, 21:52:30
Nja schwer zu sagen? Weil TU116 anstelle der RT Cores ja dedizierte FP16 Einheiten spendiert bekommen hat, damit Code schön Familienneutral ausgeführt wird. Die FP16 sind laut Anandtech kaum der Rede wert erwähnt zu werden :freak:
https://www.anandtech.com/show/13973/nvidia-gtx-1660-ti-review-feat-evga-xc-gaming/2
Manchmal fressen halt Features richtig Transistor Budget, das war bei Turing der Fall.
pixeljetstream
2019-12-20, 22:18:31
Filmindustrie ist etwas anders weil da Performance sich in ganz anderen Bereichen bewegt. Die sind durchaus bereit das 10-fache an Rechenleistung draufzuwerfen wenn die Qualität entsprechend hochgeht. Mit realtime und begrenzter TDP als Voraussetzung sind Consumer GPUs einfach ein viel schwierigerer Markt für RT.
Ja den Teil der Filmindustrie hatte ich mittlerweile weggekürzt, war in der Tat nicht passend hier.
Okay, beim “Brauchen“ Teil bleiben wir bei unterschiedlicher Meinung.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.