PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)


Seiten : 1 2 3 4 5 6 7 8 [9] 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62

Troyan
2020-03-08, 10:32:38
Was hat RDNA2 mit HPC zu tun? Mal wieder geballte Kompetenz, wie man sieht.

Keine Ahnung, ist nicht nVidias Problem, dass der Konkurrent zwei minderwertige Architekturen benötigt, um mitzuhalten. Immerhin ist eine RTX2060 auch besser für DL als eine Vega 7. ;D

Ghost1nTh3GPU
2020-03-08, 10:42:00
Ob man unter Ampere noch so einen umfangreichen GPU-Stack wie bei Turing und davor erwarten kann?

GA100: ~800mm² - HPC-Flagship, eventuell auch im Lifecycle als MCM?
GA102: ~700mm² - 3D-Flagship, Quadro/Titan >1500€ und Basis für weitere GeForce-Now-RTX-Nodes (~4x RTX 2060 pro GPU)
GA104: ~500mm² - Enthusiast, 800-1000€
GA117: ~200mm² - Mobile/UltraBook RTX

Gerade im <400€ Bereich könnte ich mir auch vorstellen, dass da TU104 und TU106 einfach weiterläuft, eventuell in weiter optimierten SKUs.
Wenn man auf 1.6GHz begrenzt und die SMs freischaltet und ist die Perf/W nicht so schlecht und man spart vorerst 7nm Kapazitäten. Der ~200€ GPU Gamer ist langfristig eher ein Kunde der Cloud-Angebote bzw. Konsole.

HOT
2020-03-08, 10:57:17
[...]

Was war falsch?

Etwas sehr wild spekuliert vielleicht. Ich sehe keinerlei Anhaltspunkte, dass NV was anderes als den AM100 bringt. Wenn doch, würde ich da gerne wissen warum fast alle da ganz fest daran glauben (wie bei Volta eben).
Für mich sieht das so aus, als wenn NV jetzt einen N7(P) AM100 bringt und sich überhaupt nichts, wie beim GV100 damals, anderes tut. Turing kam erst 1 1/2 Jahre (!) später damals.
MMn würde ein neuer Grafikchip für Customer zu diesem Zeitpunkt ein erhebliches Risiko für NV bedeuten, da man absolut nicht einschätzen kann, in welche Richtung die Performance mit den neuen Konsolen überhaupt gehen wird. Das heißt, wenn man jetzt Hardware bringt und die Performancemetrik von RDNA2 nicht einhält könnte man sehr böse auf die Nase fallen mit den neuen Titeln. AMD konzentriert sich, wie wir wissen, auf einen Mix aus Hardware-SSR, Hardware-VRS und Hardware-DXR1.1. Wenn NV dafür keine Hardware liefert, sind sie gef..., so siehts nämlich aus. Deswegen kann ich mir beim besten Willen nicht vorstellen, warum NV ausgerechnet jetzt was Neues releasen soll. NV gibt nicht den Ton in der Branche an, dass sollte durch das RTX- "Desaster" klar sein (gibt kaum Tital und nur 2 wirklich brauchbare).
Ich vermute, vor dem Hintergrund, dass NV ab Mai einen neuen TU117 65x mit PCIe4 releasen wird, dass auch TU102 runderneuert wird und ebenfalls als TU102 650 mit PCIe4 erscheinen wird, diesmal eben als 2080 Ti Super oder 2090. Zum gleichen Zeitpunkt ist dann eine Titan AM100 zu erwarten, die die alte Titan ablösen wird, ich denke mir mal, das wars dann für dieses Jahr.

Noch eines kommt da hinzu: Es gibt keinen Speicher. Samsung bietet bis 16GT/s an dieses Jahr, da gabs doch im Navi Thread eine Aussage zu. Ohne mindestens 20 GT/s GDDR6 gibts keine neuen NV-Produkte, das ist doch klar. Und die Gegenbohrung für die Verbesserung der Signalqualität wird für die 2080Ti Super mit vollen 384Bit 16GT/s Speicher einfach notwendig sein, das wird herzlich wenig mit einer neuen Generation zu tun, hier irrt Igor mMn erheblich. Schon die 2080 Super schafft aus diesem Grund mMn nur 15,5GT und nicht volle 16.



Steht doch schon im Original dran: Up to .... sprich, kein durchschnittlicher Boost, sondern der maximal mögliche Takt. Ergibt wenig zum draufrumkauen.
Der Takt ist BS, genau wie die 8192 Shader BS sind. Das Produkt hat weniger als 8000 Shader, weil die gesalvaged ist, das sagt automatisch aus, dass die 2,2 GHz (eben das ganze Gerücht) BS sind. Lernt das doch mal sinnvoll zu verknüpfen. Das heißt ja nicht, dass AM100 hohe Takte kann, aber das Gerücht ist damit eindeutig busted.

robbitop
2020-03-08, 11:06:26
Nicht persönlich nehmen: Ich wäre da vorsichtig. IMO lagst du öfter falsch als du richtig lagst. IMO auch OK weil niemand eine Glaskugel hat. Und ich sage nicht, dass andere das besser können. Aber: da es noch Spekulation ist, sollte man ein Stück weit degressiver die Spekulation von anderen bewerten. ;) Es sei denn man hat einen extrem guten track record. (den hier aber praktisch niemand vorweisen kann)

Ich finde, dass die Situation anders ist als 2017. Das sagte ich ja schonmal. GPU uArchs haben historisch ein ~18-24M cycle. Das wird dieses Jahr in Q3 um sein.
Das war 2017 mit Volta anders. Pascal war gerade mal 1 Jahr alt also noch mitten in seinem Cycle.
Außerdem sind GPU Entwicklungen eh zu langfristig als dass man auf irgendetwas noch reagieren könnte. NV wird sich Gedanken machen was sie für Segment X im Fertigungsprozess Y sinnvoll und kompetativ erachten und das durchziehen. Dank feiner Abstufung ist man dauch diversifiziert genug...

Troyan
2020-03-08, 11:22:43
Für mich sieht das so aus, als wenn NV jetzt einen N7(P) AM100 bringt und sich überhaupt nichts, wie beim GV100 damals, anderes tut. Turing kam erst 1 1/2 Jahre (!) später damals.

Und GP104 kam zwei Monate nach GP100. :rolleyes:
Und Maxwell#2 war zu dem Zeitpunkt 1 3/4 Jahre auf dem Markt.


MMn würde ein neuer Grafikchip für Customer zu diesem Zeitpunkt ein erhebliches Risiko für NV bedeuten, da man absolut nicht einschätzen kann, in welche Richtung die Performance mit den neuen Konsolen überhaupt gehen wird. Das heißt, wenn man jetzt Hardware bringt und die Performancemetrik von RDNA2 nicht einhält könnte man sehr böse auf die Nase fallen mit den neuen Titeln.

Aha. Da ein simpler TU104 Shrink auf 7nm ausreichend ist, um besser zu sein, scheint mir das kein Grund zu sein.


AMD konzentriert sich, wie wir wissen, auf einen Mix aus Hardware-SSR, Hardware-VRS und Hardware-DXR1.1. Wenn NV dafür keine Hardware liefert, sind sie gef..., so siehts nämlich aus. .

nVidia liefert seit 1 1/2 Jahren Hardware aus, die "Hardware-SSR, Hardware-VRS und Hardware-DXR1.1" unterstützt. ;D

Hier, wie wäre es damit: Ampere ist 2x so effizient wie RDNA#2 und Lichtjahre mit Raytracing und DL voraus.

HOT
2020-03-08, 11:26:16
@Robbi
Ist mir doch egal, ob ich richtig liege, darum gehts doch überhaupt nicht. Sicher hast du damit auch recht. NV bestreitet aber zunehmend mehr Geschäftsfelder als Gaming. Und als letztes: Es ist nicht notwendig. Selbst wenn Navi Ende des Jahres kurzzeitig vorne sein sollte, ist das für NV kein großes Problem.
Klar hat NV die Architektur in Grundsätzen schon längst entschieden. Aber wir erinnern uns bitte an Maxwell: Dieser wird aufgegeben und neu entwickelt damals nach dem Konsolen-Release. NV war stets vorsichtig, wenn sich auf dem Hardwaremarkt sowas tut. Dein Zyklus wurde immer mal wieder durchbrochen. Zudem schadet es dem Zyklus ja nicht, wenn es 1/2 Jahr später wird, zumal die Entwicklungen bei immer kleineren Prozessen auch immer länger dauert.

Troyan
mit Volta lag ich richtig. Aber ist mir eben auch egal ob ich jetzt falsch liege. Das spielt einfach keine Rolle. Ich bin einfach nur nicht überzeugt.

MiamiNice
2020-03-08, 11:35:02
Ich kann mir aufgrund des neuen Fertigungsprozess und einem angreifendem AMD gar nicht anderes vorstellen als das Ampere uns den Sabber aus dem Mundweinkeln laufen lässt. NV ist imo viel zu stolz und zu weit um sich einholen lassen zu wollen. Man wird hier ein Zeichen setzen wollen das man sich nicht so überraschen lässt wie Intel.

robbitop
2020-03-08, 11:42:40
Das sehe ich auch so. NV wird IMO bereits dieses Jahr Teile des Tueingnachfolgelineups launchen. 7nm sollte im Verlauf dieses Jahres bezüglich yield, Verfügbarkeit und Kosten auch deutlich attraktiver geworden sein.

basix
2020-03-08, 12:01:14
Ob man unter Ampere noch so einen umfangreichen GPU-Stack wie bei Turing und davor erwarten kann?

GA100: ~800mm² - HPC-Flagship, eventuell auch im Lifecycle als MCM?
GA102: ~700mm² - 3D-Flagship, Quadro/Titan >1500€ und Basis für weitere GeForce-Now-RTX-Nodes (~4x RTX 2060 pro GPU)
GA104: ~500mm² - Enthusiast, 800-1000€
GA117: ~200mm² - Mobile/UltraBook RTX

Gerade im <400€ Bereich könnte ich mir auch vorstellen, dass da TU104 und TU106 einfach weiterläuft, eventuell in weiter optimierten SKUs.
Wenn man auf 1.6GHz begrenzt und die SMs freischaltet und ist die Perf/W nicht so schlecht und man spart vorerst 7nm Kapazitäten. Der ~200€ GPU Gamer ist langfristig eher ein Kunde der Cloud-Angebote bzw. Konsole.

Ich bezweifle irgendwie, das die Gaming-Chips so gross werden. GA102 mit 6144 Shader Units sollte in ca. 550-600mm2 machbar sein. Darüber gibt es dann noch die GA100 Titan. GA104 wird dann eher so knapp 400mm2 gross sein und GA106 250mm2. Quer über das Lineup ergäbe das inkl. etwas höherem Takt ca. +50-60% Performance bei ähnlichen Herstellungskosten wie Turing.

Piefkee
2020-03-08, 12:28:06
Würde echt lachen wenn Nv echt mit 8nm LP bei Samsung die Gaming Reihe bringt und nur die HPC auf TSMC 7nm umstellt.

wolik
2020-03-08, 12:52:36
Würde echt lachen wenn Nv echt mit 8nm LP bei Samsung die Gaming Reihe bringt und nur die HPC auf TSMC 7nm umstellt.
Lachen? NV mit 12nm schneller ist als AMD mit 7nm. ;D Warten wir ab. Auf alle Fälle ich bin schon "reif" für neue GK. Egal ob NV oder ATI. :wink:

robbitop
2020-03-08, 12:53:02
Würde echt lachen wenn Nv echt mit 8nm LP bei Samsung die Gaming Reihe bringt und nur die HPC auf TSMC 7nm umstellt.

Hab ich vorhin auch so gedacht. Wobei 8nm ja nur ein leicht getunter 10 nm Prozess ist. In Bezug auf Dichte und Power hat man dann schon zu 7nm EUV einen Fullnode Nachteil. Bei einem schwachen Gegnet kein Drama. Wenn RDNA2 aber richtig gut werden sollte, könnte das ein Nachteil sein.

Troyan
2020-03-08, 12:56:44
Warum sollte nVidia 8nm nehmen, wenn Samsung seit einem Jahr 7nm verwendet? Orin kommt auf einem speziellen 8nm Prozess, der für die Verwendung in Autos optimiert ist.

Ghost1nTh3GPU
2020-03-08, 13:06:18
Hab ich vorhin auch so gedacht. Wobei 8nm ja nur ein leicht getunter 10 nm Prozess ist. In Bezug auf Dichte und Power hat man dann schon zu 7nm EUV einen Fullnode Nachteil. Bei einem schwachen Gegnet kein Drama. Wenn RDNA2 aber richtig gut werden sollte, könnte das ein Nachteil sein.

Beim Refresh kann man auch auf einen neuen Prozess portieren, da war Nvidia schon immer flexibel.

Bei den Preisen muss sich Nvidia gerade im Midrange/Performance-Bereich wohl mächtig anstrengen. 8C Zen2/10TFLOPs RDNA2 + 1TB 5GB/s SSD für <700€ als Konsole oder 10-20€ im Monat als Cloud inklusive Games, lassen da eine pure GPU für ~500€ mit vielleicht 30% mehr GPU-Leistung eher alt aussehen.
Der Alleingang GeForce Now wird ja von vielen Publishern momentan auch abgestraft, sodass man da einiges an verbrannter Erde hinterlässt, wo Sony und Microsoft sicherlich profitieren, wenn es um xCloud / PSNow Verträge geht.

Sinnvoll wäre da wohl RTX 2060 Super Leistung für $199 und Investitionen in GeForce-exklusives, die nur noch mit Nvidia RTX / GeForce Now laufen. Ich wüsste auch schon eine Firma mit guten Exklusives, die gerade eine Nvidia GPU einsetzen und in China schon kooperieren (https://www.ntower.de/news/56285-china-nvidia-shield-erh%C3%A4lt-spezielle-nintendo-edition/)... ;)

maximus_hertus
2020-03-08, 13:21:25
Ich kann mir aufgrund des neuen Fertigungsprozess und einem angreifendem AMD gar nicht anderes vorstellen als das Ampere uns den Sabber aus dem Mundweinkeln laufen lässt. NV ist imo viel zu stolz und zu weit um sich einholen lassen zu wollen. Man wird hier ein Zeichen setzen wollen das man sich nicht so überraschen lässt wie Intel.

nV (und auch AMD) haben halt gemerkt, dass MArktanteile schön und gut sind, aber eigentlich nicht der entscheidende PArameter.

Aus nVs Sicht macht es keinen Sinn auf Teufel komm raus auch die letzten % MArktanteil zu erobern. Lieber wie Apple: Produktpreise hoch und höher halten und maximalen Gewinn / Marge erwirtschaften. Umgekehrt bleiben dadurch auch größere Krümmel für AMD übrig, was nV aber wurscht ist.

Ampere wird wohl mehr bringen als damals Turing zu Pascal, aber den ganz großen "Knall" erwarte ich nicht. Warum auch?

Eine Ampere KArte mit 50% mehr fps plus 100% RTX ud das ein oder andere neue tolle Feature wird sich doch verkaufen wie sonstwas. Kommt AMD irgendwann Ende 2020 mit einer echten Konkurrenz (erwarte ich jetzt nicht, aber nur fürs Argument), kommt ei Update mit weiteren 25-30% mehr fps und doppeltem Grafikspeicher. Schon sieht sich der Gamer "gezwungen" von der 8GB Ampere Light auf den 16GB Full Ampere aufzurüsten. Und nV? Kassiert doppelt....

Rampage 2
2020-03-08, 14:54:41
Noch eines kommt da hinzu: Es gibt keinen Speicher. Samsung bietet bis 16GT/s an dieses Jahr, da gabs doch im Navi Thread eine Aussage zu. Ohne mindestens 20 GT/s GDDR6 gibts keine neuen NV-Produkte, das ist doch klar. Und die Gegenbohrung für die Verbesserung der Signalqualität wird für die 2080Ti Super mit vollen 384Bit 16GT/s Speicher einfach notwendig sein, das wird herzlich wenig mit einer neuen Generation zu tun, hier irrt Igor mMn erheblich. Schon die 2080 Super schafft aus diesem Grund mMn nur 15,5GT und nicht volle 16.

Ich habe die Befürchtung, dass Nvidia für AM104 das SI auf 320 Bit erhöht und für AM102 dann auf 480 Bit. Außerdem liefert Samsung bereits 18 Gbps-GDDR6 aus. So hätte AM104 dann immerhin 720 GB/sek. Bandbreite - also mindestens 40% mehr als die 2080 Super! Das würde dann wohl reichen...

Ich persönlich hoffe auf 384 Bit bei AM104 und 512 Bit bei AM102.

R2

Rampage 2
2020-03-08, 15:05:47
Quer über das Lineup ergäbe das inkl. etwas höherem Takt ca. +50-60% Performance bei ähnlichen Herstellungskosten wie Turing.

Nvidia wird die nächste GPU-Generation aber sicherlich etwas (nicht viel) billiger verkaufen wollen als Turing - natürlich nicht aus Eigeninteresse, sondern weil bei den Kunden mit Turing die Schmerzgrenze erreicht wurde. Etwa so:

AM104: 599$ (699$ für die Fool's Edition)
AM102 Salvage (3080 Ti): 799 oder 899$ (die Fool's Edition wieder 100$ mehr)
AM102 Full (Titan): 1499$ oder 1999$

Ließe sich ein 6144 SP AM102 @ 550-600 mm^2 etwas billiger in 7nm EUV herstellen? :confused:

R2

HOT
2020-03-08, 15:06:05
Hab ich vorhin auch so gedacht. Wobei 8nm ja nur ein leicht getunter 10 nm Prozess ist. In Bezug auf Dichte und Power hat man dann schon zu 7nm EUV einen Fullnode Nachteil. Bei einem schwachen Gegnet kein Drama. Wenn RDNA2 aber richtig gut werden sollte, könnte das ein Nachteil sein.
Die 7nm sehe ich eh nicht als Problem. Das war eigentlich ne ein Problem. Wenn NV das so entscheidet, dann hat das denke ich wenig mit 7nm zu tun.

Ich habe die Befürchtung, dass Nvidia für AM104 das SI auf 320 Bit erhöht und für AM102 dann auf 480 Bit. Außerdem liefert Samsung bereits 18 Gbps-GDDR6 aus. So hätte AM104 dann immerhin 720 GB/sek. Bandbreite - also mindestens 40% mehr als die 2080 Super! Das würde dann wohl reichen...

Ich persönlich hoffe auf 384 Bit bei AM104 und 512 Bit bei AM102.

R2
Das wäre mMn bei 7nm einfach viel zu teuer, außerdem sind so große Speicherinterfaces und so viele hochgetaktete Speicherchips ein Problem beim Stromverbrauch. NV wird alles dafür tun bei 256Bit zu bleiben beim 104er. Und für die 18GT hätt ich gern ne Quelle, denn bislang gibts von Samsung nur 16GT und von Micron und SKHynix maximal 14GT. Beide wollen dieses Jahr noch auf 16GT.
Übrigens hat RAMBUS erst im Herbst ein 16GT Speicherinterface-IP vorgestellt, nur um mal zu zeigen wo wir da stehen.
Speicher ist ein Problem. Ein Ausweg wäre natürlich HBM.

Digidi
2020-03-08, 15:23:58
Nvidia wird die nächste GPU-Generation aber sicherlich etwas (nicht viel) billiger verkaufen wollen als Turing - natürlich nicht aus Eigeninteresse, sondern weil bei den Kunden mit Turing die Schmerzgrenze erreicht wurde. Etwa so:

AM104: 599$ (699$ für die Fool's Edition)
AM102 Salvage (3080 Ti): 799 oder 899$ (die Fool's Edition wieder 100$ mehr)
AM102 Full (Titan): 1499$ oder 1999$

Ließe sich ein 6144 SP AM102 @ 550-600 mm^2 etwas billiger in 7nm EUV herstellen? :confused:

R2

Wurde wirklich die Schmerzgrenze erreicht? ich glaube nicht! Schau dir doch die Preise an. Sind immer noch über 1100 Euro die meisten Karten!

RLZ
2020-03-08, 15:31:21
Nvidia wird die nächste GPU-Generation aber sicherlich etwas (nicht viel) billiger verkaufen wollen als Turing - natürlich nicht aus Eigeninteresse, sondern weil bei den Kunden mit Turing die Schmerzgrenze erreicht wurde.
Sowas wie Schmerzgrenze beim Preis ist ziemlich subjektiv in der eigenen Filterbubble. Auch wenn uns in Deutschland hier die Preise vielleicht weh tun, aber es gibt inzwischen genug Regionen, die durch die wesentlich höheren Gehälter keine Probleme mit so Preisen haben.

Troyan
2020-03-08, 18:03:14
Richtig. Die 8800GTX wurde massenweise verkauft für $699 vor 13 Jahre. Mit Inflation sind das fast $900 nach heutigem Maßstab. Und das ignoriert, dass die "Inflation" in der Branche viel stärker ist als generell betrachtet.

Die Leute haben kein Problem viel Geld zu bezahlen, wenn man auch einen vernünftigen Mehrwert erhält.

TheAntitheist
2020-03-08, 18:12:33
Richtig. Die 8800GTX wurde massenweise verkauft für $699 vor 13 Jahre. Mit Inflation sind das fast $900 nach heutigem Maßstab. Und das ignoriert, dass die "Inflation" in der Branche viel stärker ist als generell betrachtet.

Die Leute haben kein Problem viel Geld zu bezahlen, wenn man auch einen vernünftigen Mehrwert erhält.
Vor allem ist die 2080ti eben auch nochmal ein höheres Marktsegment, das kann man schwer vergleichen.
Nvidia bietet eben zusätzlich eine noch schnellere Karte an und ich glaube, könnten sie eine GPU anbieten die 30% schneller für 1800$ wäre, würde es auch dafür Käufer geben.

Versteh nicht wo viele das Problem sehen, bei den Autos gibts auch Luxus Autos. die bieten immer mehr und der Preis übersteigt die der Vorgänger auch.

robbitop
2020-03-08, 18:24:16
Beim Refresh kann man auch auf einen neuen Prozess portieren, da war Nvidia schon immer flexibel.
Echte Refreshes (also mit neuen Tapeouts) gibt es doch schon lange nicht mehr. Der letzte Refresh war in der Fermi Generation. Danach waren es eigentlich immer neue Generationen alle 18-24 Monate.


-------------------

Zum Preis. Die Entwicklung und auch die Kosten der Komponenten sind heute natürlich höher als noch zum G80. Komplexität steigt überproportional und Fertigungsprozesse werden überproportional teurer. Dazu kommt Inflation.
Nichtsdestotrotz sieht man, dass dort, wo es Wettbewerb gibt, das P/L wesentlich besser ist als dort, wo es keines gibt. Bis zur 2060 Super ist das P/L ein anderes als ab der 2070 Super bis hoch zur Ti. Keine Konkurrenz eben. So ist Kapitalismus nunmal. Als Endkunde kann man nur hoffen, dass AMD bald wieder in alle Segmente echten Wettbewerb bringt. Dann fallen auch die Preise im Topsegment. Sicherlich werden dort aus 1200 € nicht 600€. Aber 10-20% sind sicherlich locker drin.

L233
2020-03-08, 18:27:31
Sowas wie Schmerzgrenze beim Preis ist ziemlich subjektiv in der eigenen Filterbubble. Auch wenn uns in Deutschland hier die Preise vielleicht weh tun, aber es gibt inzwischen genug Regionen, die durch die wesentlich höheren Gehälter keine Probleme mit so Preisen haben.
Was ist "genug" und was ist "wesentlich"?

Ghost1nTh3GPU
2020-03-08, 19:00:29
Richtig. Die 8800GTX wurde massenweise verkauft für $699 vor 13 Jahre. Mit Inflation sind das fast $900 nach heutigem Maßstab. Und das ignoriert, dass die "Inflation" in der Branche viel stärker ist als generell betrachtet.
Die 8800 GTX war aber auch doppelt so schnell wie alles vor ihr und hatte noch DX10, Cuda, OpenCL an Board. Und die vergleichbare Leistung(8800GT) war innerhalb von 24 Monaten bei ~100€.

Die Leute haben kein Problem viel Geld zu bezahlen, wenn man auch einen vernünftigen Mehrwert erhält.
Und wie liegt der jenseits 500€? 4K@120Hz? VR hat ja auch noch seine Schwierigkeiten.
Die PS5 wird in 3 Sekunden exklusive Next-Gen-Titel mit Budgets >100Mio. laden, wo die gefühlte Leistung durch Optimierungen wohl bei >20 TFLOPs liegt.

Lehdro
2020-03-08, 19:05:26
Echte Refreshes (also mit neuen Tapeouts) gibt es doch schon lange nicht mehr. Der letzte Refresh war in der Fermi Generation. Danach waren es eigentlich immer neue Generationen alle 18-24 Monate.
Was ist mit GK110B? Laut Wiki:
Die GK110-GPU ist mit 7,1 Mrd. Transistoren auf rund 561 mm² (533 mm² im produktionsoptimierten B1-Stepping) der größte und komplexeste Grafikprozessor der Keplergeneration.
GK110/110B und GK210 haben aber auch ewig gelebt.

Troyan
2020-03-08, 19:31:27
Die 8800 GTX war aber auch doppelt so schnell wie alles vor ihr und hatte noch DX10, Cuda, OpenCL an Board. Und die vergleichbare Leistung(8800GT) war innerhalb von 24 Monaten bei ~100€.


RTX2080 ist mehr als doppelt so schnell bei Raytracing als die GTX1080TI: https://gamegpu.com/action-/-fps-/-tps/deliver-us-the-moon-test-gpu-cpu

Zum Vergleich: Crysis auf der 8800GTX: https://www.computerbase.de/2007-11/test-nvidia-geforce-8800-gt-sli/21/

Wir haben eben heute andere Ansprüche. Und das sollte nVidia anregen, so schnell wie möglich mit Ampere zu kommen. Doppelte Raytracing-Leistung bei $699 ist eben dann doch etwas, was für viele zum Aufrüsten bewegen wird.

Sunrise
2020-03-08, 19:48:30
Richtig. Die 8800GTX wurde massenweise verkauft für $699 vor 13 Jahre. Mit Inflation sind das fast $900 nach heutigem Maßstab. Und das ignoriert, dass die "Inflation" in der Branche viel stärker ist als generell betrachtet.

Die Leute haben kein Problem viel Geld zu bezahlen, wenn man auch einen vernünftigen Mehrwert erhält.
Das springende Wort hier ist “wenn”...

NV50 war eine Ausnahme-GPU sondergleichen, sowas gab es rückblickend nie wieder.

Diese reinen Preisdiskussionen sind sowieso recht sinnlos. Es gibt im Enthusiast-Bereich fast ausschließlich Käufer, denen das vollkommen egal ist. War es mir damals auch*, die Frage ist eher, brauche ich immer das Beste?

*Mit dem Auto diverse Stores abgefahren, um mir die beste NV10 (Geforce 256 DDR) zu kaufen, sofort als einige schon beliefert wurden. War bestimmt einer der ersten Käufer. Und habe es auch nicht bereut, hatte das geniale Teil bestimmt 5-7 Jahre im Rechner. Sowas prägt auch, aber ich würde heutzutage nichtmehr auf die Idee kommen und mir eine 2080Ti mit lächerlichen 11GB VRAM zu kaufen. Da erwarte ich von Ampere deutlich mehr.

Digidi
2020-03-08, 19:51:25
Die Preise bei Turing sind eine Frechheit. Ich wollte jetzt RTX mal Probieren und hab jetzt nur ne olle 2080 ohne Super und ohne TI gekauft für 650 Euro dafür mit AIO Wasserkühlung. Das finde ich noch einen fairen Preis.

Die 2080ti ist einfach nur noch abgedreht. Für 10-20% mehr Performance 100% mehr zu verlangen ist einfach nur Geldgier von Jensen. Wer die kauft braucht sich nicht wundern das Jensen immer mehr hinlangt.

Ghost1nTh3GPU
2020-03-08, 20:03:15
Diese reinen Preisdiskussionen sind sowieso recht sinnlos. Es gibt im Enthusiast-Bereich fast ausschließlich Käufer, denen das vollkommen egal ist. War es mir damals auch, die Frage ist eher, brauche ich immer das Beste?
Ein homogenes Featureset über alle GPUs einer Generation wäre schonmal ein Anfang. In der Vergangenheit war das ja auch möglich, wenn nicht auch nicht immer sinnvoll - Fx5200...:ugly:

Sofern die PS5/XSX die Spekulationen einhalten, sind das für den Gamer der neue R300/NV50.

Klassische Grafikkarten bewegen sich wohl dahin, wo es die Desktop-PC in den letzten 10 Jahren oder High-end-smartphones in den letzten 3 Jahren.

robbitop
2020-03-08, 20:09:08
Was ist mit GK110B? Laut Wiki:

GK110/110B und GK210 haben aber auch ewig gelebt.
GK110B und GK210 waren aber keine Geforce Refreshes. War beides für die Tesla Serie.

@Sunrise
G80 hieß nie NV50 iirc.

Piefkee
2020-03-08, 20:16:06
Warum sollte nVidia 8nm nehmen, wenn Samsung seit einem Jahr 7nm verwendet? Orin kommt auf einem speziellen 8nm Prozess, der für die Verwendung in Autos optimiert ist.


Weil 7nm Samsung keinen Yield hat darum. Die bekommen euv nicht in den Griff. Es gab ja mal News das es wenig Abnehmer für 7nm Samsung gibt und deshalb Nvidia ein super günstiges Angebot bekommen hat. Naja mal schauen was so kommt. Überraschen würde es mich nicht wenn man sieht das sie mit 12nm amd überlegen sind.

Sunrise
2020-03-08, 20:27:42
@Sunrise
G80 hieß nie NV50 iirc.
Wie kommst du darauf? Wurde doch damals auch entsprechend diskutiert. David Kirk hatte sich damit quasi selbst gekrönt bevor er ging.

z.B. hier eine recht komplette Liste mit Codenamen:
https://nouveau.freedesktop.org/wiki/CodeNames/ ( https://nouveau.freedesktop.org/wiki/CodeNames/ )

TheAntitheist
2020-03-08, 20:29:24
Die Preise bei Turing sind eine Frechheit. Ich wollte jetzt RTX mal Probieren und hab jetzt nur ne olle 2080 ohne Super und ohne TI gekauft für 650 Euro dafür mit AIO Wasserkühlung. Das finde ich noch einen fairen Preis.

Die 2080ti ist einfach nur noch abgedreht. Für 10-20% mehr Performance 100% mehr zu verlangen ist einfach nur Geldgier von Jensen. Wer die kauft braucht sich nicht wundern das Jensen immer mehr hinlangt.
ist zwar alles totaler quatsch aber nun gut, du weißt schon wie groß der DIE einer 2080ti ist? du kennst die Kosten davon? scheinst ja von beidem null ahunug zu haben, aber für eine CPU die 1/8 der größte hat, zahlst du gerne 400€ ohne PCB und VRAM oder Kühler...

Digidi
2020-03-08, 20:32:05
Ja ja totaler quatsch. Wenn man keine Ahnung hat dann einfach mal …...

Ja 2080ti ist big. Aber der Chip macht nur einen Bruchteil davon aus. Vega64 war sehr kompliziert herzustellen mit dem Interposer etc. und hat Trozdem nicht mehr gekostet. Zumal eine 2080ti immer ein Teildeaktivierter Chip ist und der yield mittlerweile sehr hoch sein sollte.

Auch das es keine A Chips mehr gibt von Nvidia spricht für mittlerweile sehr gute yields.
https://www.techspot.com/news/79939-nvidia-stop-producing-non-die-variants-turing-rtx.html

Die verkaufen immer noch alles zum gleichen Preis obwohl die Yields deutlich gesteigert wurden. Man hätte auch nicht die 2080 für die Super Variante gestrichen wenn die Yields sooo schlecht sind.

robbitop
2020-03-08, 21:02:24
Wie kommst du darauf? Wurde doch damals auch entsprechend diskutiert. David Kirk hatte sich damit quasi selbst gekrönt bevor er ging.

z.B. hier eine recht komplette Liste mit Codenamen:
https://nouveau.freedesktop.org/wiki/CodeNames/ ( https://nouveau.freedesktop.org/wiki/CodeNames/ )
Habe ich noch nie gehört/gelesen. Und damals war ich in der Branche noch als Voluntär tätig. Soll nicht heißen, dass ich es um keinen Preis glaube, aber mich überrascht das schon. Iirc hatte NV das Codescheme ab G70 umgestellt.

Ggf hieß das Teil vor der Umstellung intern NV50 - aber zum Release wohl nicht mehr.

Lehdro
2020-03-08, 21:08:56
GK110B und GK210 waren aber keine Geforce Refreshes. War beides für die Tesla Serie.

Nope.
GK110B war in:

780 (gabs als GK110 und GK110B)
780 Ti (gabs nur als GK110B)
Titan Black (gabs nur als GK110B)

Mit der Geforce GTX 780 Ti wird der GK110 in Revision B1 offiziell, die ersten GTX-Titan- und GTX-780-Grafikkarten nutzen noch A1-Silizium. Nvidia bestätigte uns auf Nachfrage, dass dieser Spin (Überarbeitung der GPU) keine Performance-Verbesserungen oder neue Features wie Direct X 11.1 oder 11.2 einführt, GK110-B1 sei lediglich in den Disziplinen Fertigungsausbeute (Yields) und Taktpotenzial verbessert worden.
Quelle (https://www.pcgameshardware.de/Geforce-GTX-780-Grafikkarte-257241/Tests/Geforce-GTX-780-Ti-Test-1096105/)
Also doch, es war ein Refresh mit neuem Tapeout.

Sunrise
2020-03-08, 21:44:59
Habe ich noch nie gehört/gelesen. Und damals war ich in der Branche noch als Voluntär tätig. Soll nicht heißen, dass ich es um keinen Preis glaube, aber mich überrascht das schon. Iirc hatte NV das Codescheme ab G70 umgestellt.

Ggf hieß das Teil vor der Umstellung intern NV50 - aber zum Release wohl nicht mehr.
Du hast das schon richtig in Erinnerung, sind alles mehr oder weniger interne Codenamen, und NV hatte hier das Schema gewechselt, allerdings gab es da wohl eine langjährige Roadmap und diese war eben intern (glaub Ailuros hatte das damals auch gepostet) noch als NV40...NV50 betitelt. Ich kann mir die einfach besser merken als G70 und G80, auch wenn das wahrscheinlich (nach außen hin) korrekter ist.

robbitop
2020-03-08, 22:22:07
Nope.
GK110B war in:

780 (gabs als GK110 und GK110B)
780 Ti (gabs nur als GK110B)
Titan Black (gabs nur als GK110B)


Quelle (https://www.pcgameshardware.de/Geforce-GTX-780-Grafikkarte-257241/Tests/Geforce-GTX-780-Ti-Test-1096105/)
Also doch, es war ein Refresh mit neuem Tapeout.

OK. Aber ein Respin ist jetzt auch kein echter Refresh. Zumindest so wie ghost es mit einem Shrink meinte. Zumal es nichtmal ein neues Produkt gab.

mczak
2020-03-09, 02:10:33
Du hast das schon richtig in Erinnerung, sind alles mehr oder weniger interne Codenamen, und NV hatte hier das Schema gewechselt, allerdings gab es da wohl eine langjährige Roadmap und diese war eben intern (glaub Ailuros hatte das damals auch gepostet) noch als NV40...NV50 betitelt. Ich kann mir die einfach besser merken als G70 und G80, auch wenn das wahrscheinlich (nach außen hin) korrekter ist.
Der Open-Source nvidia mesa Treiber (nouveau) benutzt im Uebrigen auch noch diese Namen - nv30, nv50 und nvc0 sind die hauptsächlichen Varianten. Dieses Versionsschema gibt's bis heute: https://nouveau.freedesktop.org/wiki/CodeNames/

Leonidas
2020-03-09, 03:08:19
GA100: ~800mm² - HPC-Flagship, eventuell auch im Lifecycle als MCM?
GA102: ~700mm² - 3D-Flagship, Quadro/Titan >1500€ und Basis für weitere GeForce-Now-RTX-Nodes (~4x RTX 2060 pro GPU)
GA104: ~500mm² - Enthusiast, 800-1000€
GA117: ~200mm² - Mobile/UltraBook RTX


Aufgrund der deutlich besseren Fertigung lohnt es sich für NV, mal wieder das komplette Portfolio auszuwechseln, von GA100 bis GA108.

Zudem haben wir über Turing gelernt, das wenn die Chips so groß werden, sich anstatt Salvage-Lösungen sogar extra Zwischen-Chips lohnen. Die Bemessungegrenze ist hierbei ca. 100mm². Ab dieser Differenz gibt es einen extra Chip und keine Salvage-Lösung mehr. Diese Grenze könnte tendentiell mit 7nm sogar kleiner werden.




Etwas sehr wild spekuliert vielleicht. Ich sehe keinerlei Anhaltspunkte, dass NV was anderes als den AM100 bringt. Wenn doch, würde ich da gerne wissen warum fast alle da ganz fest daran glauben (wie bei Volta eben).


Es ist doch faktisch logisch, das auch Gamer-Chips kommen. Die Frage ist nur, wie schnell nach GA100/AM100.





Und das ignoriert, dass die "Inflation" in der Branche viel stärker ist als generell betrachtet.


Ich würde die Inflation bei Consumer-HW eher als niedriger als den allgemeinen Schnitt einschätzen. Wir haben viele Produkte, die tendentiell günstiger geworden sind - und dies trotz Performance-Steigerung.

OC_Burner
2020-03-09, 08:04:18
GK110B und GK210 waren aber keine Geforce Refreshes. War beides für die Tesla Serie.

@Sunrise
G80 hieß nie NV50 iirc.

Wie kommst du darauf? Wurde doch damals auch entsprechend diskutiert. David Kirk hatte sich damit quasi selbst gekrönt bevor er ging.

z.B. hier eine recht komplette Liste mit Codenamen:
https://nouveau.freedesktop.org/wiki/CodeNames/ ( https://nouveau.freedesktop.org/wiki/CodeNames/ )

Der Bruch mit den Codenamen muss wohl mit dem Aufkommen neuen 9xxx Serie geschehen sein. Auf dem Chip des G80 der 8800 Serie ist noch die alte NV50 Bezeichnung zu finden und beim G92 schon das neue Format.

Die verlinkte Liste gefällt mir. Hätte nicht gedacht das Intern noch die alten NV Bezeichnugen genutzt werden.

G80
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=69386&stc=1&d=1583737168

G92
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=69387&stc=1&d=1583737168

robbitop
2020-03-09, 08:40:20
Das muss aber intern gewesen sein. In der Öffentlichkeit und auch in Interviews wurde die NV Nomenklatur seit G70 seitens NV abgelegt.
Interessant allerdings, dass man das intern noch eine ganze Weile weitergeführt hat. Ich habe damals auch nicht verstanden, warum man das geändert hat.

Auch interessant die Codenamen nach Wissenschaftlern bis zum NV04 TNT/2: Fahrenheit. Das mit den Wissenschaftlernamen kam mEn erst mit Tesla in der Öffentlichkeit auf. Ob sie das retrospektiv nachgepfegt haben oder schon immer intern hatten?

Sunrise
2020-03-09, 20:30:26
@OC_Burner:
Wirklich erstklassige Bilder, die du da seit Jahren anfertigst, danke!

Das muss aber intern gewesen sein. In der Öffentlichkeit und auch in Interviews wurde die NV Nomenklatur seit G70 seitens NV abgelegt.
NV wird wie jedes andere Unternehmen wohl kaum alles in die Öffentlichkeit tragen, was intern ist. NV50 war Jahre in Entwicklung und hatte für damalige Verhältnisse sehr viel R&D verschlungen. Das Ding war ja ein regelrechtes Monster in vielerlei Hinsicht. Allein der Anblick des riesigen, metallenen Heatspreaders hat einem direkt Respekt eingeflößt.

Irgendwann kurz vor der Vorstellung hat man sich scheinbar der Einfachheit auf ein neues Schema festgelegt, denn G80 (Geforce 8, also 8. Generation) ist viel leichter mit den SKUs zu verbinden als NV50. G92 empfand ich allerdings als unglücklich, denn damit lebte ja quasi G80 in kompakterer Form (8800GT usw.) weiter (65nm). Aus dem Kopf bin ich gerade nicht sicher, ob es andere Änderungen (Verbesserungen ggü. NV50) gab.

Dauerte ja auch nicht lange und man kam eben zu den Bezeichnungen, wie sie seit Jahren, bzw. heute noch sind.

Man merkt eben dass NV jetzt wie ein Uhrwerk arbeitet, anfangs war da noch etwas mehr, sagen wir Variabilität/Verspieltheit in den Entscheidungen vorhanden.

pixeljetstream
2020-03-09, 22:17:12
Dauerte ja auch nicht lange und man kam eben zu den Bezeichnungen, wie sie seit Jahren, bzw. heute noch sind.
Bis zu dem Moment als mit Turing GTxxx schon wegen Tesla vergeben war ;)

Troyan
2020-03-09, 22:49:23
Auch keine Keynote, die Neuigkeiten werden am 24.03 um 14 Uhr veröffentlicht: https://nvidianews.nvidia.com/news/nvidia-gtc-news-to-be-shared-on-march-24-followed-by-investor-call

y33H@
2020-03-10, 08:44:23
Hab ich mich verguckt? Google sagt, der Call ist 16h - von News um 14h sagt Nvidia nichts.

Linmoum
2020-03-10, 09:00:20
Genau genommen ist es sogar 17 Uhr (8am pst +9 Std sind wir).

Edit: nvm, du hast recht. Sind 8Std und somit 16 Uhr.

Ghost1nTh3GPU
2020-03-10, 09:57:39
Bis zu dem Moment als mit Turing GTxxx schon wegen Tesla vergeben war ;)
Gab es nicht Einträge zu GV104? Im Silizium ist aber TU... belichtet.

robbitop
2020-03-10, 10:36:55
Da Volta keine Geforce war, wahrscheinlich eher nicht.

Ghost1nTh3GPU
2020-03-10, 11:00:25
In einem Treiber von Nvidia:
https://forums.laptopvideo2go.com/topic/32417-inf-v6112/
Bis zum finalen Tapeout waren es wohl GV10x.

Troyan
2020-03-10, 16:59:23
Hab ich mich verguckt? Google sagt, der Call ist 16h - von News um 14h sagt Nvidia nichts.

Der Investoren-Call baut auf die Neuigkeiten auf. Und nVidia veröffentlicht standardmäßig immer um 6PT/9ET die Sachen.

Piefkee
2020-03-11, 13:15:29
Würde echt lachen wenn Nv echt mit 8nm LP bei Samsung die Gaming Reihe bringt und nur die HPC auf TSMC 7nm umstellt.


Neue Infos :freak::freak:

https://twitter.com/_rogame/status/1237695252485586946

"NO EUV. GA102 has taped out. It was based on SAMSUNG 10nm. (You can call it 8nm?lol~~) And the new tegra will use the same process node."

Kopite war bisher schon bei einigen NV zeugsl in der Vergangenheit richtig. hat etwas Gewicht diese Aussage.


Macht aus meiner Sicht schon Sinn, wenn man bedenkt das es schon vor lange zeit diese Meldungen gegeben hat.
https://www.computerbase.de/2019-07/nvidia-next-gen-gpu-7-nm-samsung/

Samsung hat aber was ihren 7nm EUV Node solche Yield Probleme, dass ich nicht glaube sie können irgendwas fertigen das größer als 300mm^2 ist.

Denniss
2020-03-11, 13:32:05
bleibt die Frage ob nvidia komplett zu samsung wollte da angeblich früher mit 7EUV verfügbar/günstiger/an NV angepasster Prozess oder ob ein teil auch bei TSMC gefertigt werden sollte.
Wenn Lederjacke unbedingt Geld sparen wollte bei Samsung könnte ihm das jetzt in sein Lederjacke reinregnen.

Piefkee
2020-03-11, 14:11:43
bleibt die Frage ob nvidia komplett zu samsung wollte da angeblich früher mit 7EUV verfügbar/günstiger/an NV angepasster Prozess oder ob ein teil auch bei TSMC gefertigt werden sollte.
Wenn Lederjacke unbedingt Geld sparen wollte bei Samsung könnte ihm das jetzt in sein Lederjacke reinregnen.

Ich denke Nvidia wollte splitten.
- Samsung bekommt Geforce
- TSMC bekommt HPC

AMD war und ist nach wie vor keine ernster Gaming Konkurrent wenn man sich 7nm AMD vs 14nm Nvidia anschaut. Darum denke ich wird Nv den günstigen Deal mit Samsung eingegangen sein...

mboeller
2020-03-11, 14:19:50
Neue Infos :freak::freak:

https://twitter.com/_rogame/status/1237695252485586946



Tape-out erst jetzt??? +9 Monate ... upps. Release dann zur CES 01/2021

Das kann ich nicht wirklich glauben das Nvidia so spät dran ist.

Linmoum
2020-03-11, 14:41:35
Die Frage mit Samsung ist halt immer noch eine, die man stellen muss und die immer wieder umhergeistert. Wenn sie tatsächlich in größeren Stückzahlen bei Samsung fertigen lassen wollten, könnte sich das ordentlich verzögern.

Ravenhearth
2020-03-11, 14:45:58
Und AMD hätte mit 7nm TSMC (egal ob nun N7P oder N7+) einen Vorteil, oder?

spotz
2020-03-11, 15:01:04
Ja, sie hätten einen Vorteil in der Fertigung, auch wenn er geringer wäre mit 8nm gegen 7nm+ als in der aktuellen Generation mit 12nm gegen 7nm

dildo4u
2020-03-11, 15:21:26
Teaser für 19.3.

https://twitter.com/NvidiaANZ/status/1237657045022781440

robbitop
2020-03-11, 15:27:11
Ist ggf auch keine schlechte Idee, einen reifen Prozess mit bereits weiter vorgeschrittener Abschreibung und Kapazitäten zu nutzen statt bleeding edge. Gerade heutzutage. Dann sind die Dies halt riesig (siehe Turing). Wenn es unterm Strich trotzdem das bessere P/L erzeugt, hat man entweder mehr Marge oder kann günstiger anbieten.
Takt und Energieeffizienz war ja bei Turing in 12 nm schon ziemlich gut. Warum nicht diese Strategie weiter verfolgen? Ist interessant...

WedgeAntilles
2020-03-11, 15:31:39
Bin zwar ziemlicher Laie, aber so geht es ja den meisten Käufern.
Und für mich als Endkunde ist es doch völlig schnuppe in was das Produkt gefertigt wurde.
Ob jetzt 12nm, 10nm, 7nm oder was auch immer - mir egal.

Mich interessiert unterm Strich:
Wieviel FPS bringt das Ding?
Wie viel Strom zieht es?
Was kostet es.

Diese 3 Dinge ergeben für mich ein interessantes Produkt - oder halt auch nicht.

Ob das jetzt ein "alter" Fertigungsprozess ist oder nicht interessiert doch nicht. Von ein paar Enthusiasten mal abgesehen.

Edgecrusher86
2020-03-11, 16:11:10
Also gegenüber 14FF gibt Samsung +27% Power oder 40% mehr Effizienz an für 10nm.
Das klingt ähnlich TSMCs Vorteil von 10FF zu 16FF (+20% Power oder 40% Effizienz).
Zugleich gab TSMC noch 50%+ Packdichte mit an zu 16FF. Das sind jeweils Zahlen von 2017; also da ließe sich nun bestimmt auch noch mehr heraus kitzeln.
Die GPU wäre dann vermutlich nicht sehr viel kleiner als TU102, wenn man jetzt von maximal 6144SPs für den Desktop-Markt aus geht.

Effizienztechnisch dürfte für NVIDIA AMDs RDNA2 kein Gegner sein, auch wenn man auf einen älteren Prozess zurück greift.

Q3 2020 bis Q1 2021 wäre schon etwas spät für eine neue Generation - aber jetzt mit dem Virus ist es eh fraglich, ob und wie lange noch HW in Asien produziert wird bzw. man produzieren kann.
Südkorea ist da richtig betroffen. Stand jetzt 7751 bestätigte Fälle und 61 Tote.

Mal sehen, ob dieser Teaser für eine Überraschung gut ist, oder es sich doch um etwas ganz Anderes handelt.

robbitop
2020-03-11, 16:26:29
Woher nimmst du das Wissen über RDNA2 und dass das kein Gegner ist? Kann sein, kann aber auch nicht sein. Laut AMD hat man dort ja erhebliche Sprünge in Bezug auf Energieeffizienz erreicht. AMD wird sicherlich wie im CPU Bereich immer wettbewerbsfähiger werden wollen. Das sollte man nicht unterschätzen.

Unicous
2020-03-11, 16:30:55
Es ist einfach so. Das musst du als gegeben hinsehen.:wink:

Ich bin glaube nicht, dass Nvidia alle Chips bei Samsung fertigen lässt, aber ich könnte mir eventuell vorstellen, dass sie die großen Chips bei Samsung fertigen lassen. Etwas besserer Prozess, dafür nicht so teuer wenn es um große dies geht und wahrscheinlich deutlich höherer Yield.

Aber wir werden sehen ob sich dieses Gerücht überhaupt bewahrheitet.

robbitop
2020-03-11, 16:37:51
Es wäre zumindest konsistent mit dem was man zu Turing gemacht hat. Und es hat ja auch gut funktioniert. Es wäre zumindest nicht unwahrscheinlich dass man Dinge verfolgt, die erfolgreich liefen. Ist nicht die dümmste Strategie. Insbesondere wenn man bereits extrem gut ist in Bezug auf Energieeffizienz und in Bezug auf automatisiertes Einstellen von relativ guten Spannungen (für den jeweiligen Takt), so dass die Betriebspunkte out of the box bereits relativ gut sind. UV bringt natürlich trotzdem was - aber es ist weniger Potenzial (relativ gesehen) als bei den Radeons, da man offenbar deutlich besser pro Chip einschätzen kann wo das Limit ist und entsprechend näher daran arbeiten kann.
Das kann man dann natürlich schön kapitalisieren in dem man den Vorteil nutzt, um den Nachteil eines etwas älteren Prozesses zu kompensieren und im Endresultat monetär etwas besser aussieht. Man könnte sicher ein besseres Produkt bringen aber man bringt einfach eines was für die Konkurrenz ausreicht und optimiert Gewinnspannen. Aus betriebswirtschaftlicher Sicht ideal.
Wenn AMD obige Vorteile auch erreicht und zunehmend kompetativ wird, dann kann man diese Strategie ggf nicht unbegrenzt umsetzen, sofern man langfristig erster bleiben will.

Piefkee
2020-03-11, 17:38:15
https://pbs.twimg.com/media/ES1eBPxUEAIEyGl?format=jpg&name=small

https://twitter.com/CorgiKitty/status/1237748855426310144

Ebenfalls 10nm (8nm LPP) von Samsung...

AffenJack
2020-03-11, 17:42:07
https://pbs.twimg.com/media/ES1eBPxUEAIEyGl?format=jpg&name=small

https://twitter.com/CorgiKitty/status/1237748855426310144

Ebenfalls 10nm (8nm LPP) von Samsung...

Dazu gehört:

2.doubled FP32 units does NOT represent doubled CUDA cores

Der Typ bleibt weiter dabei, dass FP32 verdoppelt wird, aber es soll keine Verdopplung der CUDA Cores sein? Das macht keinen Sinn für mich. Das sollte man immer mit betrachten, wenn man sich die Tabelle anschaut.
Meine Zweifel an seiner Glaubwürdigkeit werden eher größer.

y33H@
2020-03-11, 17:53:32
Ein 2:1-Verhältnis von FP32 zu INT32 halt, wobei sich die Anzahl der "CUDA-Cores" an Letzteren bemisst ... klingt aber nach viel Die-Fläche für den angeblichen Performance-Gewinn.

AffenJack
2020-03-11, 17:59:47
Ein 2:1-Verhältnis von FP32 zu INT32 halt, wobei sich die Anzahl der "CUDA-Cores" an Letzteren bemisst ... klingt aber nach viel Die-Fläche für den angeblichen Performance-Gewinn.

Seit wann bemisst sich die Anzahl CUDA-Cores an INT32? Dazu wurden doch immer FP32 Einheiten herangezogen. Nicht umsonst gehts immer um TFlops, GFlops etc.

Ghost1nTh3GPU
2020-03-11, 18:05:57
Ein 2:1-Verhältnis von FP32 zu INT32 halt, wobei sich die Anzahl der "CUDA-Cores" an Letzteren bemisst ... klingt aber nach viel Die-Fläche für den angeblichen Performance-Gewinn.
Auf welcher Basis schätzt du den Flächenzuwachs?
Wenn die Ressourcen in den SMs steigen und der Cache und Co. aussenherum nur um vielleicht 30% wachsen, sollte das wohl nicht so hoch sein. Fragt sich nur wie die IPC dieser fetten SMs aussieht. Vielleicht wie bei Game-Fermi oder Kepler?

Edgecrusher86
2020-03-11, 18:22:04
Woher nimmst du das Wissen über RDNA2 und dass das kein Gegner ist? Kann sein, kann aber auch nicht sein. Laut AMD hat man dort ja erhebliche Sprünge in Bezug auf Energieeffizienz erreicht. AMD wird sicherlich wie im CPU Bereich immer wettbewerbsfähiger werden wollen. Das sollte man nicht unterschätzen.

Ich gehe davon aus dass NV bei weiterhin 260W Big Navi @ 300-350W schlägt. Wenn die heutigen Spekulationen sich als wahr erweisen sollen, aber höchstens marginal mit 10% oder ähnlichem.
Dann wäre wohl 80SM für die Ti realistisch - der Vollausbau kommt als TITAN. 12GB VRAM würden die Karte für mich komplett uninteressant machen - es wird Zeit für einen deutlichen Zuwachs.
16-24GB will ich sehen - genug für kommende Tage ohne Kompromisse. ;)

Thunderburne
2020-03-11, 19:13:19
12GB wäre echt nicht so der Burner 1080Ti 11GB jetzt mit der 2080Ti hab ich auch wieder 11 .
Mhm 12GB wären jetzt echt wenig zumal doch PS5 und co doch schon 16 GB bekommen sollen .
Hoffe mal das stimmt so nicht !
Aber NV ist ja bekannt dafür nur das nötigste zu verbauen.

crux2005
2020-03-11, 19:38:05
12GB wäre echt nicht so der Burner 1080Ti 11GB jetzt mit der 2080Ti hab ich auch wieder 11 .
Mhm 12GB wären jetzt echt wenig zumal doch PS5 und co doch schon 16 GB bekommen sollen .
Hoffe mal das stimmt so nicht !
Aber NV ist ja bekannt dafür nur das nötigste zu verbauen.

Ich erwarte mit Ampere 60, 70 und 80 auch einen Zwischenschritt bei VRAM Bestückung. Nur die Ti und Titan werden IMHO mehr als 12 GB haben.

Bzgl. PS5 und XBSX, die haben einen RAM den sich das ganze System Teilen muss. So gesehen hast du schon jetzt mit 8 GB VRAM und 16 GB RAM die gleiche Kapazität wie auf den next-gen Konsolen. Natürlich langsamer.

MiamiNice
2020-03-11, 19:43:10
Hoffentlich stimmt das so nicht. Wäre echt lahm.

robbitop
2020-03-11, 19:53:14
Naja Turing steigerte die SMs auch nicht extrem. Zumal die Bandbreitensteigerung pro Bit Busbreite jetzt auch nicht riesig ist.

Was die Cuda Cores angeht: wenn die fp32 verdoppelt worden wäre, würde man die Zahl auch angeben. Einfaches Marketing.
Ich könnte mir eher vorstellen, dass sie die Anzahl der INT Units halbiert haben, da der Mehrwert ggf nicht adäquat war und man die Transistoren anderweitig besser einsetzen könnte.
Sicherlich auch interessant zu erfahren, inwiefern die die uArch verbessert wurde. Insbesondere in Hinblick auf RT. Ggf in Bezug auf (Hardware) Ray binning?

MiamiNice
2020-03-11, 19:57:01
12GB und nur "up to 140%".
Imo vollkommen egal wie die technischen Details sind, das geht gar nicht.
Das wäre schon extrem dreist.

€: Ich würde Karten in der Art so empfinden als würde Lederjacke sagen wollen "Bitte kauft alle AMD Karten".

Digidi
2020-03-11, 20:00:03
Es wäre zumindest konsistent mehr dem was man zu Turing gemacht hat. Und es hat ja auch gut funktioniert. Es wäre zumindest nicht unwahrscheinlich dass man Dinge verfolgt, die erfolgreich liefen. Ist nicht die dümmste Strategie. Insbesondere wenn man bereits extrem gut ist in Bezug auf Energieeffizienz und in Bezug auf automatisiertes Einstellen von relativ guten Spannungen (für den jeweiligen Takt), so dass die Betriebspunkte out of the box bereits relativ gut sind. UV bringt natürlich trotzdem was - aber es ist weniger Potenzial (relativ gesehen) als bei den Radeons, da man offenbar deutlich besser pro Chip einschätzen kann wo das Limit ist und entsprechend näher daran arbeiten kann.
Das kann man dann natürlich schön kapitalisieren in dem man den Vorteil nutzt, um den Nachteil eines etwas älteren Prozesses zu kompensieren und im Endresultat monetär etwas besser aussieht. Man könnte sicher ein besseres Produkt bringen aber man bringt einfach eines was für die Konkurrenz ausreicht und optimiert Gewinnspannen. Aus betriebswirtschaftlicher Sicht ideal.
Wenn AMD obige Vorteile auch erreicht und zunehmend kompetativ wird, dann kann man diese Strategie ggf nicht unbegrenzt umsetzen, sofern man langfristig erster bleiben will.

Die Frage ist ob sich Nvidia mit dem schlechtern Prozess dann nicht verzockt. Ich traue AMD zu für RDNA2 richtig Geld in die Hand genommen zu haben, zumal zwei Konsolen auf RDNA2 basieren.

Während RDNA1 vielleicht noch ein Schneller Teslauf war um für die Konsolen noch Infos zu ziehen könnte RDNA2 davon richtig Potential schlagen.

Aber eine andere Anmerkung. Wenn Ampere in 10nm kommt dann wäre der Chip mit Ende 2020 schon sehr sehr spät dran. 10nm sollte doch gut beherrschbar sein.

Ravenhearth
2020-03-11, 20:44:15
Ich gehe davon aus dass NV bei weiterhin 260W Big Navi @ 300-350W schlägt. Wenn die heutigen Spekulationen sich als wahr erweisen sollen, aber höchstens marginal mit 10% oder ähnlichem.
Dann wäre wohl 80SM für die Ti realistisch - der Vollausbau kommt als TITAN. 12GB VRAM würden die Karte für mich komplett uninteressant machen - es wird Zeit für einen deutlichen Zuwachs.
16-24GB will ich sehen - genug für kommende Tage ohne Kompromisse. ;)
Ich wette das Gegenteil und gehe von einer sehr ähnlichen Effizienz aus. Vega -> RDNA hat bei AMD offiziell ~50% gebracht, und das nicht nur durch den Wechsel von 14nm auf 7nm. Ich denke nicht, dass 12nm -> 8nm bei Nvidia mehr bringen würde, gehe mal großzügig vom gleichen Wert aus. RDNA2 soll wie bekannt nochmal 50% bringen. Turing und RDNA sind jetzt schon etwa gleichauf, wenn beide also 50% drauf legen, sind sie immer noch gleichauf.

12GB und nur "up to 140%".
Imo vollkommen egal wie die technischen Details sind, das geht gar nicht.
Das wäre schon extrem dreist.

€: Ich würde Karten in der Art so empfinden als würde Lederjacke sagen wollen "Bitte kauft alle AMD Karten".
Mit 40% wäre GA102 wohl in Schlagdistanz von Big Navi :biggrin:

Die Frage ist ob sich Nvidia mit dem schlechtern Prozess dann nicht verzockt. Ich traue AMD zu für RDNA2 richtig Geld in die Hand genommen zu haben, zumal zwei Konsolen auf RDNA2 basieren.

Während RDNA1 vielleicht noch ein Schneller Teslauf war um für die Konsolen noch Infos zu ziehen könnte RDNA2 davon richtig Potential schlagen.
Ganz genau, falls das zutrifft sehe ich eine große Chance für AMD. Es sei denn, Nvidia hat noch ein Ass im Ärmel.

MiamiNice
2020-03-11, 20:50:54
Ich habe tendenziell keine Probleme damit eine AMD Karte zu kaufen. Wenn der Balken länger ist, ist der länger. Simple as that.

Troyan
2020-03-11, 20:56:20
Immer wieder geil, wie Leute jeden Quatsch im Internet glauben. nVidia mit doppelt soviel R&D schafft also nur 50% von 16nm auf 7/8/whatever nm und das mit neuer Architektur.

Naja, Leute unterschätzen nVidia immer und immer wieder. Dabei hätte man seit Maxwell längst begreifen müssen, dass nVidia weit voraus ist.

Linmoum
2020-03-11, 20:59:28
Was Nvidia schaffen kann, ist aber unerheblich. Wenn sie der Meinung sind, sie müssen die RT-Performance massiv nach oben schrauben und das ist mit Abstand Target #1, dann kann das eben auf Kosten anderweitiger potentieller Performancezuwächse gehen.

basix
2020-03-11, 21:14:41
Je nach dem wie Raytracing-Heavy die neue Konsolengeneration wird, kann das sogar der sinnvollere Ansatz sein. Oder anders gesagt: Mehr Fläche für Raytracing ist sinnvoller investiert als mehr Fläche für FP32. Der stärkste Rasterizer-Chip würde gnadenlos einbrechen, wenn er nicht auch entsprechend stark auf Raytracing optimiert würde.

Stellt euch vor wie geil es jeder finden würde, wenn man vielleicht -10% an Performance verlieren würde bei aktiviertem Raytracing anstatt -40%. Und 0.9 / 0.6 = 1.5 --> 150% Performance --> 1.4 * 1.5 = 2.1x Performance bei RT (was die meisten Spiele ab 2021 verwenden werden). Für 2.1x Performance Steigerung via Brute Force müsste man wohl viel mehr Chip-Fläche investieren.

Ghost1nTh3GPU
2020-03-11, 21:28:23
BHV Erzeugung und Raytesting kann man sicherlich beschleunigen. Aber aufwendige Reflektionen/RT-Beleuchtungsberechnungen brauchen trotzdem Rohleistung. Weitere Ressourcen innerhalb der SMs bringen da vielleicht relativ viel, wenn die Berechnungen hohe gemeinsame Abhängigkeiten aufweisen.
Dazu wird wohl Tensor/AI auch innerhalb der Renderpipeline eine größere Rolle spielen, nicht nur beim Upscaling/Upsampling.

Ex3cut3r
2020-03-11, 21:42:46
Immer wieder geil, wie Leute jeden Quatsch im Internet glauben. nVidia mit doppelt soviel R&D schafft also nur 50% von 16nm auf 7/8/whatever nm und das mit neuer Architektur.

Naja, Leute unterschätzen nVidia immer und immer wieder. Dabei hätte man seit Maxwell längst begreifen müssen, dass nVidia weit voraus ist.

Sehe ich auch so, bei Nvidia wird regelmäßig klein Spekuliert, war bei Maxwell so, war bei Pascal so usw. Aber bei AMD da wird dann übermäßig gepusht und was weiß ich für Erwartungen geschnürt. Lächerlich. Vega 64 sollte ja der Killer schlechthin sein/werden genauso wie Hawaii, Polaris und Co. RDNA ging in die richtige Richtung, aber wie RDNA 2 weiß niemand, ich traue AMD immer einen Bock zu, einfach da Sie an zwei Fronten gleichzeitig kämpfen.

Linmoum
2020-03-11, 21:51:30
Sehe ich auch so, bei Nvidia wird regelmäßig klein Spekuliert, war bei Maxwell so, war bei Pascal so usw.Wat? Bei Ampere wird doch nicht klein spekuliert. Da geht jeder steil, weil Gerüchte von +50% Performance bei nur halbem Verbrauch sprechen. Oder die zuletzt aufgetauchten Amperes mit rund 8000 Shadern, die ja garantiert so für Consumer kommen werden.

Was zuletzt enorm gepusht wurde, sind die Erwartungen an den Turing-Nachfolger. Da kennt man kein klein, das wird alles garantiert riesig und gigantisch. So will es die Gerüchteküche und so geschehe es selbstverständlich.

Troyan
2020-03-11, 21:54:17
Nirgendwo wird was gepusht. Aber alleine ein simpler Shrink von 16nm auf 7nm steigert die Effizienz um das doppelte. AMD hat bei Vega 7 30% Steigerung bei 20% mehr Takt gegenüber Vega64 erreicht. Und hier glaubt man, dass nVidia drei Jahre nach Volta und zwei Jahre nach Turing 40% schafft.

Ex3cut3r
2020-03-11, 21:55:38
Der Witz ist doch schon wieder, das ihr wirklich meint das Ampere im minderwertigen Prozess von Samung in 10nm kommen wird, wie dumm soll Nvidia sein? Damit wird man nix gewinnen im Vergleich zu Turing. Jeder wurde eine AMD Karte kaufen, selbst ich.

robbitop
2020-03-11, 22:01:49
Die Frage ist ob sich Nvidia mit dem schlechtern Prozess dann nicht verzockt. Ich traue AMD zu für RDNA2 richtig Geld in die Hand genommen zu haben, zumal zwei Konsolen auf RDNA2 basieren.

Während RDNA1 vielleicht noch ein Schneller Teslauf war um für die Konsolen noch Infos zu ziehen könnte RDNA2 davon richtig Potential schlagen.

Aber eine andere Anmerkung. Wenn Ampere in 10nm kommt dann wäre der Chip mit Ende 2020 schon sehr sehr spät dran. 10nm sollte doch gut beherrschbar sein.
Naja 8nm was eine Art 10nm+(+++?) ist. Ähnlich wie 12nm zu 14/16nm.

Aber es ist halt nur 1x Fullnodesprung. 12nm auf 7 nm+ sind quasi 2x Fullnodesprünge. Die Zahlen verwirren halt 8nm und 12nm klingen relativ zu 16nm und 10nm nach mehr Fortschritt als sie sind. Da ist die + Nomenklatur von Intel IMO klarer.

MiamiNice
2020-03-11, 22:04:24
Nirgendwo wird was gepusht. Aber alleine ein simpler Shrink von 16nm auf 7nm steigert die Effizienz um das doppelte. AMD hat bei Vega 7 30% Steigerung bei 20% mehr Takt gegenüber Vega64 erreicht. Und hier glaubt man, dass nVidia drei Jahre nach Volta und zwei Jahre nach Turing 40% schafft.

Das hindert NV aber nicht daran an Gaming Ampere den Rotstift anzusetzen.

dildo4u
2020-03-11, 22:06:21
Immer wieder geil, wie Leute jeden Quatsch im Internet glauben. nVidia mit doppelt soviel R&D schafft also nur 50% von 16nm auf 7/8/whatever nm und das mit neuer Architektur.

Naja, Leute unterschätzen nVidia immer und immer wieder. Dabei hätte man seit Maxwell längst begreifen müssen, dass nVidia weit voraus ist.
Lässt sich ganz einfach erklären man lässt Luft für ein Super Refrech,vermute Mal die Investoren mögen es wenn es jedes Jahr neue Modelle gibt.

robbitop
2020-03-11, 22:08:09
Immer wieder geil, wie Leute jeden Quatsch im Internet glauben. nVidia mit doppelt soviel R&D schafft also nur 50% von 16nm auf 7/8/whatever nm und das mit neuer Architektur.

Naja, Leute unterschätzen nVidia immer und immer wieder. Dabei hätte man seit Maxwell längst begreifen müssen, dass nVidia weit voraus ist.

Turing brachte nur grob 40% ggü Pascal. Es geht oft nicht darum, was möglich ist. Oft ist es sinnvoller, das zu bringen was nötig ist um noch sein Ziel zu erreichen und damit aber seinen Profit zu maximieren. Das ist wesentlich cleverer als Unternehmen.

Troyan
2020-03-11, 22:14:52
Turing brachte nur grob 40% ggü Pascal. Es geht oft nicht darum, was möglich ist. Oft ist es sinnvoller, das zu bringen was nötig ist um noch sein Ziel zu erreichen und damit aber seinen Profit zu maximieren. Das ist wesentlich cleverer als Unternehmen.

nVidia hat keine Ahnung, was die Konkurrenz macht. Daher bringt man immer das beste, was machbar ist. Deswegen ist Turing auch Lichtjahre AMD voraus, weil man sich eben nicht ausgeruht hat.

Selbst Pascal ist noch vollkommen ausreichend für Navi. Würde nVidia nur das nötigste machen, hätte man einfach nur einen Pascal-Refresh rausgebracht.

MiamiNice
2020-03-11, 22:19:07
Daher bringt man immer das beste, was machbar ist.

Nach der Logik dürfte es keine Super Karten geben.

Der_Korken
2020-03-11, 22:26:25
Wenn Nvidia wirklich nen Sparprozess für Ampere verwendet, ist es nicht unwahrscheinlich, dass der Leistungszuwachs eher mäßig wird. Die 12nm hat Nvidia fast schon überreizt, wo soll da der Raum zum wachsen herkommen? Ich finde es aber total merkwürdig, dass Nvidia nicht auf 7nm setzen soll. Die erste 7nm-Karte kam Ende 2018 raus, d.h. bis Jahresende ist der Prozess zwei Jahre auf dem Markt. Warum sollte Nvidia das nicht nutzen und riskieren, dass AMD sie mit ihrer zweiten 7nm-Gen aussticht?

robbitop
2020-03-11, 22:45:26
nVidia hat keine Ahnung, was die Konkurrenz macht. Daher bringt man immer das beste, was machbar ist. Deswegen ist Turing auch Lichtjahre AMD voraus, weil man sich eben nicht ausgeruht hat.

Selbst Pascal ist noch vollkommen ausreichend für Navi. Würde nVidia nur das nötigste machen, hätte man einfach nur einen Pascal-Refresh rausgebracht.

Aus Performance Sicht war Turing allerdings ein Kompromiss. Man wußte, dass man genug Performancevorsprung hat um Transistoren in Innovation zu investieren, die wiederum einen langfristigen Vorteil für NV hat (man kann Schnittstellen mitgestalten, Studios optimieren für die vorhandene HW, es bringt buzz, es verhindert, dass GPUs irgendwann zur Commodity werden etc)

Das war clever. Man hätte auch einfach nur die Performancekeule auspacken können wie bei Pascal oder einfach nur einen Pascal Refresh bringen können. Aber man hat die Chance für langfristige Vorteile investiert.

horn 12
2020-03-12, 06:54:03
Und da hies es immer: 2020 wird das Jahr der Grafikkkarten Revolution.
Zudem von Beiden Seiten.

y33H@
2020-03-12, 08:33:43
Kann es ja mit Blick auf Raytracing immer noch werden.

mironicus
2020-03-12, 08:53:22
Bis jetzt war es ja so, dass die Quadro-GPUs auch in den Gaming-Karten verwendet worden sind. Bei der Trennung von 7nm für Quadro und 10 nm für Gaming kann NVidia mehr Gewinn machen, wenn sie den teuren 7 nm-Prozess für weniger GPUs buchen müssen, und den billigeren 10 nm-Prozess für Gaming-GPUs.

Dural
2020-03-12, 09:34:18
Ihr glaubt diesen Müll ernsthaft noch? :rolleyes:

GA103 :freak:

robbitop
2020-03-12, 10:10:18
GA103 poppte allerdings schon mehrfach auf. Nichts ist für immer konstant.

Dural
2020-03-12, 10:24:57
Die Zusammenstellung macht null Sinn, zudem alle Daten von älteren Grafikkarten oder Chips es so schon gibt, ziemlich grosser Zufall...

Dazu rechne ich ganz stark damit das wir einen deutlichen Speicher Erweiterung bekommen werden, die 3. Generation in Folge mit der gleichen Speicherbestückung dürften wir kaum sehen.

Ghost1nTh3GPU
2020-03-12, 10:29:16
Ein HBM2 Chip abseits des HPC Monsters wäre vielleicht auch sinnvoll. 12 Module GDDR6 sind alles andere als kompakt, in Servern oder mobilen Workstations ein Platzprobleme.

Dural
2020-03-12, 10:39:53
NV verbaut ja eh nur 11 Module, das ergibt 22GB.
Bei der 256Bit Version dürften 16GB kommen.

Alles andere wäre im Jahr 2021 auch kaum verkaufbar in dieser Preisklasse.

X-Bow
2020-03-12, 10:53:03
Teaser für 19.3.

https://twitter.com/NvidiaANZ/status/1237657045022781440


Tweet wurde wieder gelöscht.

AffenJack
2020-03-12, 12:17:31
Vom gleichen User, der die Tabelle bei Twitter gepostet hat, kommt bei FP32 jetzt zurückrudern.

https://twitter.com/CorgiKitty/status/1237958278153293825

1.Just to clarify, previous charts about doubled FP32 units was just a conception, with no actual evidence behind it
Don't take it too seriously
2.Ampere will not tamper with anything inside CUDA cores

Jetzt sollen das also nur Gedankengänge gewesen sein. Klingt für mich eher nach dem Versuch sich irgendwie zu retten, nachdem ihm zuviele geschrieben haben, dass es kein Sinn ergibt.

Nazar
2020-03-12, 12:44:47
Je nach dem wie Raytracing-Heavy die neue Konsolengeneration wird, kann das sogar der sinnvollere Ansatz sein. Oder anders gesagt: Mehr Fläche für Raytracing ist sinnvoller investiert als mehr Fläche für FP32. Der stärkste Rasterizer-Chip würde gnadenlos einbrechen, wenn er nicht auch entsprechend stark auf Raytracing optimiert würde.

Stellt euch vor wie geil es jeder finden würde, wenn man vielleicht -10% an Performance verlieren würde bei aktiviertem Raytracing anstatt -40%. Und 0.9 / 0.6 = 1.5 --> 150% Performance --> 1.4 * 1.5 = 2.1x Performance bei RT (was die meisten Spiele ab 2021 verwenden werden). Für 2.1x Performance Steigerung via Brute Force müsste man wohl viel mehr Chip-Fläche investieren.



Wenn die Karte wirklich in die Richtung "RT at first" geht, wird sie in den Ladenregalen verstauben, denn die Masse der Spieler ist nicht bereit viel Geld für etwas zu bezahlen, dessen Nutzen visuell nicht ebenso sichtbar ist wie AF oder noch besser AA und kaum Mehrleistung bei alten Spielen ohne RT bringen wird.

ChaosTM
2020-03-12, 12:59:47
Da geb ich Nazar 100% recht. Siehe auch RDR2 - so macht man das - auch ohne RTRT.

basix
2020-03-12, 13:00:59
Wenn die Karte wirklich in die Richtung "RT at first" geht, wird sie in den Ladenregalen verstauben, denn die Masse der Spieler ist nicht bereit viel Geld für etwas zu bezahlen, dessen Nutzen visuell nicht ebenso sichtbar ist wie AF oder noch besser AA und kaum Mehrleistung bei alten Spielen ohne RT bringen wird.

Bei Turing sind die Verkaufszahlen ja tip top ;)
Ausserdem wir RT mit den Next Gen Konsolen massiv an Bedeutung gewinnen.

Zudem: Ampere-Chips werden ja Leistung bringen. Jeder, der noch auf Pascal oder älter unterwegs ist (und das sind viele) wird Ampere ein guter Sprung bei allen Spielen + RT als Sahnehäubchen obendrauf.

Wenn RT keinen Vorteil bringen würde, würden die Spieleentwickler es nicht so loben (Sprichwort vereinfachte Entwicklung, verbesserte Beleuchtung).

Dampf
2020-03-12, 13:16:35
Dazu rechne ich ganz stark damit das wir einen deutlichen Speicher Erweiterung bekommen werden, die 3. Generation in Folge mit der gleichen Speicherbestückung dürften wir kaum sehen.

Das macht schon Sinn. Mehr als 12 GB sind einfach nicht notwendig, das wissen sowohl die GPU Hersteller als auch die Spielentwickler. GDDR6 ist sehr teuer, 16 GB würden die Preise wieder unnötigerweise in die Höhe treiben und jeder würde wieder weinen. AMD wirds vielleicht wagen, um die Speicherhysteriker zufrieden zu stellen und ein Kaufargument zu haben.

HOT
2020-03-12, 15:36:24
PCGH hats nochmal verwurstet:
https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Ampere-Technische-Daten-und-Leistungseinschaetzung-machen-die-Runde-1345358/

GA103 mit 10GB ist hat durchaus was. Dürfte den TU102 schon übertreffen.

y33H@
2020-03-12, 15:37:13
140% ausgehend von 100% ist mehr als doppelt so schnell, aha ;D

Edgecrusher86
2020-03-12, 15:45:10
Das macht schon Sinn. Mehr als 12 GB sind einfach nicht notwendig, das wissen sowohl die GPU Hersteller als auch die Spielentwickler. GDDR6 ist sehr teuer, 16 GB würden die Preise wieder unnötigerweise in die Höhe treiben und jeder würde wieder weinen. AMD wirds vielleicht wagen, um die Speicherhysteriker zufrieden zu stellen und ein Kaufargument zu haben.

Die Preise werden doch sowieso vierstellig sein im Highend- und Enthusiasten-Segment; vielleicht sogar bei "GA103" schon als vermeintliche 80 non Ti - damit muss man nun nicht wirklich ankommen mit zu teuer. ;D
12GB mag vielleicht derzeit noch für 4K durch die Bank okay sein - aber wenn man z.b. ab der nächsten Ti auch 5K bewerben will, sieht es schon anders aus, so als Beispiel. ;)

HOT
2020-03-12, 15:46:54
Die Speichermengen machen mir sorgen. 8GB für ne Karte, die fast so schnell ist wie ne 2080Ti?

Edgecrusher86
2020-03-12, 15:47:35
Das wär dann quasi die nächste RTX 2060 non S - nur im Bereich 500+ $/€. :biggrin:
Auch eine 10GB Karte, die flotter als die 2080 Ti ist, wäre üble Melkerei. Das sollte NIEMAND unterstützen im Bereich von 800-1000 $/€; meine Preis-Einschätzung.

E: Wobei eine Karte knapp hinter 2080 Ti bei 8GB wäre eher vergleichbar mit der GTX 680 2GB SLI oberhalb 1620p damals oder GTX 1060 3GB. :D

MartinRiggs
2020-03-12, 16:04:15
Die aktuellen Spekulationen stimmen echt nicht froh, mal abwarten was da wirklich released wird.

Ich werde auf jedenfall kein Speicherdowngrade machen und dann auch noch einen Haufen Geld dafür bezahlen.:freak:

Lehdro
2020-03-12, 16:23:25
Die Speichermengen machen mir sorgen. 8GB für ne Karte, die fast so schnell ist wie ne 2080Ti?
Guck dir Turing an:

RTX 2060: 6 GiB für ne Karte die so schnell war wie Pascal mit 8GiB
RTX 2080: 8 GiB für ne Karte die so schnell war wie Pascal mit 11 GiB

Und das obwohl RT deutlich mehr Speicher braucht. NV treibt damit die geplante Obsoleszenz auf die Spitze. Zutrauen würde ich es ihnen.

Ex3cut3r
2020-03-12, 16:23:33
Mit 8GB in der RTX 3080/3070 brauchen die gar nicht kommen, das Ding wird ein Ladenhüter, lächerlich seit 2016 mit der 1070/1080 wäre keine Weiterentwicklung da, und das obwohl mit RT der VRAM Bedarf steigt und neue Konsolen mit mehr Speicher kommen auch noch. 16GB müssen einfach Standard sein. Und davon gehe ich auch aus.

Soll es eben von mir aus wieder teurer werden, eine 8GB Karte kaufe ich zum dritten mal in Folge sicherlich nicht.
Kriegt eben AMD mein Geld, da werden 16GB sicherlich Standard werden.

HOT
2020-03-12, 17:09:35
Das wird gekauft werden, die meisten kümmert das gar nicht fürchte ich. 3080 hätte dann ja auch 10GB. Nur die 3070 hätte 8 und die 3060 eben 6. Die wird dann auch der Ladenhüter, wie die 2060. Dann braucht man halt auch wieder ein Super-Refresh.
Man kann sicherlich wieder davon ausgehen, dass der 102er Salvage wird, also nur 5120 Shader bringt und 11GB, wie gehabt. Erst die Titan hat wieder alle Shader und 12GB. Man wird sicherlich den Basistakt >1800 und Turbo <2200 schrauben und der Chip wird die 600mm² wohl nicht reißen dieses Mal. Das Ganze würde dann mit 18GT/s Speicher laufen (ab 3060 abwärts dann 16 und 14GT/s), das passt dann auch hervorragend zur Leistungsbilanz der Chips.

Dural
2020-03-12, 17:14:36
Nein und noch mal Nein. :rolleyes:

Könnte mir noch vorstellen das NV irgend welche Krummen Speicher nehmen könnte, zb. 256Bit mit 12GB, aber das bezweifele ich mal.

Aktuell dürfte wegen dem Corona so wie so nichts auf den Markt kommen.

Dampf
2020-03-12, 17:22:46
Mit 8GB in der RTX 3080/3070 brauchen die gar nicht kommen, das Ding wird ein Ladenhüter, lächerlich seit 2016 mit der 1070/1080 wäre keine Weiterentwicklung da, und das obwohl mit RT der VRAM Bedarf steigt und neue Konsolen mit mehr Speicher kommen auch noch. 16GB müssen einfach Standard sein. Und davon gehe ich auch aus.

Soll es eben von mir aus wieder teurer werden, eine 8GB Karte kaufe ich zum dritten mal in Folge sicherlich nicht.
Kriegt eben AMD mein Geld, da werden 16GB sicherlich Standard werden.

lol... warum geht man immer davon aus, dass mit den Konsolen der Speicherbedarf stark ansteigt und man sich mit viel Speicher davor wappnen müsse? Von den 16 GB RAM der Konsolen werden 3 GB ans OS reserviert, diese 13 GB müssen von GPU und CPU als VRAM und RAM geteilt werden, also gar nicht vergleichbar mit 8 GB dediziertem Speicher.

Und ja, RT frisst zur Zeit viel Speicher, aber das muss in Zukunft nicht so bleiben, wenn Spiele von Grund auf mit RT in mind entwickelt werden, zur Zeit ist es sehr rudimentär implementiert. Mit Raytracing spart man sogar viel clutter und unnötigen Code in der Engine, was den Speicherverbrauch auch wieder senken kann.
Schon mal was von DirectX Sampler Feedback gehört? Das wird auch den VRAM-Verbrauch von Texturen reduzieren.

Bei der letzten Konsolengeneration ist der VRAM Bedarf nur so stark gestiegen, weil man von der PS3 zur PS4 einen Speicherzuwachs um den Faktor 21 hatte. Diesmal hat man nur einen Faktor 2,3. Diese ganze Hysterie um den Speicher ist einfach lächerlich, das weiß auch Nvidia und die werden wegen euch Speicherhysterikern ganz sicher nicht die Preise sinnlos in die Höhe treiben!

Monsta
2020-03-12, 17:24:47
Nein und noch mal Nein. :rolleyes:

Könnte mir noch vorstellen das NV irgend welche Krummen Speicher nehmen könnte, zb. 256Bit mit 12GB, aber das bezweifele ich mal.

Aktuell dürfte wegen dem Corona so wie so nichts auf den Markt kommen.

Ja ich denke auch das die Kaufbereitschaft aktuell sehr niedrig ist.
Ich selber habe aktuell keine Lust mein Geld für Spielzeug auszugeben.

Nosferatu1
2020-03-12, 19:28:37
raus damit papi braucht spielzeug für rdr 2 max settings :)

crux2005
2020-03-12, 23:43:15
lol... warum geht man immer davon aus, dass mit den Konsolen der Speicherbedarf stark ansteigt und man sich mit viel Speicher davor wappnen müsse? Von den 16 GB RAM der Konsolen werden 3 GB ans OS reserviert, diese 13 GB müssen von GPU und CPU als VRAM und RAM geteilt werden, also gar nicht vergleichbar mit 8 GB dediziertem Speicher.

Und ja, RT frisst zur Zeit viel Speicher, aber das muss in Zukunft nicht so bleiben, wenn Spiele von Grund auf mit RT in mind entwickelt werden, zur Zeit ist es sehr rudimentär implementiert. Mit Raytracing spart man sogar viel clutter und unnötigen Code in der Engine, was den Speicherverbrauch auch wieder senken kann.
Schon mal was von DirectX Sampler Feedback gehört? Das wird auch den VRAM-Verbrauch von Texturen reduzieren.

Bei der letzten Konsolengeneration ist der VRAM Bedarf nur so stark gestiegen, weil man von der PS3 zur PS4 einen Speicherzuwachs um den Faktor 21 hatte. Diesmal hat man nur einen Faktor 2,3. Diese ganze Hysterie um den Speicher ist einfach lächerlich, das weiß auch Nvidia und die werden wegen euch Speicherhysterikern ganz sicher nicht die Preise sinnlos in die Höhe treiben!

+1

Klar ist mehr VRAM immer gut (gerade für 4K und DXR). Wenn ich aber sehe was alles mit 5-6 GB VRAM in 1440p möglich ist, dann sollten die Entwickler endlich besser in dieser Hinsicht optimieren.

Diese next-gen. von Konsolen wird Wahrscheinlich eh mehr in Richtung "schönere" Pixel gehen als "höher auflösende" Texturen.

Rampage 2
2020-03-13, 01:03:34
GA103 poppte allerdings schon mehrfach auf. Nichts ist für immer konstant.


Jep, und auch von einer optionalen Version mit 20GB VRAM wurde schonmal berichtet. Ich habe die Befürchtung, dass an dieser Information etwas Wahres dran ist - also Verbreiterung des SI auf 320 Bit für eine hypothetische 3080. Das könnte man sich so vorstellen:

GA102: 384 Bit (Titan) @ 24GB VRAM, 352 Bit (3080 Ti) @ 11GB VRAM mit optionaler 22GB Variante

GA103: 320 Bit (3080) @ 10GB VRAM mit optionaler 20GB Variante

GA104: 256 Bit (3070) @ 8GB VRAM mit optionaler 16GB Variante

Das macht schon Sinn. Mehr als 12 GB sind einfach nicht notwendig, das wissen sowohl die GPU Hersteller als auch die Spielentwickler. GDDR6 ist sehr teuer, 16 GB würden die Preise wieder unnötigerweise in die Höhe treiben und jeder würde wieder weinen. AMD wirds vielleicht wagen, um die Speicherhysteriker zufrieden zu stellen und ein Kaufargument zu haben.


Das Preisproblem lässt sich durch das Anbieten von jeweils 2 Varianten (eine optionale Variante mit doppeltem Speicherausbau) lösen. Die 16GB hätte eigentlich schon die RTX 2080 & 2070 haben sollen - da ist es umso wahrscheinlicher (dringender), dass diese Verdopplung jetzt bei der RTX 3080/3070 stattfindet...


Auch eine 10GB Karte, die flotter als die 2080 Ti ist, wäre üble Melkerei. Das sollte NIEMAND unterstützen im Bereich von 800-1000 $/€; meine Preis-Einschätzung.


*unterschreib*

Ich hoffe, dass sich das Niemand gefallen lässt, falls Nvidia nur eine 10GB-Variante rausbringt.

R2

Rampage 2
2020-03-13, 01:36:11
lol... warum geht man immer davon aus, dass mit den Konsolen der Speicherbedarf stark ansteigt und man sich mit viel Speicher davor wappnen müsse? Von den 16 GB RAM der Konsolen werden 3 GB ans OS reserviert, diese 13 GB müssen von GPU und CPU als VRAM und RAM geteilt werden, also gar nicht vergleichbar mit 8 GB dediziertem Speicher.


Ich glaube absolut nicht daran, dass die NextGen-Konsolen nur doppelt so viel Speicher haben, wie die Vorgängergeneration - eher 32GB, oder als Notlösung 24GB. Selbst bei Letzterem wäre abzüglich 3GB immer noch 21GB für Spiele übrig - fast doppelt so viel, wie eine 2080 Ti derzeit hat.

Und natürlich lässt sich Konsolen-RAM nicht mit PC-RAM vergleichen. Der PC mag zwar insgesamt mehr Gesamtspeicher haben (z.B. 8GB Grafikspeicher + 32GB Hauptspeicher = 40GB Gesamtspeicher), aber im Gegensatz zu den Konsolen läuft die Kommunikation über PCI-Express mit lächerlichen 16GB/sek. bi-direktional (PCIe 4.0) sowie etwas weniger lächerlichen 64GB/sek. @ DDR4-4000 Hauptspeicher (was heutzutage die meisten PC-Systeme hinbekommen). Bei den Konsolen entfällt dieses Problem, weil es seit der allerersten X-Box (2002) ein Shared Bus ist. Der XDR-RAM der PS3 ist heute immer noch schneller als eine PCIe 4.0-Verbindung (25.6GB/sek. vs. 16GB/sek.) und glatt 3x so schnell wie damaliger Hauptspeicher (8.53 - 10.66GB/sek.). Deswegen kann man 40GB Speicher auf dem PC !für Spiele! nicht so einfach zusammenflanschen wie bei Konsolen;)


Und ja, RT frisst zur Zeit viel Speicher, aber das muss in Zukunft nicht so bleiben, wenn Spiele von Grund auf mit RT in mind entwickelt werden, zur Zeit ist es sehr rudimentär implementiert. Mit Raytracing spart man sogar viel clutter und unnötigen Code in der Engine, was den Speicherverbrauch auch wieder senken kann.
Schon mal was von DirectX Sampler Feedback gehört? Das wird auch den VRAM-Verbrauch von Texturen reduzieren.


Nicht nur RT - zukünftige OpenWorld-Spiele mit einer einzigen, dafür aber riesigen Karte bei gleichzeitig hochauflösenden Texturen (z.B. Arma 4) oder zukünftige idTech-Spiele mit einer einzigen gigantischen Haupttextur (MegaTexture) könnten Hauptspeicher und Grafikspeicher zum Frühstück verschlingen;)


Bei der letzten Konsolengeneration ist der VRAM Bedarf nur so stark gestiegen, weil man von der PS3 zur PS4 einen Speicherzuwachs um den Faktor 21 hatte. Diesmal hat man nur einen Faktor 2,3. Diese ganze Hysterie um den Speicher ist einfach lächerlich, das weiß auch Nvidia und die werden wegen euch Speicherhysterikern ganz sicher nicht die Preise sinnlos in die Höhe treiben!


Faktor 16 (512MiB Shared RAM vs. 8GiB Shared RAM). Und nochmal, ich kann mir unmöglich vorstellen, dass die neuen Konsolen nur 16GB Speicher haben werden:|

R2

Thunderburne
2020-03-13, 06:49:33
Bei der PS5 geht man ja von 16GB aus +4GB DDR4.

Ich glaub das Devkit kam mit 24+4 daher
https://www.ps5playstation5.com/specs/

Rampage 2
2020-03-13, 07:32:44
Bei der PS5 geht man ja von 16GB aus +4GB DDR4.

Das ist immer noch viel zu wenig - aber wenn's wirklich 24+4 (also 24GB für Spiele reserviert) sind, dann ginge es noch. Optimal wären 32+4, aber 24+4 wären auch passabel für die kommenden 3-4 Jahre. So wie es aussieht, wird die kommende Konsolengeneration nicht so lange halten, wie die aktuelle...

R2

dildo4u
2020-03-13, 08:56:25
Die alten Konsolen brauchten viel RAM da sie 5400 RPM HDDs hatten, Streaming kann mit SSD viel aggressiver angewendet werden.

=Floi=
2020-03-13, 09:11:49
Die alten Konsolen brauchten viel RAM da sie 5400 RPM HDDs hatten, Streaming kann mit SSD viel aggressiver angewendet werden.

Bei 110gb spielen stehst du irgendwann mal an.
Auf dem pc braucht man jetzt schon für bestimmte spiele eine SSD.

woodsdog
2020-03-13, 09:47:09
Bei 110gb spielen stehst du irgendwann mal an.
Auf dem pc braucht man jetzt schon für bestimmte spiele eine SSD.

Welche Spiele abgesehen von Scam Citizen haben denn eine SSD als Vorraussetzung?

MartinRiggs
2020-03-13, 09:53:56
Vorraussetzung wüsste ich nicht, aber schau dir doch die Größen von Games an.

Ich kenne es von einem Kumpel, Arc Suvival Evolved kommt auf HDD mit nachladen nicht hinterher und spielt sich von Platte wirklich unsauber.
Sowas wie R6-Siege "wiegt" auch 100Gb, das will ich nicht von Platte streamen müssen.

Ich habe seit langem alle Games auf SSD, HDD ist reines Datengrab.

basix
2020-03-13, 09:59:46
Die alten Konsolen brauchten viel RAM da sie 5400 RPM HDDs hatten, Streaming kann mit SSD viel aggressiver angewendet werden.

Definitiv. Mit 50MB/s einer HDD ging das ca. 110sec bis man 5.5GByte einer PS4 (für Spiele) gefüllt hat. Bei Next-Gen mit 2-4 GB/s benötigt man 4-12sec bis man den ganze RAM gefüllt hätte, je nach Speichermenge. Das ist ein Sprung von 10...30x

Aber dennoch, es dauert ein paar Sekunden. Man kann somit nicht den Inhalt des RAMs jede Sekunde erneuern. Das meiste wird man also trotzdem im RAM vorhalten müssen.

Dampf
2020-03-13, 11:12:15
Ich glaube absolut nicht daran, dass die NextGen-Konsolen nur doppelt so viel Speicher haben, wie die Vorgängergeneration - eher 32GB, oder als Notlösung 24GB. Selbst bei Letzterem wäre abzüglich 3GB immer noch 21GB für Spiele übrig - fast doppelt so viel, wie eine 2080 Ti derzeit hat.

Und natürlich lässt sich Konsolen-RAM nicht mit PC-RAM vergleichen. Der PC mag zwar insgesamt mehr Gesamtspeicher haben (z.B. 8GB Grafikspeicher + 32GB Hauptspeicher = 40GB Gesamtspeicher), aber im Gegensatz zu den Konsolen läuft die Kommunikation über PCI-Express mit lächerlichen 16GB/sek. bi-direktional (PCIe 4.0) sowie etwas weniger lächerlichen 64GB/sek. @ DDR4-4000 Hauptspeicher (was heutzutage die meisten PC-Systeme hinbekommen). Bei den Konsolen entfällt dieses Problem, weil es seit der allerersten X-Box (2002) ein Shared Bus ist. Der XDR-RAM der PS3 ist heute immer noch schneller als eine PCIe 4.0-Verbindung (25.6GB/sek. vs. 16GB/sek.) und glatt 3x so schnell wie damaliger Hauptspeicher (8.53 - 10.66GB/sek.). Deswegen kann man 40GB Speicher auf dem PC !für Spiele! nicht so einfach zusammenflanschen wie bei Konsolen;)




Nicht nur RT - zukünftige OpenWorld-Spiele mit einer einzigen, dafür aber riesigen Karte bei gleichzeitig hochauflösenden Texturen (z.B. Arma 4) oder zukünftige idTech-Spiele mit einer einzigen gigantischen Haupttextur (MegaTexture) könnten Hauptspeicher und Grafikspeicher zum Frühstück verschlingen;)




Faktor 16 (512MiB Shared RAM vs. 8GiB Shared RAM). Und nochmal, ich kann mir unmöglich vorstellen, dass die neuen Konsolen nur 16GB Speicher haben werden:|

R2

Gutes Argument, das mit PCIe stimmt natürlich, rein von der Bandbreite her ist der PC natürlich limitierter als eine Konsole. Folgendes gilt aber zu beachten: es ist immer noch ein shared memory pool. Wenn die GPU jetzt plötzlich signifikant mehr Bandbreite nutzt, weil eventuell große Texturen oder Assets geladen werden, dann hat die CPU natürlich effektiv teils signifikant weniger von dieser Bandbreite zur Verfügung und andersrum. Dieses Problem hast du beim PC nicht, egal was passiert die 60 GB/s stehen der CPU komplett zur Verfügung und z.B. 336 GB/s GDDR6 stehen der Grafikkarte komplett zur Verfügung. Die 16 GB/s vom PCIe im Vergleich zum Shared RAM sollten eigentlich nur limitieren, wenn der Grafikspeicher überfüllt wird oder eben wenn Texturen von der HDD/SSD in den VRAM geladen werden, danach ist das größtenteils kein so limitierender Faktor mehr. Außerdem hat DDR4 eine erheblich geringere Latenz als GDDR6, Bandbreite ist weit nicht alles, besonders in Spielen ist eine geringe Latenz wichtig. Wie du siehst nehmen sich beide Methoden nicht viel. DDR4 ist halt perfekt für die CPU abgestimmt.

Die neuen Konsolen werden die NVMe SSD als memory pool miteinbeziehen, das heißt 2-7 GB/s können benutzt werden, um Assets und Texturen im Hintergrund vorzuladen um so wie du schon sagtest, riesige Welten zu ermöglichen. Dazu braucht es keine 20-32 GB GDDR6 (super super suuupper teuer, das ist zu einem Preis von 500€ nicht möglich), da es schon ausreicht, den 13 GB Speicher vollzuladen und dann im Hintergrund still und leise nachzuladen ohne dass der Spieler etwas davon mitbekommt, mit 4 GB/s Bandbreite von der SSD ist es kein Problem einen steady data stream zu ermöglichen, so hat man quasi unendlich weite Welten und Texturen feinster Qualität. Das ist kein Vergleich mehr zu den mickrigen 80 MB/s in HDDs, mit denen Spielen bis heute, auch auf dem PC, auskommen müssen. Selbst wenn du in deinem Computer eine SSD hast, wirst du heutzutage nur bessere Ladezeiten merken. In Zukunft aber, wenn die Spiele mit diesem innovativen Streaming-Konzept der Konsolen entwickelt werden, wird eine SSD notwendig werden. Das wird dann der Punkt sein, wo es diesen großen Next Generation Sprung geben wird. Übrigens hat sich ID Software von Megatexturen verabschiedet :biggrin:

Meine Rechnung geht von 5,5GB RAM aus, der auf der PS4 für Entwickler zur Verfügung steht, der Rest geht wieder ans OS. Die PS3 hat 256 MB dedizierten VRAM, aber du hast recht ich sollte auch da von 512 MB RAM ausgehen, also wäre das Faktor 10, wobei ich mich jetzt nicht informiert hab, wie viel Speicher bei der PS3 ans OS gehen.

Schnäppchenjäger
2020-03-13, 11:53:41
Ich habe seit langem alle Games auf SSD, HDD ist reines Datengrab.Geht mir genauso. 500GB SSDs sind doch mittlerweile günstig, selbst die qualitativen, HDDs sollte keiner mehr für das Systen benutzen. Datengrab halt.

basix
2020-03-13, 13:20:36
Die Frage ist für mich: Welche Daten können auf der SSD bleiben und müssen nie in den RAM geladen werden? z.B. Audio oder sonst was, was wenig Bandbreite benötigt und die höheren Latenzen nicht tragisch sind.

Weiss da jemand mehr dazu? Bespiele von solchen Daten und wie viel Speicherplatz diese benötigen?

HOT
2020-03-13, 14:20:00
NV bringt keine optionalen Speichermengen. Eher gibts nen Refresh, den man nochmal verkaufen kann.

Und Leos News ist auch wieder mal drollig. Er sieht die geringen Speichermengen als das Momentum an, was die Speku zum Wanken bringt, ich sage, es macht sie erst recht realistisch. Das spürt aber auch jeder glaub ich.


Bezüglich der Konsolen-RAM-Mengen: Die mögen in erster Linie mickrig aussehen ggü. der letzten Generation, das ist aber nicht die Wahrheit. Sicherlich wird die PS5 16GB GDDR+4GB DDR bringen und die XBox 20GB GDDR, aber so wie ich das verstanden habe, sind die ja in der Lage über IF den Adressraum auf die SSD auszudehnen, was das Spiel zu so ner art ROM macht, der einfach bei Bedarf gelesen wird. Die Konsole hat also 16GB + 128GB Speicher für das Spiel zur Verfügung, Streaming verändert sich also bei der nächsten Generation total, deswegen gehen die Entwickler doch so auf die SSD ab. Auf dem PC muss das ganze Streaming über den Speicher laufen, was selbstredend ERHEBICH größere Speicherbedarfe auslösen wird auf den Konsolen. Nur weil die Konsole nur 16GB bekommt heißt das doch nicht, dass man das auf dem PC nicht braucht, ganz im Gegenteil. Die Konsole macht in Wirklichkeit einen unfassbaren Sprung.

Ex3cut3r
2020-03-13, 14:33:22
NV bringt keine optionalen Speichermengen. Eher gibts nen Refresh, den man nochmal verkaufen kann.

Und Leos News ist auch wieder mal drollig. Er sieht die geringen Speichermengen als das Momentum an, was die Speku zum Wanken bringt, ich sage, es macht sie erst recht realistisch. Das spürt aber auch jeder glaub ich.


Bezüglich der Konsolen-RAM-Mengen: Die mögen in erster Linie mickrig aussehen ggü. der letzten Generation, das ist aber nicht die Wahrheit. Sicherlich wird die PS5 16GB GDDR+4GB DDR bringen und die XBox 20GB GDDR, aber so wie ich das verstanden habe, sind die ja in der Lage über IF den Adressraum auf die SSD auszudehnen, was das Spiel zu so ner art ROM macht, der einfach bei Bedarf gelesen wird. Die Konsole hat also 16GB + 128GB Speicher für das Spiel zur Verfügung, Streaming verändert sich also bei der nächsten Generation total, deswegen gehen die Entwickler doch so auf die SSD ab. Auf dem PC muss das ganze Streaming über den Speicher laufen, was selbstredend ERHEBICH größere Speicherbedarfe auslösen wird auf den Konsolen. Nur weil die Konsole nur 16GB bekommt heißt das doch nicht, dass man das auf dem PC nicht braucht, ganz im Gegenteil. Die Konsole macht in Wirklichkeit einen unfassbaren Sprung.

Aha. Und warum sollte Nvidia dann in der neuen Gen, mal wieder nur 8GB im High End Segment verkaufen? Es werden mindestens 16GB kommen, und im Enthusiasten Bereich mindestens 21/24GB VRAM (RTX 3080 Ti)

Nvidia wird nicht soooo "dumm" sein, wie einige das hier mal wieder erwarten.
Aufgrund der Corona Seuche, werden die GPUs aber sicherlich erst 2021 kommen.

HOT
2020-03-13, 14:34:12
Kommt darauf an, wann das releast wird.

Und mein Posting ist ja auch nicht nur darauf bezogen. Mit 8GB VRAM wird man auch in Zukunft klarkommen - das tun die Konsolen im Prinzip ja auch, aber der SystemRAM von 16GB läuft ab mit der neuen Konolengeneration.

Dural
2020-03-13, 14:35:40
Eine 3070/3080 dürfte mehr RT Power als die 2080Ti haben, was wollt ihr da mit 8GB Speicher??? Konsolen mit 16GB+ und NV setzt dagegen 8GB Karten, welche Drogen nehmt ihr den bitte? ;)

Vergesst es, Fake.

Ex3cut3r
2020-03-13, 14:46:19
Ist mir ein auch ein Rätsel wie man so denken kann, neue Konsolen haben 1-2 Jahre nach Rls. immer spürbare Veränderungen an der HW des PCs gebracht, das wäre das erste mal, wo alles beim alten bleibt. Und viele tuen ja so, als der PC stehen bleibt, was ist mit Ultra
Texturen?

Normalerweise bieten PC Spiele höhere Settings als Konsolen....ich bleibe dabei, mit den neuen Konsolen werden auch wieder die HW Anforderungen am PC steigen, nicht sofort, aber sobald die PS4/XBONE fallen gelassen werden d.h. wenn die neuen Games nur noch auf den neuen Konsolen erscheinen werden.

Sobald AMDs und Nvidias neue Karten 2021 kommen, mit erhöhten Speichermengen 16 - 24GB sind alle aktuellen Karten sowieso alter Schinken. Das juckt niemanden mehr.

3700X/3900X (ab 16 Threads CPU)
PCIE 4.0 NVME SSD
32GB RAM
Und eine RTX 3080/3070 mit 16GB VRAM wird erstmal der Standard werden. RTX 3060 mit 12GB wird wohl für FHD Gaming ausreichen mit Abstrichen.

unl34shed
2020-03-13, 14:55:34
Es ist Nvidia. Hat die Karte wenig RAM, ist sie günstiger in der Herstellung (höhere Marge) und man muss schneller eine neue kaufen (mehr Umsatz).

Das sie wirklich den Sprung auf 16GB bei einer x70 und x80 Karte machen glaube ich erst wenn ich es sehe.

ChaosTM
2020-03-13, 15:11:31
Müssen sie wohl um NextGen Spiele vernünftig abbilden zu können. Wenn sie nochmals mit 11/12GB antanzen schreien wohl auch die größten Fanboys.

Platos
2020-03-13, 15:27:53
Bezüglich Fanboys: Man siehe AMDs mehr an Grafikspeicher früher und dann die selben Leute, die bei der Fury sagten, das sei gar nicht so problematisch und wichtig, weil... :D

Fanboys können nicht klar denken. Die können heute sagen, es gibt zu wenig Grafikspeicher und morgen, dass es eig. gar nicht so viel braucht.

Dampf
2020-03-13, 18:27:48
NV bringt keine optionalen Speichermengen. Eher gibts nen Refresh, den man nochmal verkaufen kann.

Und Leos News ist auch wieder mal drollig. Er sieht die geringen Speichermengen als das Momentum an, was die Speku zum Wanken bringt, ich sage, es macht sie erst recht realistisch. Das spürt aber auch jeder glaub ich.


Bezüglich der Konsolen-RAM-Mengen: Die mögen in erster Linie mickrig aussehen ggü. der letzten Generation, das ist aber nicht die Wahrheit. Sicherlich wird die PS5 16GB GDDR+4GB DDR bringen und die XBox 20GB GDDR, aber so wie ich das verstanden habe, sind die ja in der Lage über IF den Adressraum auf die SSD auszudehnen, was das Spiel zu so ner art ROM macht, der einfach bei Bedarf gelesen wird. Die Konsole hat also 16GB + 128GB Speicher für das Spiel zur Verfügung, Streaming verändert sich also bei der nächsten Generation total, deswegen gehen die Entwickler doch so auf die SSD ab. Auf dem PC muss das ganze Streaming über den Speicher laufen, was selbstredend ERHEBICH größere Speicherbedarfe auslösen wird auf den Konsolen. Nur weil die Konsole nur 16GB bekommt heißt das doch nicht, dass man das auf dem PC nicht braucht, ganz im Gegenteil. Die Konsole macht in Wirklichkeit einen unfassbaren Sprung.

Entweder wird der RAM / VRAM Bedarf auf dem PC durch die neuen Konsolen signifikant steigen wie du schon sagtest, oder aber eine SSD wird auf dem PC Pflicht. Natürlich ist letzteres viel wahrscheinlicher, da DRAM und VRAM einfach viel teurer sind als eine NVMe SSD und fast jeder PC hat einen M2 Slot, ist also einfach und kostengünstig nachzurüsten. Also nein, auf dem PC muss das Streaming nicht über den Speicher laufen, da kann die SSD in der selben Weise genutzt werden wie auf den Konsolen. Die Konsolen-Hersteller plappern zwar von Custom SSD, ich würde in dem Fall aber von Marketing-Gewäsch ausgehen.

Das heißt jedoch nicht, dass es keinen Sprung im Speicherbedarf geben wird, aber von vielen wird dieser einfach maßlos überschätzt, wie gesagt der Sprung im VRAM von PS4 zu PS5 ist viel geringer als von PS3 zu PS4.

Die meisten Spiele benötigen heute als Mindestanforderung 2 GB VRAM. Next Gen könnte das auf 4 GB ansteigen. Wo die Reise hingeht sieht man an Doom Eternal, die IDTech Engine war ja schon immer wegweisend was den Speicherbedarf angeht. In Doom Eternal werden 4 GB für Medium, 6 bzw 8 GB für High und 11 GB für höchste Texturen benötigt. Da wird sich das erstmal einpendeln nächste Generation.

Ex3cut3r
2020-03-13, 18:30:15
Die meisten Spiele benötigen heute als Mindestanforderung 2 GB VRAM.



Wie bitte was?! Wo hast du bisher gelebt?

E-Sport Titeln, ja.. Aber bei AAA doch nicht. 4GB VRAM ist Min Anforderung seit 2016. Empfohlen werden 6-8GB. Meistens sogar schon eher 8GB.

Dampf
2020-03-13, 18:39:05
Wie bitte was?! Wo hast du bisher gelebt?

E-Sport Titeln, ja.. Aber bei AAA doch nicht. 4GB VRAM ist Min Anforderung seit 2016. Empfohlen werden 6-8GB. Meistens sogar schon eher 8GB.

RDR2:

https://support.rockstargames.com/articles/360037044893/Red-Dead-Redemption-2-PC-System-Requirements

Minimum Specifications:

GTX 770 2GB

COD MW:

https://www.game-debate.com/games/index.php?g_id=6039&game=Call%20of%20Duty:%20Modern%20Warfare

GTX 670 2GB

Metro Exodus: https://www.pcgamer.com/here-are-the-metro-exodus-system-requirements/
GTX 670 2GB

AC Odyssey: 2 GB VRAM

Star Wars Jedi: 2 GB VRAM

Alles top aktuelle AAA games.

Könnte noch ewig so weitermachen :biggrin:

Ex3cut3r
2020-03-13, 18:58:28
Spielst du auf 1280*720? @ Low?

Dampf
2020-03-13, 18:59:51
Spielst du auf 1280*720? @ Low?

Was tut das zur Sache? Mein Punkt war ja, dass 2 GB die Mindestanforderung der heutigen Spiele sind.

Ex3cut3r
2020-03-13, 19:03:23
https://abload.de/thumb/rdr2_2020_03_13_19_00o8jpk.jpg (https://abload.de/image.php?img=rdr2_2020_03_13_19_00o8jpk.jpg)

RDR2 3440x1440 Ultra Details . Bereits direkt nach Spielstart 5,5GB VRAM belegt, welcher PC Gamer will mit 720p und Low spielen? Das ist doch nicht realitätsnah. FHD mit High/Ultra schon eher.

Dampf
2020-03-13, 19:19:38
https://abload.de/thumb/rdr2_2020_03_13_19_00o8jpk.jpg (https://abload.de/image.php?img=rdr2_2020_03_13_19_00o8jpk.jpg)

RDR2 3440x1440 Ultra Details . Bereits direkt nach Spielstart 5,5GB VRAM belegt, welcher PC Gamer will mit 720p und Low spielen? Das ist doch nicht realitätsnah. FHD mit High/Ultra schon eher.

Naja nicht jeder muss immer höchste Settings oder Auflösung haben, viele begnügen sich auch schon mit deutlich weniger, hauptsache es läuft. Die Steam Hardware Surveys zeigen das ja deutlich, viele spielen auch mit Laptop-Karten. Ich glaube Leute die immer die Settings hochcranken und auf 4K zocken sind eher die Minderheit :biggrin:

VRAM allocation, eben diese 5,5 GB, ist nicht gleichzusetzen mit benötigtem VRAM. Viele Spiele cachen sich den VRAM voll ohne ihn für ein performantes Spielerlebnis wirklich zu benötigen, man sieht es daran dass das Spiel auch gut auf Karten mit weniger VRAM läuft. Aber ja, Ultra wide 1440p ist schon ne Hausnummer und 4 GB werden dafür sicher nicht ausreichen. Von daher gut dass du eine 8 GB Karte hast.

robbitop
2020-03-13, 19:43:46
Bezüglich Fanboys: Man siehe AMDs mehr an Grafikspeicher früher und dann die selben Leute, die bei der Fury sagten, das sei gar nicht so problematisch und wichtig, weil... :D

Fanboys können nicht klar denken. Die können heute sagen, es gibt zu wenig Grafikspeicher und morgen, dass es eig. gar nicht so viel braucht.
Das Lustige ist, dass das völlig IHV unabhängig ist. Je nach dem welcher Seite von Fanboys gerade passt. Hat man besonders viel VRAM ist dieser wichtig und umgekehrt. :D
Eines ist Fakt: In Bezug auf VRAM Menge gab es noch nie so eine Stagnation wie in den letzten Jahren seit 2015. Wir haben bis heute nicht mehr VRAM als GM200 im Consumerbereich.

crux2005
2020-03-13, 19:49:35
3700X/3900X (ab 16 Threads CPU)
PCIE 4.0 NVME SSD
32GB RAM
Und eine RTX 3080/3070 mit 16GB VRAM wird erstmal der Standard werden. RTX 3060 mit 12GB wird wohl für FHD Gaming ausreichen mit Abstrichen.

:D

Komm bitte aus deiner PC Masterrace Blase raus in die Realität.

6 GB VRAM und GTX 1080 werden noch die nächsten +-2 Jahre für FHD vollkommen ausreichen.

https://abload.de/thumb/rdr2_2020_03_13_19_00o8jpk.jpg (https://abload.de/image.php?img=rdr2_2020_03_13_19_00o8jpk.jpg)

RDR2 3440x1440 Ultra Details . Bereits direkt nach Spielstart 5,5GB VRAM belegt


Was RTSS anzeigt ist eh nicht akkurat. Schau im Menü - links oben. Da werden wette ich so ~4 GB angezeigt.

Ex3cut3r
2020-03-13, 20:01:11
:D

Was RTSS anzeigt ist eh nicht akkurat. Schau im Menü - links oben. Da werden wette ich so ~4 GB angezeigt.

Ja, genau der Ingame Balken, der schon in GTA 4 drin war, ist super akkurat. :facepalm:

Ich bitte übrigens die Bildfehler im Screenshot (schwarze Kästen) zu entschuldigen, lag am Afterburner.

crux2005
2020-03-13, 20:10:04
Ja, genau der Ingame Balken, der schon in GTA 4 drin war, ist super akkurat. :facepalm:

Ich bitte übrigens die Bildfehler im Screenshot (schwarze Kästen) zu entschuldigen, lag am Afterburner.

Das Spiel selber wird besser wissen wie viel VRAM es belegt und wie viel Windows. RTSS zeigt nur den gesamten VRAM Verbrauch an.

https://i.imgur.com/yhHKFRD.png

Ex3cut3r
2020-03-13, 20:31:15
Der ist vollkommen falsch. Der Balken ist ein Witz. Guck mal in GPU-Z

https://abload.de/img/310gj56.jpg

https://abload.de/thumb/unbenanntnojjv.jpg (https://abload.de/image.php?img=unbenanntnojjv.jpg)

crux2005
2020-03-13, 20:52:25
Der ist vollkommen falsch. Der Balken ist ein Witz. Guck mal in GPU-Z

:rolleyes:

Das ist die gesamte VRAM Belegung. Nicht wie viel nur RDR2 belegt.

Ex3cut3r
2020-03-13, 21:47:56
Junge, was soll das? Im Desktop verbrauch ich 300MB.

Glaub halt an deinen berechneten Balken im RDR2 Options Menü, der war schon lächerlich falsch in GTA5 und GTA4. ;D

Rampage 2
2020-03-14, 00:38:45
:rolleyes:

Das ist die gesamte VRAM Belegung. Nicht wie viel nur RDR2 belegt.


Spielt das überhaupt eine Rolle, wenn am Ende der Grafikspeicher überläuft? Mein W7 belegt manchmal auch fast ein halbes Gigabyte Grafikspeicher - wenn ich dann DX:MD (1080p, max. Settings) anwerfe, werden bis zu 7,5 GB belegt. Wenn aber am Ende der Grafikspeicher voll ist, spielt es von der letztendlichen Wirkung her keine Rolle, WOMIT er überfüllt ist;)

Aber wozu brauchen heutige Betriebssysteme soviel VRAM? :confused::|

R2

crux2005
2020-03-14, 04:11:09
Spielt das überhaupt eine Rolle, wenn am Ende der Grafikspeicher überläuft? Mein W7 belegt manchmal auch fast ein halbes Gigabyte Grafikspeicher - wenn ich dann DX:MD (1080p, max. Settings) anwerfe, werden bis zu 7,5 GB belegt. Wenn aber am Ende der Grafikspeicher voll ist, spielt es von der letztendlichen Wirkung her keine Rolle, WOMIT er überfüllt ist;)

Aber wozu brauchen heutige Betriebssysteme soviel VRAM? :confused::|

R2

Eben nicht. In 1440p werden mit Sehr Hohen Texturen keine 6 GB überschritten und mit Ultra keine 8 GB. Außerdem sind die Unterschiede sehr klein.

Edit: Die Ruckler an gewissen Stellen haben nichts mit überlaufenden VRAM zu tun. Auch mit 5,8 GB oder noch weniger habe ich sie. Die sind wegen CPU stalls.

Was die Windows VRAM Belegung angeht verweise ich dich hier:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12168097#post12168097

Wenn möglich sollte also Windows die 500 MB VRAM (und mehr) für WDDM, Icons etc. in RAM oder Festplatte auslagern damit das Spiel so viel VRAM wie möglich zur Verfügung hat.

KarlKastor
2020-03-14, 06:20:14
Glaub halt an deinen berechneten Balken im RDR2 Options Menü, der war schon lächerlich falsch in GTA5 und GTA4. ;D
Und du kannst auch weiterhin glauben, dass der belegte RAM auch die Mindestmenge ist und darunter fängts an zu ruckeln...
Natürlich ist auch die Berechnung im Menü nicht genau. Ist aber vollkommen unerheblich. Die kann sowohl nach oben oder auch unten abweichen. Müsste man testen.

Davon ab ging es um Mindestanforderung. Das ist nicht Ultradetails @UWQHD. Natürlich will hier keiner auf Minimum zocken, aber die nächste Generation kommt ja auch nicht mit 2 GB RAM. Man kann mit 8GB sehr vieles vernünftig spielen. Natürlich ist aber sehr vieles nichts wofür man sein Geld investieren möchte.

Es geht um Mainstream Hardware, die kaufen nicht nur Enthusiasten. Von daher ist es schon möglich, dass es durchaus wenig Speicher geben kann.

=Floi=
2020-03-14, 10:58:43
Welche Spiele abgesehen von Scam Citizen haben denn eine SSD als Vorraussetzung?

Das 2016er doom ruckelt ohne ssd
Diablo 3
Bei den cod ww2/Bo3/infinite WF/Bo4 war es imho auch nicht schlecht.
Gta V

Bei path of exile ging die ladezeit richtig schön runter.

In den ram cached fast kein einziges spiel mehr daten. Da hat man 32gb und eigentlich immer werden nur ~12gb genutzt.

WedgeAntilles
2020-03-14, 11:10:47
Ja, man selber ist nie repräsentativ.
Wenn ich bei mir im Freundeskreis rumschaue, interessieren sich die meisten nicht für 4k.
Da ist maximal 1440p, meist 1080p.

Und eine 3070 mit +30% gegenüber der 2070 und ruhig auch nur 8GB Ram, dafür für höchstens 450 Euro wäre da die "traumkarte"

Weit interessanter als eine 3070 mit +60% gegenüber der 2070 und 12 GB Ram für dafür 700 Euro.
Diese (rein hypothetische) Karte interessiert im Freundeskreis keinen.


Ich will lieber eine günstigere Karte als ein teures Monster mit einer Menge an Ram, die ich nicht brauche.

Und ich vermute: Dem absoluten Großteil der Käufer geht es genauso.
Natürlich gibt es einen Enthusiastenbereich, der in 4k zockt. Klar, der will mehr Leistung und braucht mehr Speicher, keine Diskussion.
Aber die 4k Spieler sind die absolute Ausnahme am Gesamtmarkt.

32 GB Arbeitsspeicher + 8 GB VRam und ich bin Arbeitsspeichertechnisch "etwas" besser aufgestellt als eine Konsole.

Es ist doch absoluter Quark, dass in 2,3 Jahren 12 GB Vram zwingend sind.
Für 4k vielleicht.
Konsolen haben keine 12 GB Vram.
Spiele werden immer mehr Cross-Over, da wird am PC totsicher keine 12GB Vram benötigt.
Nicht für 1080p oder 1440p.

basix
2020-03-14, 12:34:37
12-24 GByte VRAM werden sich meiner Meinung nach aber etablieren. Wieso? Siehe heutige Anforderungen der Grafikkarten vs. Speichermenge der Konsolen. Das deckt sich relativ gut. Etwas weniger als 8GByte für 1080p, etwas mehr für 4k. Die Referenz sind nicht heutige Anforderungen, sondern die von 2021+.

8GByte VRAM gibt es dann nur noch bei Low End und Mobile. Dazu braucht es 16 Gbit GDDR6 bei 128-384bit breiten Speicherinterfaces. Somit also alles Standardware die es heute schon gibt, ergo relativ günstig. Die R&D Kosten für diese Speicherchips sind vermutlich heute schon amortisiert, mit den neuen Konsolen und neuen GPU-Generationen werden die Stückzahlen extrem steigen und Economy of Scale (welche bei Speicher ja essentiell wichtig ist) kann voll zuschlagen. Der Preis wird also OK sein. Die Grafikkarten werden vermutlich nicht günstiger, aber eben auch nicht teurer. Zumindest nicht wegen der erhöhten Speichermenge.

crux2005
2020-03-14, 18:22:22
Das 2016er doom ruckelt ohne ssd
Diablo 3
Bei den cod ww2/Bo3/infinite WF/Bo4 war es imho auch nicht schlecht.
Gta V

Bis auf D3 was ich nicht gespielt habe, brauchen alle die genannten Spiele keine SSD. Und die bringt auch keine besseren Frametimes.

BigKid
2020-03-15, 08:24:32
Frage: Was glaubt ihr wann man etwa mit neuen Mobile Beschleunigern von NV rechnen kann?
Mich reizt Renoir mir ner Mittelklasse GPU - aber ich würde gerne auch bei der GPU den nächsten Node mitnehmen - es sei denn da liegen noch mehr als 12 Monate zwischen... was ich fast befürchte...

woodsdog
2020-03-15, 08:40:04
Das 2016er doom ruckelt ohne ssd
Diablo 3
Bei den cod ww2/Bo3/infinite WF/Bo4 war es imho auch nicht schlecht.
Gta V

Bei path of exile ging die ladezeit richtig schön runter.

In den ram cached fast kein einziges spiel mehr daten. Da hat man 32gb und eigentlich immer werden nur ~12gb genutzt.

Die Frage war, welche Games eine SSD als Minimum vorraussetzen und du kommst mit altem Gammel aus 2012 (D3) und 2013 (GTAV). Keines deiner Beispiele tut es.

Klar läufts besser mit SSD, dass war aber nicht das Thema.

JVC
2020-03-15, 17:20:55
Frage: Was glaubt ihr wann man etwa mit neuen Mobile Beschleunigern von NV rechnen kann?

Da kommt doch jetzt erst mal die "SUPER" Reihe ?
Also vermutlich etwas länger.

M.f.G. JVC

P.s.: Streicht mal das "7nm+" aus der Überschrift.

horn 12
2020-03-15, 17:56:46
Vor Oktober wird wohl nix kommen, mit Corona vielleicht wenn sich´s nicht bald bessert wohl erst Anfang 2021
Und wieder verstreicht ein JAHR OHNE wirkliche brauchbare Grafikkarten

=Floi=
2020-03-15, 17:59:18
du musst dich hier auch an verlangsamte produktzyklen gewöhnen.

eratte
2020-03-15, 18:44:27
Und wieder verstreicht ein JAHR OHNE wirkliche brauchbare Grafikkarten

Komm mal wieder runter es gibt im Moment wichtigere Probleme zu dem die alten Karten ja
nicht unbrauchbar werden.

horn 12
2020-03-15, 18:53:19
Dies weiss ich selbst am Besten, komme ja aus Italien (Bezirk Bozen)

wolik
2020-03-15, 19:08:34
...jetzt sogar in Thread "nVidia Ampere (Turing-Nachfolger, 7nm+, Mitte 2020)" Corona vorgedrungen. Bleibt alle Gesund. Gibts ein Thread zum HO? (Home Office)

JVC
2020-03-15, 22:14:25
Und wieder verstreicht ein JAHR OHNE wirkliche brauchbare Grafikkarten
AMD wird's schon richten ;)

M.f.G. JVC

y33H@
2020-03-15, 22:24:48
Also so eine Titan RTX ist schon ganz OK :P

lilgefo~
2020-03-16, 01:25:46
Wenn man auf Turbinen steht, ja.

TheAntitheist
2020-03-16, 05:25:05
Wenn man auf Turbinen steht, ja.
die Titan ist doch nicht von AMD? :rolleyes:

Leonidas
2020-03-16, 06:08:07
Und Leos News ist auch wieder mal drollig. Er sieht die geringen Speichermengen als das Momentum an, was die Speku zum Wanken bringt, ich sage, es macht sie erst recht realistisch. Das spürt aber auch jeder glaub ich.



Ich sehe beides als möglich an. Siehe auch aktuelle Umfrage:
https://www.3dcenter.org/umfrage/ist-fuer-die-naechsten-highend-grafikkarten-mehr-grafikkartenspeicher-zu-erwarten

Linmoum
2020-03-16, 15:51:52
Auch keine Keynote, die Neuigkeiten werden am 24.03 um 14 Uhr veröffentlicht: https://nvidianews.nvidia.com/news/nvidia-gtc-news-to-be-shared-on-march-24-followed-by-investor-call
Es wird auch (erstmal) keine Neuigkeiten geben.

https://blogs.nvidia.com/blog/2020/03/16/gtc-update/

Troyan
2020-03-16, 16:16:21
Auch gelesen. Irgendwie verständlich. Geht zurzeit ja alles unter. Und in den nächsten Wochen wird Amerika erst auf unserem Stand sein...

Rampage 2
2020-03-21, 01:52:31
Und natürlich lässt sich Konsolen-RAM nicht mit PC-RAM vergleichen. Der PC mag zwar insgesamt mehr Gesamtspeicher haben (z.B. 8GB Grafikspeicher + 32GB Hauptspeicher = 40GB Gesamtspeicher), aber im Gegensatz zu den Konsolen läuft die Kommunikation über PCI-Express mit lächerlichen 16GB/sek. bi-direktional (PCIe 4.0) sowie etwas weniger lächerlichen 64GB/sek. @ DDR4-4000 Hauptspeicher (was heutzutage die meisten PC-Systeme hinbekommen). Bei den Konsolen entfällt dieses Problem, weil es seit der allerersten X-Box (2002) ein Shared Bus ist. Der XDR-RAM der PS3 ist heute immer noch schneller als eine PCIe 4.0-Verbindung (25.6GB/sek. vs. 16GB/sek.) und glatt 3x so schnell wie damaliger Hauptspeicher (8.53 - 10.66GB/sek.). Deswegen kann man 40GB Speicher auf dem PC !für Spiele! nicht so einfach zusammenflanschen wie bei Konsolen;)


Ich muss einen inhaltlichen Fehler korrigieren: Die Transferrate/Bandbreite von PCIe 4.0 ist nicht 16 sondern 32GB/sek. bi-direktional, also "mittlerweile" doch schneller als der XDR-RAM der PS3 - hat ja auch nur knapp 15 Jahre gedauert bis PCIe die PS3 überholt hat;D (und XDR2* ist von Rambus schon seit vielen Jahren spezifiziert und nochmal um ein Vielfaches schneller als der originelle XDR-RAM der PS3:freak:X-D)

Das heißt also, dass Transferraten von über 100GB/sek. (in jede Richtung) erst mit PCIe 6.0 möglich sein werden...:redface: Was glaubt ihr, wie lange es noch dauert, bis PCIe 6.0 in Consumer-Mainboards ankommen wird?

Und wie weit ist NVLink mittlerweile?

* = angeblich sollte die allererste GCN-Generation von AMD (HD 7xxx) mit XDR2- statt GDDR5-RAM bestückt werden. XDR2-RAM ermöglicht bei gleichem Takt die 4fache Transferrate von QDR/GDDR6:freak:


Und nochmal, ich kann mir unmöglich vorstellen, dass die neuen Konsolen nur 16GB Speicher haben werden:|

R2


Das Unvorstellbare ist eingetreten; beide Konsolen (Sony & MS) haben nur 16GB Shared-RAM:facepalm::facepalm::facepalm: (dabei wurden 32GB von Vielen als absolut vertretbares Minimum angesehen)

Ich kann nur hoffen, dass die Rechnung mit der PCIe-SSD als erweitertem RAM wirklich aufgeht - aber dafür sind mMn selbst PCIe 4.0-Transferraten zu wenig; es sollte eher in Richtung 100GB/sek. gehen, wie ich schon weiter oben schrieb...

R2

Dampf
2020-03-21, 09:48:21
(dabei wurden 32GB von Vielen als absolut vertretbares Minimum angesehen)

R2

Also das wage ich doch mal zu bezweifeln. Niemand mit einem funktionierenden Verstand hat diese Menge an Speicher erwartet. GDDR6 ist sau teuer und würde den Preis der Konsole in die Höhe katapultieren, zudem wurde doch schon vorher bekannt dass die Konsolen NVMe SSDs verbaut haben und diese in den memory pool mit einbeziehen werden...

BlacKi
2020-03-21, 13:42:33
ich rechne schon jetzt mit 16gb mit 500€ für die ps5 und 600 für die xbox zum start. selbst das sind für konsolen enorme preise.

HOT
2020-03-21, 14:32:45
Ein Gerücht über Verschiebung. Würd mich nicht wundern, wenn man mit 8LPP arbeitet und die Konsolen so knallhart sind, passt man besser auf:
https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Nvidia-Ampere-Geruechte-ueber-spaeten-Release-und-GA102-1346087/

Linmoum
2020-03-21, 14:40:44
Es ergibt keinen Sinn, zu verschieben, um Konsolen oder Konkurrenzprodukte abzuwarten. Das ist einfach nur kompletter Hirnkäse. Nvidia bzw. Jensen wird garantiert keinen Intel-Move aus dem Hut ziehen und der Konkurrenz die Möglichkeiten geben, aufzuholen.

Davon ab sind Gerüchte über Verschiebungen sowieso Quatsch, weil man erst einmal wissen müsste, wann der ursprünglich geplante Launch war (oder ggf. sogar noch ist). Und das weiß niemand.

HOT
2020-03-21, 14:42:23
Klar kann das Sinn ergeben, denn man wird dementsprechend das Lineup erstellen. Nimmt man jetzt nen 102er auch als 80? Ist die 80Ti Vollaktiviert? Wieviel Speicher verbaut man? Was für ein Unsinn...

Troyan
2020-03-21, 14:52:15
Ein Gerücht über Verschiebung. Würd mich nicht wundern, wenn man mit 8LPP arbeitet und die Konsolen so knallhart sind, passt man besser auf:
https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Nvidia-Ampere-Geruechte-ueber-spaeten-Release-und-GA102-1346087/

Ja, die Konsolen sind so knallhart, dass man seit Tagen über die grandiose GPU redet... Oh wait, nope. Das einzige Thema ist SSD. ;D

JVC
2020-03-21, 15:06:28
HBCC benötigt nun mal eine wirklich schnelle SSD...

Die GPU ist nicht grandios, aber die RAM menge(16Gb) und Die die man durch HBCC und die schnelle "SSD" theoretisch zusätzlich zur Verfügung hat(+32Gb?) ist grandios ;)

Vielleicht stockt NV grad den RAM auf ?

M.f.G. JVC

Troyan
2020-03-21, 15:07:47
Na dann. Ich wollte schon immer wieder eine GPU haben, wo der Speicher mit 4GbitG/s angeschlossen ist. Lmao.

Ghost1nTh3GPU
2020-03-21, 15:27:26
Nachdem wohl Microsoft nicht das Thema SSD in den Fokus stellen wird, da sonst hier die XSX schnell veraltet sein könnte, wäre dass wohl durchaus ein Thema wo Hersteller wie Nvidia Standards setzen könnten. Aber Ampere ist vielleicht etwas früh, anderseits war das auch RTX 2018.
Ein NVMe Slot wäre wohl nicht verwunderbar, und ist vielleicht das was Igor bzgl. der geänderten PCB Anforderungen gehört hatte.

basix
2020-03-21, 15:29:33
Im Prinzip brauchst du vor allem eines: PCIe 4.0. Damit kann man das zusätzlich Streamingaufkommen auch erreichen.

JVC
2020-03-21, 15:34:29
Im Prinzip brauchst du vor allem eines: PCIe 4.0. Damit kann man das zusätzlich Streamingaufkommen auch erreichen.
Jap.
Und AMD bietet mit "HBCC" auch schon die Software dazu an.
Es braucht also eigentlich nix neues.

M.f.G. JVC

Troyan
2020-03-21, 15:36:17
Im Prinzip brauchst du vor allem eines: PCIe 4.0. Damit kann man das zusätzlich Streamingaufkommen auch erreichen.

Das ist immer noch zu langsam. Vorallem, wenn die High-End GPUs mehr Bandbreite erhalten. Außerdem sollte der VRAM bei der nächsten Generation deutlich steigen, wodurch die Notwendig von Streaming weiter negiert wird.

JVC
2020-03-21, 15:46:51
Das ist immer noch zu langsam.

PCIe 4.0 x16 =max 32 GByte/s (3.0 max 16)
Die PS5 hat 5,5 GB/sec (8-9 GB/sec mit Kompression)
PCIe 3.0 könnte mit Verlusten schon zu knapp werden.

Schaut für mich nicht so aus als ob 4.0 zu langsam wäre.

Mehr RAM auf der GPU ist nicht unbedingt sinnvoll (zu teuer)
oder willst du die "langsamen" z.b.32Gb für Texturen zu den schnellen 16GB auf der GPU löten ?

M.f.G. JVC

Timbaloo
2020-03-21, 15:57:09
wenn man mit 8LPP
Woher kommt eigentlich der urfeste Glaube daran, dass das gesamte Lineup von Samsung gefertigt wird? Es widerspricht dabei offiziellen Aussagen von NV:

"In June 2019, Samsung Electronics announced it had been awarded the contract to produce Ampere on its 7nm EUV FinFET process.[1][2] NVIDIA VP Debora Shoquist later stated that Ampere GPUs would be made by both Samsung and TSMC.[3] However, during GPU Technology Conference (GTC) 2019 in Suzhou, China, NVIDIA's CEO, Jensen Huang responded to the press that the majority orders of their next-generation 7nm GPU will be handled by TSMC with Samsung only playing a small role than previously reported."[4]

Quelle: https://en.wikipedia.org/wiki/Ampere_(microarchitecture)

Rampage 2
2020-03-21, 15:58:40
PCIe 4.0 x16 = max 32 GByte/s (3.0 max 16)
Die PS5 hat 5,5 GB/sec (8-9 GB/sec mit Kompression)
PCIe 3.0 könnte mit Verlusten schon zu knapp werden.

Schaut für mich nicht so aus als ob 4.0 zu langsam wäre.


Ich zitiere mich selber nochmal:


Ich kann nur hoffen, dass die Rechnung mit der PCIe-SSD als erweitertem RAM wirklich aufgeht - aber dafür sind mMn selbst PCIe 4.0-Transferraten zu wenig; es sollte eher in Richtung 100GB/sek. gehen, wie ich schon weiter oben schrieb...

R2


Ich muss einen inhaltlichen Fehler korrigieren: Die Transferrate/Bandbreite von PCIe 4.0 ist nicht 16 sondern 32GB/sek. bi-direktional, also "mittlerweile" doch schneller als der XDR-RAM der PS3 - hat ja auch nur knapp 15 Jahre gedauert bis PCIe die PS3 überholt hat;D (und XDR2* ist von Rambus schon seit vielen Jahren spezifiziert und nochmal um ein Vielfaches schneller als der originelle XDR-RAM der PS3:freak:X-D)

Das heißt also, dass Transferraten von über 100GB/sek. (in jede Richtung) erst mit PCIe 6.0 möglich sein werden...:redface: Was glaubt ihr, wie lange es noch dauert, bis PCIe 6.0 in Consumer-Mainboards ankommen wird?

Und wie weit ist NVLink mittlerweile?

* = angeblich sollte die allererste GCN-Generation von AMD (HD 7xxx) mit XDR2- statt GDDR5-RAM bestückt werden. XDR2-RAM ermöglicht bei gleichem Takt die 4fache Transferrate von QDR/GDDR6:freak:

basix
2020-03-21, 16:48:59
Es geht darum, dass man die 10GB/s von der SSD in den VRAM bekommt (siehe PS5, XBSX). Und dazu reicht PCIe 4.0 16x. 100GB/s werden daür nun wirklich nicht benötigt. Am PC wird man vermutlich dennoch etwas mehr RAM & VRAM benötigen, aber sonst sollte das mit einer PCIe 4.0 SSD und einer PCIe 4.0 Grafikkarte relativ gut funktionieren. Das einzige wo ich momentan noch keine Lösung sehe ist die Decompression der Daten. Eine normale Desktop CPU ist damit überfordert. Zumindest ZLIB-Beschleunigung wie bei der XBox sollte in HW eingebaut sein, damit das richtig funktioniert. Evtl. sehen wir das mit Zen 3 und RDNA2, der Zeitpunkt würde perfekt passen ;)

Troyan
2020-03-21, 16:52:21
Warum sollte man 10GB/s in den VRAM bekommen wollen? Warum reichen nicht 2GB/s? Ladezeiten sind vollkommen irrelevant, wenn Spiele beim Start sie aufweisen.

Mit 2GB/s bräuchte man auch nur 8 Sekunden für 16GB.

basix
2020-03-21, 17:01:04
Also wenn ich zwischen 2sec Ladezeit und 8sec entscheiden kann, nehme ich ersteres :D Aber der Hauptgrund für die 10 GB/s wären eben, dass man mit weniger VRAM auf mehr Qualität kommt (grössere Welten, bessere Texturen, mehr Weitsicht). Das ist im Sinne der Hersteller (Marge) als auch der Konsumenten (günstigere Karten). Ein verdoppelter VRAM würde Grafikkarten noch teurer werden lassen.

Ausserdem gibt es noch so use cases wie Fast Travel usw. wo die schnellere Übertragungsrate extrem viel nützen würde.

Rampage 2
2020-03-21, 17:12:41
Ladezeiten sind vollkommen irrelevant, wenn Spiele beim Start sie aufweisen.


Es geht nicht um die Ladezeiten (ging es noch nie!), sondern darum, die SSD als erweiterten Grafikspeicher zu verwenden - und deswegen muss der Transfer von Daten möglichst in Echtzeit geschehen -> Transferrate!

@basix: Ich weiß nicht, wie es bei den Konsolen aussieht, aber beim PC ist PCIe (und ggf. noch die Speichergeschwindigkeit/DDR4) der Flaschenhals, weil KEIN Shared-Bus im Gegensatz zu den Konsolen (seit der Xbox 2002). Daher sollten weitaus höhere Transferraten (idealerweise genauso viel wie die Bandbreite der GPU - z.B. 448GB/sek. bei der RTX 2070) erforderlich sein; selbst PCIe 6.0 (128GB/sek. bi-direktional) wäre immer noch Armutsgrenze...

R2

Troyan
2020-03-21, 17:17:16
Also wenn ich zwischen 2sec Ladezeit und 8sec entscheiden kann, nehme ich ersteres :D Aber der Hauptgrund für die 10 GB/s wären eben, dass man mit weniger VRAM auf mehr Qualität kommt (grössere Welten, bessere Texturen, mehr Weitsicht). Das ist im Sinne der Hersteller (Marge) als auch der Konsumenten (günstigere Karten). Ein verdoppelter VRAM würde Grafikkarten noch teurer werden lassen.


Werden die Daten bei der Series X im VRAM komprimiert gelassen? Anderenfalls hat es keine Auswirung auf den nutzbaren Speicher.

pixeljetstream
2020-03-21, 17:45:00
Off topic - hab im Konsolen thread geantwortet

Ravenhearth
2020-03-22, 11:51:22
Also das wage ich doch mal zu bezweifeln. Niemand mit einem funktionierenden Verstand hat diese Menge an Speicher erwartet. GDDR6 ist sau teuer und würde den Preis der Konsole in die Höhe katapultieren, zudem wurde doch schon vorher bekannt dass die Konsolen NVMe SSDs verbaut haben und diese in den memory pool mit einbeziehen werden...
Er meinte auch weniger dass so viel Speicher realistisch wären, sondern nötig, um einen großen Grafiksprung hinzulegen.

Es geht nicht um die Ladezeiten (ging es noch nie!), sondern darum, die SSD als erweiterten Grafikspeicher zu verwenden - und deswegen muss der Transfer von Daten möglichst in Echtzeit geschehen -> Transferrate!
Ich denke nicht, dass die Idee ist, die SSD als Grafikspeicher zu nutzen. Eher soll sie so schnell sein, dass Daten quasi instant geladen werden können und nicht mehr so viel vorgehalten werden muss. Aber das heißt nicht, dass auch wieder auf die SSD geschrieben wird als wäre sie wirklich RAM, das würde sie viel zu schnell abnutzen.

robbitop
2020-03-22, 11:55:14
In der Hauptsache wird gelesen. Sehr schnelles Echtzeitstreaming.

Fliwatut
2020-03-22, 12:00:40
Warum geht es hier eigentlich um die Konsolen und nicht um Ampere?

Leonidas
2020-03-23, 05:00:05
Woher kommt eigentlich der urfeste Glaube daran, dass das gesamte Lineup von Samsung gefertigt wird? Es widerspricht dabei offiziellen Aussagen von NV:


Dies ist in der Tat nach wie vor einer der Problempunkte an den ganzen aktuell herumgeworfenen Ampere-Specs.

=Floi=
2020-03-24, 11:50:51
ob nv bei den desktop karten, wegen der konsolen, die TF aufdrehen wird?

HOT
2020-03-24, 13:11:43
Für Desktop ist das Konsolenstreaming irrelevant. Hier wird man sicherlich normal weiter über den Hauptspeicher streamen, was für NV dann auch keine Rolle spielt. Nur die erforderliche Speichermenge wird sich eben erhöhen, in erster Linie für Hauptspeicher. Wie weit dann mehr VRAM erforderlich ist, wird man dann sehen.

Leonidas
Ich denke die stimmen, auch wenn das jetzt nicht viele Wahr haben wollen. In einem 10nm-Derivat wird man nur sehr ungern über 600mm² gehen wollen, daher bleibt ja kaum was anderes übrig als die kolpotierten Specs.

Die kolpotierten Daten werden sicherlich mal so geplant gewesen sein, allerdings so nicht umgesetzt werden. Mit der Ankündigung der Konsolen und RDNA2 wird man sicherlich jetzt auf doppelt soviel VRAM setzen, einfach um einen Verkaufsvorteil für den Fall der Fälle zu haben, dass N21 doch den GA102 deutlich überflügelt. Daher halte ich auch die Meldung der Verschiebung für realistisch. Die Chips gingen schon im Dezember durch die Presse, also wird NV das Tapeout in 8LPP im November durchgezogen haben. Release wäre also regulär im Sommer gewesen (Juni/Juli ca.), da wären die Speichermengen noch verkaufsfähig gewesen. Nun peilt man 1/2 Jahr später an und wird die Chips sicherlich nochmal in einen Respin schicken um möglichst viel rauszuholen, gleichzeitig die Yields zu verbessern um mehr volle Chips zu haben. Außerdem könnten bis dahin die Speicherpreise speziell für 16Gb nochmals etwas ggü. 8Gb nachgeben. Am Ende steht sicherlich ein voll aktivierter GA102 mit 22GB 18-20GT/s als 3090/80Ti und erhöhter TDP zur Verfügung. RDNA2 sorgt also auch für NV-Fans für bessere Produkte :D.

Man kann das ja sogar positiv sehen, mit dem Launch im Sommer wäre das bei dem Corona-Wahnsinn eh nichts geworden :D.

BlacKi
2020-03-24, 13:35:28
In einem 10nm-Derivat wird man nur sehr ungern über 600mm² gehen wollen, daher bleibt ja kaum was anderes übrig als die kolpotierten Specs.
quote on me, 8nm wurde genommen damit man rießige chips bringen kann. weil wohl ganz einfach die performance pro dollar einfach noch besser ist als bei 7nm und besser. ich sag, es werden wieder 700-800mm² chips geben, falls das mit den 8nm prozess stimmt.

robbitop
2020-03-24, 13:37:25
Das schien beim letzten Mal auch eine gute Wahl gewesen zu sein.

HOT
2020-03-24, 13:42:49
quote on me, 8nm wurde genommen damit man rießige chips bringen kann. weil wohl ganz einfach die performance pro dollar einfach noch besser ist als bei 7nm und besser. ich sag, es werden wieder 700-800mm² chips geben, falls das mit den 8nm prozess stimmt.
Nope man hat 8LPP genommen, weil man den quasi geschenkt bekommen hat und man die Yields haben will, genau deshalb gibts ja keine 800mm². Der Grund kann nur Kosten gewesen sein, sonst hätte man N7 genommen und wär bei 500mm² geblieben.

JVC
2020-03-24, 16:36:37
Samsung’s 8nm 8LPP, a 10nm Extension.
https://fuse.wikichip.org/news/1443/vlsi-2018-samsungs-8nm-8lpp-a-10nm-extension/
"For their 8nm 8LPP, Samsung actually shrunk the gate pitch to 64nm
(effectively the original pitch they kept presenting for their 10nm)."

Bei Intel nennt man das "10nm++".

M.f.G. JVC

Sunrise
2020-03-24, 23:04:12
Außerdem könnten bis dahin die Speicherpreise speziell für 16Gb nochmals etwas ggü. 8Gb nachgeben.
Das ergibt keinen Sinn. Die Nachfrage nach GDDR6 wird definitiv nicht sinken, insbesondere wenn die neuen Konsolen kommen. Mal davon ab, dass Desktop-GPUs sich wie immer nahe am möglichen Maximum bewegen werden und GDDR6 in diesen Regionen sowieso nochmal teurer ist/wird.

NV verbaut genau das, was Ihnen die Leistungsspitze und weiterhin sehr hohe Margen sichert. Wenn NV mehr verbaut, dann nicht, weil sie gerne auf Margen verzichten, sondern weil es evtl. auf ein Verkaufsargument setzt, das sie benötigen.

Es war NV eben seit Jahren möglich, vollkommen ohne nennenswerte Konkurrenz zu agieren. Intel hätte einfach jahrelang so weitergemacht und die gesamte Industrie blockiert und ordentlich Kasse gemacht. NV hat hier keine Eile, während AMD aufholen muss.

Timbaloo
2020-03-25, 12:10:59
Leonidas
Ich denke die stimmen, auch wenn das jetzt nicht viele Wahr haben wollen. In einem 10nm-Derivat
Nochmal: Warum glaubst du so fest daran, dass das gesamte Ampere Lineup @Samsung gefertigt wird? Entgegen offiziellen Aussagen?

Leonidas
2020-03-25, 12:55:58
Schwammige Hersteller-Aussagen, an die sich nach Monaten nur noch einzelne erinnern, sind für die Hersteller einfach kein Grund, die Wahrheit zu sagen.

Deswegen muß 8nm nicht der Wahrheit entsprechen. Ich setze die NV-Aussage, die ja nun nicht den Status einer klaren, Chip-spezifischen Feststellung hat, daher nur untergeordnet zur Wahrheitsfindung an. Kann stimmen, muß nicht stimmen, kann selbst im Fall des Falles nur partiell stimmen. Wer würde NV die Hölle heiß machen, wenn diese Aussage letztlich komplett falsch wäre?

Timbaloo
2020-03-25, 13:34:45
Aber die Aussagen eines anonymen Twitter-Accounts werden blind geglaubt. Alles klar.

Leonidas
2020-03-25, 14:28:45
Geglaubt ist jetzt ein großes Wort, wenn ich die entsprechenden Meldungen eindeutig mit "Gerüchteküche" im Artikel-Titel (!) kennzeichne. Aber ja - das ist eine Schwachstelle meiner Argumentation. Ich kann mein Bauchgefühl, wem man Vertrauen schenken kann, schwer belegen. Und richtig muß es überhaupt nicht liegen.

Dural
2020-03-27, 00:20:07
nv wird den bestmöglichen prozess für ihren topdog verwenden, alles andere ist einfach völliger blödsinn :rolleyes:

man muss schon ziemlich einer an der waffel haben um kosten gründen für einen schlechteren prozess zu nennen bei chips die für 10k verkauft werden ;D
die herstellungskosten sind bei tesla produkten völlig irrelevant! das ding muss leistung pro watt haben und dann kommt sehr lange nichts mehr.

Hakim
2020-04-09, 23:51:00
Nervig das es so ruhig um Ampere geworden ist, hatte gehofft das was im Sommer kommt, aber wird wohl wie es die Gerüchte besagen später sein

robbitop
2020-04-10, 08:33:41
IMO ist es unklar, ob es dieses Jahr überhaupt ein Geforce Turing Nachfolger kommt.

Denniss
2020-04-10, 11:51:30
Wenn's keine Überraschungsaktion gibt dann kommt eigentlich nur der HPC-Chip. Selbst um den ist es aber verdächtig still. Ruhe vor dem Sturm dank Corona?

dildo4u
2020-04-10, 12:27:05
Sie haben erst im November eine neue Volta Aufgelegt und niemand kommt auch nur in die Nähe,ich vermute nur das sie gerne ein paar neue Chips im Umlauf hätten damit die Software drauf optimiert werden kann.


16 Tflops bei 250 Watt.

https://videocardz.com/83372/nvidia-quietly-outs-tesla-v100s-with-higher-clocks

MasterElwood
2020-04-11, 12:07:04
Microsoft hat jetzt offiziell bestätigt, dass XBox die SSD als Erweiterung vom Hauptspeicher nutzen wird - bei denen genannt "memory multiplier".

Im Video hier bei 3:30
https://www.pcgameshardware.de/Xbox-Series-X-Konsolen-268616/News/Techdemos-mit-Raytracing-VRS-und-mehr-1347533/

Damit kann man den wenigen Speicher bei Konsolen nicht mehr als Argument nehmen, weil dadurch können sie viel vom Speicher auf die SSD auslagern, und es bleibt überdurchschnittlich viel für die GPU über.

Und nachdem Sony eine NOCH schnellere SSD drinnen hat und anscheinend auch viel Wert darauf legt, is wohl sicher dass die das genauso machen werden.

Troyan
2020-04-11, 12:16:36
Falscher Thread. :D

MasterElwood
2020-04-11, 12:32:30
Falscher Thread. :D

Nope. Hier wird und wurde drüber spekuliert wieviel Speicher Ampere haben wird. Und der geringe Hauptspeicher von PS5 & Co wird hier oft als Grundlage hergekommen.

Eine Änderung hierbei IST also auch hier relevant

Troyan
2020-04-11, 12:34:45
Nein, du hast das falsch verstanden. Texturen werden heute schon beim PC im RAM ausgelagert und bei Bedarf geladen. Die Konsolen können nun einfach schneller von der SSD in den gemeinsamen Speicher schreiben.

Das ganze ist natürlich kein Ersatz für mehr GPU-Speicher. 16GB bei einer GPU ist vollkommen ausreichend.

HOT
2020-04-11, 13:33:14
Nope das ist falsch. Die Konsolen erweitern den Adressraum auf die SSD und lesen die Daten bei Bedarf. Der PC lädt die Daten in den Speicher und verarbeitet sie dort.

Troyan
2020-04-11, 13:36:21
"Erweitern den Adressraum", lmao. Wäre dies so, dann viel Spaß. Dann lädt die nächste Textur statt mit 448GB/s erstmal mit 8,6GB/s.

Da wird nichts erweitert. Da werden Daten in den Speicher geschrieben, die danach von der GPU gelesen werden. Und als Spieler habe ich 16GB Speicher als 13GB und 3GB auf einer 100x langsameren SSD.

Denniss
2020-04-11, 14:13:04
Also nix anderes als die dämliche Auslagerungsdatei von Windoofs

MasterElwood
2020-04-11, 15:02:00
Nein, du hast das falsch verstanden. Texturen werden heute schon beim PC im RAM ausgelagert und bei Bedarf geladen. Die Konsolen können nun einfach schneller von der SSD in den gemeinsamen Speicher schreiben.

Das ganze ist natürlich kein Ersatz für mehr GPU-Speicher. 16GB bei einer GPU ist vollkommen ausreichend.

Nein DU hast das falsch verstanden. Hast du dir das Video überhaupt angesehen? :|

Es geht nicht um Texturen. Texturen liegen im VRAM - nicht im "normalen" Hauptspeicher. Es geht denen nicht darum den VRAM per SSD zu erweitern. Sie erweitern per SSD (wie auch immer) den KLASSISCHEN CPU-RAM. Und damit sparen sie ECHTEN CPU-RAM ein, und damit steht dann mehr vom shared RAM für die GPU zur Verfügung.

Und zu Punkt 2: Es SIND ja eben keine 16GB GPU-RAM in den neuen Konsolen - sondern 16GB SHARED RAM die sich CPU und GPU teilen müssen. Also versuchen sie CPU-RAM auf die SSD auszulagern, damit mehr vom SHARED RAM für die GPU zur Verfügung steht.

MasterElwood
2020-04-11, 15:04:59
Also nix anderes als die dämliche Auslagerungsdatei von Windoofs

Wenn das so wäre, würden sie nicht so ein Fass aufmachen wie "Direct Storage" erfinden und Developern Low Level- Access zur SSD geben. Das is was neues.

JVC
2020-04-11, 15:11:41
Das ist im Endeffekt AMDs HBCC, etwas weiter entwickelt und verbessert, was beide Konsolen verwenden werden.
https://www.3dcenter.org/news/amds-hbcc-feature-kann-der-richtigen-situation-bis-zu-70-mehrperformance-bringen (26.03.2018)

M.f.G. JVC

RLZ
2020-04-11, 15:34:54
Wenn das so wäre, würden sie nicht so ein Fass aufmachen wie "Direct Storage" erfinden und Developern Low Level- Access zur SSD geben. Das is was neues.
Die API mag etwas mehr Kontrolle bieten, aber grundsätzlich bleibt es das gleiche.

Denniss
2020-04-11, 15:49:52
"Fass aufmachen" = Marketing. Viele schön neue Worte um was Altes lecker aussehen zu lassen.

prinz_valium_2
2020-04-11, 17:56:51
Wie? Gar keine Consumer Ampere mehr dieses Jahr?
Würde doch schon sehr verwundern.

mboeller
2020-04-11, 20:17:30
"Fass aufmachen" = Marketing. Viele schön neue Worte um was Altes lecker aussehen zu lassen.

ja, ist was altes:
https://www.amd.com/de/products/professional-graphics/radeon-pro-ssg

Aber zumindest im Consumer-Bereich ist es was neues.

HOT
2020-04-11, 20:41:36
Das ist im Endeffekt AMDs HBCC, etwas weiter entwickelt und verbessert, was beide Konsolen verwenden werden.
https://www.3dcenter.org/news/amds-hbcc-feature-kann-der-richtigen-situation-bis-zu-70-mehrperformance-bringen (26.03.2018)8

M.f.G. JVC

Nope, es geht wie gesagt darum den Hauptspeicher zu erweitern, nicht die Grafikspeicher zu adressieren. Wie das genau gehandhabt wird wäre aber ebenfalls spannend.
Infinity Fabric erlaubt die direkte Adressierung der SSD und erlaubt eben direkten Zugriff auf die Daten des Spiels.

=Floi=
2020-04-11, 23:13:17
nur ist das viel zu langsam. (komplizert und teuer)

Leonidas
2020-04-14, 11:00:25
Aber wirklich mit Ampere hatte das jetzt nix zu tun, oder? BTT please.

Ich denke ja, das HPC-Ampere durchaus spruchreif ist, ansonsten hätte der eine Typ nicht davon geschwärmt, das man anstatt HPC-Volta nun HPC-NextGen für den Sommer 2020 geplanten Ausbau seines Supercomputers nimmt. Mag sein, das sich das alles verzögert (voll normal im Supercomputer-Geschäft), aber ich würde eher denken, NV läßt den derzeit auf Halde liegen, weil jetzt einfach nicht der Zeitpunkt für den Startschuß einer neuen Generation ist. Das macht man dann im Sommer und wird eben ausnahmsweise recht schnell lieferbar sein.

Damit ist für Gaming-Ampere natürlich noch nix gesagt. Kann im Herbst kommt, kann sich auch etwas verzögern - zu unsicher für eine Prognose derzeit.

Neosix
2020-04-14, 11:25:39
Nur gefühlt gibt es dieses mal noch weniger Gerüchte um die Gaming Lösung als sonst? Oder irre ich mich da? Wenn es in den nächsten 6+ Monaten eine Gaming Lösung kommen sollte, müsste man da nicht schon mehr hören normalerweise?

w0mbat
2020-04-14, 11:33:04
Covid-19 hat glaube ich alles über den Haufen geworfen, ich kann mit gut vorstellen, dass Ampere (wenn der Codename überhaupt stimmt) erst Ende des Jahres kommt, also z.B. holiday season.

Sunrise
2020-04-14, 11:36:15
NV hat hier im Vergleich zu damals einfach ziemlich dicht gemacht. Es gab aber schon ein paar Eckdaten um die Sache gut einschätzen zu können.

NV hat aber auch garkeinen Druck derzeit, nur bei HPC sollten sie so schnell als möglich dann mal mit Details kommen, was sicherlich noch passieren wird, bevor hier Supercomputer damit ausgerüstet werden (Sommer), und dann kann man evtl. auch weitere Rückschlüsse ziehen. Vor Jahresende erwarte ich Gaming-Ampere jedenfalls nicht (frühestens September), auch AMD wird sich Zeit lassen, bis RDNA2 für PC (nach den Konsolen) vorgestellt wird. Das wird wohl eine Marketing-Schlacht sondergleichen.

BlacKi
2020-04-14, 11:37:05
da man erst ca. 2 monate vorher mit der produktion anfängt, und china schon wieder einen gewissen arbeitsalltag aufweist, sehe ich es immernoch als möglich das die produktion im juli anfängt und ende august zur online gamescom paperlaunched und im september die ersten karten verschickt werden. aber wer weiß.

HOT
2020-04-14, 11:39:19
Die werden einfach nen kompletten Respin hinlegen, ist doch jetzt die Gelegenheit um das Ganze für die Produktion (und Takt) zu optimieren. So kann man bequemerweise dann auch reagieren, wenn zu AMDs Karten was bekannt ist.

w0mbat
2020-04-14, 11:44:42
Ich glaube Ampere kann Nvidias nächster Pascal werden. Meine 5700 XT reicht noch völlig aus, aber so ne RTX 3080 mit 16GB VRAM und 2080 Ti +20% Leistung wäre schon was feines. Dazu noch 150W TDP :D

Und vielleicht endlich performantes RT!

AffenJack
2020-04-14, 11:51:24
Nur gefühlt gibt es dieses mal noch weniger Gerüchte um die Gaming Lösung als sonst? Oder irre ich mich da? Wenn es in den nächsten 6+ Monaten eine Gaming Lösung kommen sollte, müsste man da nicht schon mehr hören normalerweise?

Nope, mittlerweile gibt es nennenswerte Leaks erst frühstens 3 Monate vor Release bei Nvidia. Zu Turing hat man auch erst im Juni was gehört, abseits von paar Krümeln von Igor.

HOT
2020-04-14, 12:25:20
Von Turing ist recht früh das Tapeout im Frühjahr bekannt geworden, da noch unter dem Arbeitsnamen GV102.

Bucklew
2020-04-14, 12:32:27
Gerüchte über einen Ampere-Tapeout gab es Anfang März 2020.

Denniss
2020-04-14, 12:45:20
Wer glaubt das nvidia einfach mal so den VRAM verdoppelt der glaubt auch noch an den Osterhasen.
Seit mindestens 2 Generation wird da geknausert das es nur so kracht und plötzlich sollen die die Spendierlederjacken anhaben?

AffenJack
2020-04-14, 13:01:20
Wer glaubt das nvidia einfach mal so den VRAM verdoppelt der glaubt auch noch an den Osterhasen.
Seit mindestens 2 Generation wird da geknausert das es nur so kracht und plötzlich sollen die die Spendierlederjacken anhaben?

Es ist klar, dass diese Gen im Gleichschritt mit den Konsolen der Ram verdoppelt wird. Allerdings könnte es die kleine Speicherlösung auch noch als Lower-Cost Option geben.