Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)
unl34shed
2020-08-26, 19:18:17
Etwa 20% wären immerhin drin. Angesichts dessen, dass AMD mit einer neuen Architektur und dem Sprung von 14nm GloFo auf 7nm TSMC ca. 50% geschafft hat, scheint das für 12nm TSMC -> 8nm Samsung nicht unrealistisch.
Nur kommen laut AMD grad mal 25% davon -> 12,5% vom Prozess.
Immerhin enttarnt was Video, welche Simulationen genommen werden, um "quiet und cool" notfalls bei Gericht rechtfertigen zu können.
Fehlt noch nen Video, das zeigt, wie Monitorhersteller grey to grey 1ms "berechnen" :wink:
Haben die nicht ihre Breakthrough Thermal Technologie (ab 7:30), bei der man nicht auf am Markt bestehendes schaut, nicht irgendwie bei Sapphire (Vega 56 Pulse (https://bit-tech.net/reviews/tech/graphics/sapphire-radeon-rx-vega-56-nitro-review/1/)) abgekupfert?
Saphire pulse:
- Vapor chamber
- Kurze PCB
- 2. Lüfter wird nicht von der PCB blockiert
Ok man hat den einen Lüfter gedreht und lässt ihn rückwärts kaufen.
Achill
2020-08-26, 19:28:33
[..]
nicht irgendwie bei Sapphire (Vega 56 Pulse (https://bit-tech.net/reviews/tech/graphics/sapphire-radeon-rx-vega-56-nitro-review/1/)) abgekupfert?
[..]
Der Link geht zur Nitro, die Pulse mit dem kurzen PCB gibt es als Review hier u.a.: Sapphire RX Vega 56 Pulse (https://www.igorslab.de/sapphire-rx-vega-56-pulse-im-test-heisser-kampfzwerg-mit-dickem-kuehlpanzer/)
unl34shed
2020-08-26, 19:30:08
Fuck, das kam bei Google nach "Vega 56 Pulse teardown" raus... :confused:
Ravenhearth
2020-08-26, 19:30:17
Nur kommen laut AMD grad mal 25% davon -> 12,5% vom Prozess.
Die Angabe ist auch merkwürdig, schließlich war schon die Radeon VII ca. ein Drittel effizienter...
dargo
2020-08-26, 19:37:47
Die Angabe ist auch merkwürdig, schließlich war schon die Radeon VII ca. ein Drittel effizienter...
Die Radeon VII würde ich da aus der Rechnung rausnehmen. Die war anfangs gar nicht für die Gamingsparte geplant (auch nicht dafür designt). Da sich RDNA 1 verspätet hatte hat man sich eben anders entschieden um nicht mit leeren Händen da zu stehen.
OgrEGT
2020-08-26, 20:39:34
Bist du irgendwie auf den Kopf gefallen? Was ich mir vor 2 Jahren gekauft habe, spielt jetzt ne Rolle? Lern erstmal richtig RAM einzubauen. A1/A2 oder doch lieber in B1/B2 :D
Am besten A2 und B2 :P
Rampage 2
2020-08-26, 20:43:56
Kannst du das ein bisschen ausführen? Wie sollte AMD diese starke Ineffizienz (Papier-Teraflop zu Spiele-FPS), ausserhalb der Architekturveränderung, mit Ressourcen verbessern?
Das hat AMD doch letztes Jahr (RDNA-Architektur, Mitte 2019) doch schon getan:) Und sollte alles glattlaufen (wie von AMD projiziert), dann legt RDNA2 noch kräftig einen drauf (Perf/Teraflop bzw. Leistung pro Recheneinheit). =)
Dass GCN so schlecht lief, lag nicht nur an den Flaschenhälsen der Architektur selbst, sondern auch daran, weil AMD nicht die Ressourcen (Geld, Manpower, Zeit, Treiber-Team) hatte, um sie in Ordnung zu bringen - die mussten noch bis vor ein paar Jahren alle Kräfte auf Zen konzentrieren, um dem Untergang zu entrinnen...
(Also nicht pro Teraflop, sondern auch wirklich mit FPS was du bei NVidia kaufen kannst, z.B. RTX 2080 und Ti). Da hat AMD nun wirklich sehr lange nichts mehr geliefert.
Performance/Teraflop ist die FPS/Teraflop:rolleyes:
Und seit RDNA (also Navi10) hat AMD angefangen da zu liefern...
Gerade das war in der Vergangenheit leider AMDs Achillesferse. Im mittleren Bereich liefern sie gute GPUs (Die dann auch entsprechend sehr beliebt bei Minern waren). Aber high-end, ich glaube da war die 7970 ein "Game-Changer".
Das soll ja eines der größten Schwächen/Baustellen von GCN gewesen sein - dass die Leistung mit der Verbreiterung nicht mehr (genug) skaliert. Die neue RDNA-Architektur *scheint* dieses Problem gelöst zu haben! GCN hatte ein schwaches Front-End, was mitverantwortlich für die schlechte Skalierung gemacht wurde - wenn ich es nicht falsch in Erinnerung habe, wurde bei RDNA das Front-End verstärkt. Ich bin zuversichtlich, dass RDNA-Chips anständig mit einer Verbreiterung skalieren:smile:
Was passiert den?
Wie wir alle wissen kaufen die Gamer sogar bei Gleichstand eher grün als rot? Auf was willst Du genau hinaus?
Bei den kolportierten Preisen wohl eher nicht mehr - insbesondere wenn BigNavi die 3080 übertrifft und/oder auf Augenhöhe mit der 3090 ist. Und genau davor scheint Nvidia jetzt Angst zu haben: dass BigNavi sich mit GA102 anlegen kann...
Worauf ich hinaus will!? Es ist einfach totaler BS zu behaupten, BN könnte sich *ohne RTX* nur mit einer 3070 Ti (einem Chip mit etwas mehr als 3000 Shadereinheiten) anlegen und würde bei RTX sogar von diesem plattgemacht:facepalm:
Zumal noch gar nichts darüber bekannt ist, wie gut oder schlecht AMD's RT-Implementierung ist - vielleicht geschieht das Unerwartete/ein Wunder und AMD's RT-Ansatz ist sogar besser als die von NV!? Was dann?
Ich Wette dagegen, 7nm vs 12nm / dabei gleicher Verbrauch ca. Kein RT, keine Tensor Kerne.
Ich hatte explizit geschrieben, Performance/Teraflop (also Leistungseffizienz der Recheneinheiten) und nicht Performance/Watt (Verbrauchseffizienz der Recheneinheiten). Bei Letzterem ist RDNA1 schlechter als Turing, ja! (da Turing auf einem schlechteren Prozess gefertigt ist) Aber genau da will AMD mit RDNA2 auch ansetzen - Zielsetzung 50% Steigerung der Verbrauchseffizienz (Perf/Watt).
Bei Ersterem (Leistungseffizienz) hat AMD aber mit RDNA1/N10 (fast) gleichgezogen - eine 5700XT mit derselben Anzahl an Shaderprozessoren ist annähernd so schnell wie eine 2070S, zumal Letztere gleich 6 Raster-Engines hat; also kein ganz fairer Vergleich für AMD...
Navi ist eigentlich sogar ziemlich schlecht, [...]
s.o. (letzter Absatz direkt über diesem Zitat)
Was passiert wenn AMD einen fetten Chip bringt weiss NV ganz genau: AMD versagt immer wieder darin: Laut, Heiss, Hoher Verbrauch, Himmel traurige Skalierung pro Einheit...
Nochmal, die GCN-Zeiten sind vorbei - die RDNA-Architektur ist ein Game-Changer. Ob sie tatsächlich mit der Verbreiterung des Chips angemessen skaliert, wird sich natürlich noch zeigen müssen, aber die Chancen dafür stehen gut:)
Ach übrigens: Navi10 lässt sich sogar ein kleines bisschen besser takten als Turing - und jetzt denke mal an die Pascal vs. Polaris-Zeiten zurück (2100 MHz vs. 1400-1500MHz). ;)
R2
Rampage 2
2020-08-26, 21:00:41
Das würde eine 3070 evtl. sogar über eine 2080Ti heben, wenn man "extrapoliert"...
Warum sprechen hier alle nur von der 3070!? Der eigentliche (volle) GA104-Chip soll die 3070 Ti werden - die 3070 non-Ti anscheinend eine Salvage-Version aus Abfallchips wie damals die 2080 non-Super...
Die Leistung ist hier gar nicht entscheident.
Die 2080ti löst das Problem 4k Gaming, das kann die 2080 nicht.
( Weniger Leistung, weniger Speicher, kein 4K )
Die 2080 Super ist ja auch nicht für 4K60Hz gedacht, sondern viel eher für 1440p144Hz:) (ich weiß, auch da ist eine Ti schneller, aber auch VIEL teurer...)
R2
dargo
2020-08-26, 21:01:54
Unser Dural glaubt immer noch BigNavi wäre einfach nur ein breiterer RDNA 1. Wenns denn so wäre hätte AMD einfach eine doppelte 5700 mit 72 CUs bringen können. Dann wäre man beim Verbrauch dort wo die 3090 landet. ;) RDNA 2 ist eine komplett neue Generation.
BlacKi
2020-08-26, 21:06:52
haben die mods gerade aufgeräumt? komisches aufräumen...
Die 2080 Super ist ja auch nicht für 4K60Hz gedacht, sondern viel eher für 1440p144Hz:) (ich weiß, auch da ist eine Ti schneller, aber auch VIEL teurer...)
R2
das macht keinen sinn, denn 1440p144hz ist leistungstechnisch anspruchsvoller als 4k 60hz
Timbaloo
2020-08-26, 21:14:12
Oder einfach effizientere GPUs. :whisper:
GPUs werden immer effizienter. Und dennoch liegen die Top-Dogs seit Jahren im Bereich von 225-300W. Finde den Fehler deiner Aussage.
Jupiter
2020-08-26, 21:19:53
Was hier teilweise eine Stimmung herrscht, wegen GPUs. So viele gehässige Posts, traurig.
Die 3090 Zielgruppe werden kaum Leute sein, die ewig analysieren und durchrechnen ob die Karte preislich Sinn macht. Man will einfach das Schnellste.
Ja, es ist peinlich und beschämend.
Wenn NV nur die Platine ohne Kühlschrank anbieten würde, dann würde ich bei einer 3090 ins Grübeln kommen. Aber so stehen zu viele Unbekannte im Raum. Das Video war zum vergessen und auch sonst scheint das Ding zu ziehen ohne Ende. Warum dann keine 3090 ohne den Kikilala-Kühler, für die Enthusiasten? Das was was aus dem Video hervorging war ja wohl nur nen Witz!
Aber aufgrund der relativ in Bezug auf Fertigungsprozess erbrachten Mehrperformance zeichnet sich ne Karte auch aufgrund des Preises als Meh an
@ Turrican
Deinen Post kann ich nun wirklich nicht ernst nehmen
Ja, es ist peinlich und beschämend.
Trump war schuld :biggrin:
Ach ja und zu guter letzt sind die 1400$ für ne FE ein Kampfpreis!
Sunrise
2020-08-26, 22:03:08
Da bei AMD erst frühstens was Anfang November kommt, würde ich nicht damit rechnen.
Naja, sind grob auch nur noch zwei Monate... Da muss schon ziemlich viel quasi final sein. Du hast natürlich Recht, die Leaks kommen oft von den AIBs, aber AMD könnte dennoch schon etwas teasern.
Ich bin mir nur nicht sicher, ob das noch AMDs Stil ist... RDNA2 ist aber sehnlichst erwartet, ergibt Sinn, dass etwas in die Medien (für die entsprechende Zielgruppe) zu bringen...
Slipknot79
2020-08-26, 22:50:30
Was hier teilweise eine Stimmung herrscht, wegen GPUs. So viele gehässige Posts, traurig.
Die 3090 Zielgruppe werden kaum Leute sein, die ewig analysieren und durchrechnen ob die Karte preislich Sinn macht. Man will einfach das Schnellste.
Doch, ich "rechne" durch.
+35% Leistung bei +35% Power bei +35% moar Price, grübel ich auch nach der Sinnhaftigkeit.
Sogar pixeljetstream hat uns schon darauf eingestimmt, dass es wohl so kommen wird. :mad:
BlacKi
2020-08-26, 23:00:50
Doch, ich "rechne" durch.
+35% Leistung bei +35% Power bei +35% moar Price, grübel ich auch nach der Sinnhaftigkeit.
Sogar pixeljetstream hat uns schon darauf eingestimmt, dass es wohl so kommen wird. :mad:
nope
Slipknot79
2020-08-26, 23:03:41
Doch.
Daredevil
2020-08-26, 23:05:21
Doch, ich "rechne" durch.
+35% Leistung bei +35% Power bei +35% moar Price, grübel ich auch nach der Sinnhaftigkeit.
Sinnhaftigkeit?
Hier ist deine Sinnhaftigkeit:
https://external-content.duckduckgo.com/iu/?u=https%3A%2F%2Fwww.cyberockk.com%2Fwp-content%2Fuploads%2F2020%2F08%2FCrysis-Remastered-696x409.jpg&f=1&nofb=1
Alles andere ist völlig egal.
( Es ist natürlich quatsch, was du "rechnest"..., weil sonst wäre eine Ampere FE 15% schneller als eine Custom TU102 )
Slipknot79
2020-08-26, 23:12:14
Die 35% bezog ich auf eine TU102 vs Ampere FE.
Ned jetzt auf die % genau festnageln, selbst wenn es 40-40-20 ist, ist es auch eine Shice ratio.
Yo can it run Crysis, wir reden also nun von 25fps vs 34fps?
Wenn du run Crysis haben willst, dann brauchst du TU102 + 100% ;) und das ist bei der 3090 sicher ned drin, die Zeiten sind vorbei, das wissen wir alle. :mad:
DLSS+RT wird auf beiden Grakas run Crysis oder cant run Crysis machen.
Wer von 980Ti oder Pascal kommt, kann grübeln, TU102 können erst mal pennen.
pixeljetstream
2020-08-26, 23:12:35
Sogar pixeljetstream hat uns schon darauf eingestimmt, dass es wohl so kommen wird. :mad:
also wenn dann schon richtig zitieren, ich hab im context gesagt dass man bei Turing eben gut sieht das manche engines halt die hw sehr gut auslasten koennen und andere eher weniger. Wie ich hier grundsaetzlich eben schon lange predige, dass es diese magische Rohleistung die allem zu Gute kommt eben nicht gibt. Dafuer sind die Spiele in ihrer Beanspruchung zu unterschiedlich und die HW zu komplex. Man konzentriert sich dann auf das was fuer die Zukunft am vielversprechendsten ist. So wie bei der CPU mit single-thread Ende Gelaende ist, so kannst Du auch bei der GPU Dinge machen die halt nicht so gut skalieren fuer die Zukunft. Was man auch den Entwicklern nicht unbedingt ankreiden muss, weil viele Faktoren zusammen kommen.
Doch, ich "rechne" durch.
+35% Leistung bei +35% Power bei +35% moar Price, grübel ich auch nach der Sinnhaftigkeit.
Sogar pixeljetstream hat uns schon darauf eingestimmt, dass es wohl so kommen wird. :mad:
Wenn man das jetzt mal nüchtern betrachtet, hat NV mit 8 LPP vor allem die Flächenverkleinerung mitgenommen, denn der Prozess wird ggü. 12FFN nicht viel mehr Takt generieren können (vielleicht 10%) und ca. 30-40% weniger Stromverbrauch bei gleichem Takt. Das heißt auf dem Sweetspot wird man den Prozess schon gewaltig merken (insbesondere für MaxQ-Geschichten), aber auf dem Taktmaximum ist man eben nicht besonders viel besser als bei Turing. Ergo erfordert die angewachsene Transistorzahl ihren Tribut und der Chip verbraucht entsprechend des Einheitenwachstums mehr Saft, was zu eine 1:1-Skalierung führt.
Da muss man sich eher fragen, warum NV überhaupt so gehandelt hat, ich nehme tatsächlich an, dass man sich hier ein wenig "verzockt" hat (bitte nicht zu sehr am Begriff aufhängen) und lieber auf weniger Kosten gegangen ist, aber das ist halt Marktrisiko. Damit war ja auch erst mal nicht zu rechnen, dass AMD 2 Generationen hintereinander 50% mehr Perf/W rausprügelt, das war für NV einfach unwahrscheinlich und zack hat man den Salat.
Slipknot79
2020-08-26, 23:21:16
also wenn dann schon richtig zitieren, ich hab im context gesagt dass man bei Turing eben gut sieht das manche engines halt die hw sehr gut auslasten koennen und andere eher weniger. Wie ich hier grundsaetzlich eben schon lange predige, dass es diese magische Rohleistung die allem zu Gute kommt eben nicht gibt. Dafuer sind die Spiele in ihrer Beanspruchung zu unterschiedlich und die HW zu komplex. Man konzentriert sich dann auf das was fuer die Zukunft am vielversprechendsten ist. So wie bei der CPU mit single-thread Ende Gelaende ist, so kannst Du auch bei der GPU Dinge machen die halt nicht so gut skalieren fuer die Zukunft. Was man auch den Entwicklern nicht unbedingt ankreiden muss, weil viele Faktoren zusammen kommen.
So in etwa meinte ich es auch, du drückst es besser aus. Ich lese hier ein "erwartet besser kack Performance Sprünge" weil die Spiele komplexer werden.
Dampf
2020-08-26, 23:22:11
Sinnhaftigkeit?
Hier ist deine Sinnhaftigkeit:
https://external-content.duckduckgo.com/iu/?u=https%3A%2F%2Fwww.cyberockk.com%2Fwp-content%2Fuploads%2F2020%2F08%2FCrysis-Remastered-696x409.jpg&f=1&nofb=1
Alles andere ist völlig egal.
( Es ist natürlich quatsch, was du "rechnest"..., weil sonst wäre eine Ampere FE 15% schneller als eine Custom TU102 )
In dem Titel werden GPUs mit HW-Beschleunigung von RT deutlich schneller sein, da die Software-Raytracing Reflektionen eben durch VKRay beschleunigt werden. Das wird interessiert zu beobachten werden.
Hauwech
2020-08-26, 23:25:34
Wenn man das jetzt mal nüchtern betrachtet, hat NV mit 8 LPP vor allem die Flächenverkleinerung mitgenommen, denn der Prozess wird ggü. 12FFN nicht viel mehr Takt generieren können (vielleicht 10%) und ca. 30-40% weniger Stromverbrauch bei gleichem Takt. Das heißt auf dem Sweetspot wird man den Prozess schon gewaltig merken (insbesondere für MaxQ-Geschichten), aber auf dem Taktmaximum ist man eben nicht besonders viel besser als bei Turing. Ergo erfordert die angewachsene Transistorzahl ihren Tribut und der Chip verbraucht entsprechend des Einheitenwachstums mehr Saft, was zu eine 1:1-Skalierung führt.
Da muss man sich eher fragen, warum NV überhaupt so gehandelt hat, ich nehme tatsächlich an, dass man sich hier ein wenig "verzockt" hat (bitte nicht zu sehr am Begriff aufhängen) und lieber auf weniger Kosten gegangen ist, aber das ist halt Marktrisiko. Damit war ja auch erst mal nicht zu rechnen, dass AMD 2 Generationen hintereinander 50% mehr Perf/W rausprügelt, das war für NV einfach unwahrscheinlich und zack hat man den Salat.
Die geschätzten +50% Perf/W für RDNA2 müssen sich erstmal bewahrheiten und sind noch lange nicht Fakt. Wie, was alles und von wo AMD da gerechnet hat, weiss keiner ausser AMD. Und mit Prozentzahlen kann man so ziemlich alles schön rechnen. Also abwarten und Bier trinken.
Linmoum
2020-08-26, 23:26:32
So in etwa meinte ich es auch, du drückst es besser aus. Ich lese hier ein "erwartet besser kack Performance Sprünge" weil die Spiele komplexer werden.Er hat ja schon bei Turing gepredigt, dass es in Zukunft einfach weniger (große) Sprünge beim Rasterizing geben wird, und man mehr auf technischen Fortschritt setzt bzw. setzen wird. Was ja auch durchaus nachvollziehbar und logisch ist. Gibt immer noch genug Leute, die mit jeder Gen jetzt Pascal-ähnliche Luftschlösser erwarten, was die Performancesprünge angeht.
Ich glaube, dass kann man nicht oft genug wiederholen, auch, wenn ich selbst zu denjenigen gehöre, die sehr gerne möglichst viel mehr Rohpower hätten. Aber das ist halt der trade-off.
pixeljetstream
2020-08-26, 23:29:16
So in etwa meinte ich es auch, du drückst es besser aus. Ich lese hier ein "erwartet besser kack Performance Sprünge" weil die Spiele komplexer werden.
Ich persoenlich glaube dass es wieder etwas ausgeglichener wird, je tiefer wir in die "neuen phase" (neue konsolen, mehr neu aufgebaute moderne engines) kommen. Imo sind wir noch immer in nem Uebergang wegen der ganzen verschiedenen Generationen an HW. Kann mich natuerlich auch irren.
edit: es geht nicht nur um rasterizing vs nicht, control und doom benutzen ja auch rasterizing in den benchmarks und haben ordentlich zugelegt laut den PCGH Daten. Es geht um die Art und Weise wie das alles zustande kommt. Weil wir wissen ja die Fertigung allein richtet es nicht mehr, also muss die Art und Weise wie man die engines designt und was die HW an Programmierbarkeit zulaesst halt konsequent verbessert werden, damit neue/clevere Ansaetze der Entwickler zur Geltung kommen koennen. Der Xbox Vortrag ging ja auch so in die Richtung imo.
Daredevil
2020-08-26, 23:30:09
AMD Maximalisten: Nvidia muss jetzt richtig Stoff geben, weil sie sonst mit 8nm nicht hinter her kommen.
Nvidia Maximalisten: Nvidia geht extra nur auf 8nm, weil es günstiger ist und für AMD allemal reicht. 12nm hat ja auch schon für 7nm bei AMD gereicht.
Fight! :D
Diskrete Grafikkarten: Nvidia saugt AMDs Marktanteile auf
https://www.computerbase.de/2020-08/diskrete-grafikkarten-nvidia-amd-marktanteil/
AMDs Marktanteil sank binnen eines Jahres von 29 auf 20 Prozent, während im Gegenzug der von Nvidia von 71 auf 80 Prozent wuchs. Nvidia profitiert dabei vom Wachstum des PC-Marktes aufgrund der Pandemie-Situation deutlich mehr als der Mitbewerber.
Vielleicht sind 8nm Samsung doch keine Verzweiflung.... sondern 7nm einfach nicht nötig... meh.
AMD wartet einfach viel zu lange mit Karten, mit denen sie Geld verdienen können. -_-
Sunrise
2020-08-26, 23:30:42
Wenn man das jetzt mal nüchtern betrachtet, hat NV mit 8 LPP vor allem die Flächenverkleinerung mitgenommen, denn der Prozess wird ggü. 12FFN nicht viel mehr Takt generieren können (vielleicht 10%) und ca. 30-40% weniger Stromverbrauch bei gleichem Takt. Das heißt auf dem Sweetspot wird man den Prozess schon gewaltig merken (insbesondere für MaxQ-Geschichten), aber auf dem Taktmaximum ist man eben nicht besonders viel besser als bei Turing. Ergo erfordert die angewachsene Transistorzahl ihren Tribut und der Chip verbraucht entsprechend des Einheitenwachstums mehr Saft, was zu eine 1:1-Skalierung führt.
Da muss man sich eher fragen, warum NV überhaupt so gehandelt hat, ich nehme tatsächlich an, dass man sich hier ein wenig "verzockt" hat (bitte nicht zu sehr am Begriff aufhängen) und lieber auf weniger Kosten gegangen ist, aber das ist halt Marktrisiko. Damit war ja auch erst mal nicht zu rechnen, dass AMD 2 Generationen hintereinander 50% mehr Perf/W rausprügelt, das war für NV einfach unwahrscheinlich und zack hat man den Salat.
Korrekt, NV musste aufgrund der ohnehin schon sehr großen Chips vor allem in mehr Fläche investieren, damit man genug Platz für zusätzliche bzw. umgebaute Einheiten hat, da Turing ja einen "Generationenwandel" einläutete.
Wenn wir dann noch davon ausgehen, dass NV 8nm von Samsung für wirklich sensationelle Preise hinterhergeschmissen bekommen hat (als Druckmittel relativ zu TSMC kann Samsung aktuell nicht ansatzweise mithalten), wird auch klar, warum NV diesen Weg gegangen ist.
GDDR6X war immer geplant, der verdoppelte Speicher aber eher nicht, das frisst NV unnötigerweise die Margen weg, was nur eine Reaktion auf AMD sein kann.
Dass NV die Gaming-Ableger nichtmehr bei TSMC fertigt, ist also eine bewusste Entscheidung gewesen. Für das Zugpferd im HPC nimmt man freilich den besten verfügbaren Prozess, weil der entsprechend teurer ist und dort Preise weniger relevant sind.
Dennoch, dass einige hier erwarten, dass NV deshalb die Ziele nicht erreicht, ist Quatsch. Insgesamt wurde das geplante TDP-Budget (bei der 3090 auch wegen dem Speicher) sicher etwas überschritten, dennoch wird die Performance auf jedenfall passen. Da wurde ordentlich aufgebohrt und ich denke, dass vor allem die 3080 (wenn der Speicher nicht so knapp wäre) ein absoluter Hit wird - jedoch abhängig von AMDs Reaktion.
Ravenhearth
2020-08-26, 23:37:33
Diskrete Grafikkarten: Nvidia saugt AMDs Marktanteile auf
https://www.computerbase.de/2020-08/diskrete-grafikkarten-nvidia-amd-marktanteil/
Vielleicht sind 8nm Samsung doch keine Verzweiflung.... sondern 7nm einfach nicht nötig... meh.
AMD wartet einfach viel zu lange mit Karten, mit denen sie Geld verdienen können. -_-
Das ist aber doch der gesamte Markt an dGPUs, also inklusive OEM und Notebooks, oder? Wegen Corona wurden sehr viele Laptops verkauft, und die haben, wenn sie eine dGPU haben, hauptsächlich Nvidia. Die Zahlen zu Einzelverkäufen wären aussagekräftiger.
[MK2]Mythos
2020-08-26, 23:42:15
Das ist aber doch der gesamte Markt an dGPUs, also inklusive OEM und Notebooks, oder? Wegen Corona wurden sehr viele Laptops verkauft, und die haben, wenn sie eine dGPU haben, hauptsächlich Nvidia. Die Zahlen zu Einzelverkäufen wären aussagekräftiger.
So oder so, es wird Zeit, dass die Marktanteile ausgeglichener werden.
Zergra
2020-08-26, 23:58:01
Das ist aber doch der gesamte Markt an dGPUs, also inklusive OEM und Notebooks, oder? Wegen Corona wurden sehr viele Laptops verkauft, und die haben, wenn sie eine dGPU haben, hauptsächlich Nvidia. Die Zahlen zu Einzelverkäufen wären aussagekräftiger.
Das Problem ist doch eher das AMD aktuell neben der 5700er Serie nichts interessantes im Portfolio hat.
Da ist es halt schwer seinen Marktanteil auszubauen.
BlacKi
2020-08-27, 00:15:22
So in etwa meinte ich es auch, du drückst es besser aus. Ich lese hier ein "erwartet besser kack Performance Sprünge" weil die Spiele komplexer werden.
die leaks sagen aus, das je höher die auflösung, je größer der performance sprung mit ampere. deshalb glaube ich nicht an +35% unter 4k, das wird schon richtung +50% gehen, vl mehr je neuer das spiel.
dargo
2020-08-27, 00:16:35
Die geschätzten +50% Perf/W für RDNA2 müssen sich erstmal bewahrheiten und sind noch lange nicht Fakt. Wie, was alles und von wo AMD da gerechnet hat, weiss keiner ausser AMD. Und mit Prozentzahlen kann man so ziemlich alles schön rechnen. Also abwarten und Bier trinken.
Genaues weiß man noch nicht, aber... der GPU-Part der XBox X-Series soll bei 12,15 TFLOPs 150W verbrauchen. Bei RDNA 1 schafft das gerade mal die RX 5700 mit ~7,7 TFLOPs. Den Rest kannst du dir selbst ausrechnen.
BlacKi
2020-08-27, 00:18:20
Genaues weiß man noch nicht, aber... der GPU-Part der XBox X-Series soll bei 12,15 TFLOPs 150W verbrauchen. Bei RDNA 1 schafft das gerade mal die RX 5700 mit ~7,7 TFLOPs. Den Rest kannst du dir selbst ausrechnen.
mach mal -33% PT und sag das nochmal.
dargo
2020-08-27, 00:31:47
mach mal -33% PT und sag das nochmal.
Kannst du dich auch so ausdrücken, dass man dir folgen kann? Momentan komme ich nicht mit was in deinem Kopf rumschwirrt.
BlacKi
2020-08-27, 01:12:45
sry aber das ist doch obvious. umso niedriger dein PT umso effizienter wird die gpu.
r3ptil3
2020-08-27, 02:03:24
https://i.ibb.co/Dgf38sc/20200827-015750.png
Finde den Fehler
https://twitter.com/rheumi/status/1298626737178370048?s=19
Linmoum
2020-08-27, 02:21:34
Die Tabelle kommt nicht aus Fernost? :freak:
Nightspider
2020-08-27, 03:57:44
mach mal -33% PT und sag das nochmal.
Du hast schon mitgekriegt das die neuen Konsolen verdammt hohe Taktraten bekommen oder?
Linmoum
2020-08-27, 05:18:25
Please don't forget GA103.
Do you remember NV40/45 and NV42? I don't know yet what we will see.
https://twitter.com/kopite7kimi/status/1298812800551149568
War NV45 nicht einfach nur NV40 mit PCI-Express? Und NV42 einfach nur ein Die Shrink?
horn 12
2020-08-27, 07:16:45
@Daredevil
Nun, die 2 Monate was AMD hinterherhinkt sind auch nicht die Welt
Gibt bei jenen enormen Ausbeute Probleme derzeit
und bei Nvidia ist ein extremes Problem der 6X Speicher,- dass kaum Karten erhältlich sein werden!
Hat Gaming-Turing eigentlich schon die per-thread PC wie Volta? Oder kann das etwas sein worauf wir uns bei Ampere freuen können? (Ich hatte das im Volta whitepaper gelesen, aber nicht bei Turing.)
Rein von der Architektur würde ich denken dass das vererbt wurde, aber...
dargo
2020-08-27, 07:53:11
sry aber das ist doch obvious. umso niedriger dein PT umso effizienter wird die gpu.
Habe mir schon gedacht, dass da wieder nur Unsinn bei rumkommt.
RX 5700 = 150W GPU bei <1,7Ghz mit 36 CUs
XBXS GPU = 150W GPU bei 1,825Ghz mit 52 CUs
Wird dir immer noch nicht klar wieviel besser RDNA 2 gegenüber RDNA 1 steht?
dildo4u
2020-08-27, 07:57:37
Du nimmst einfach zahlen die nirgends bestätigt wurden du bekommt bei einem Konsolen SOC keine Werte nur für die GPU.
Daredevil
2020-08-27, 07:58:43
RX 5700 = 150W GPU bei <1,7Ghz mit 36 CUs
XBXS GPU = 150W GPU bei 1,825Ghz mit 52 CUs
Vega56 = 210W GPU bei 1,512 Ghz mit 56 CUs
VegaII = 280W GPU bei 1,750GHz mit 60CUs
Stark!
( Immer noch nicht vergleichbar, wichtig ist was ein CU leistet )
Also wenn ich Microsoft oder AMD wäre, würde ich auch nur die GPU Power angeben, denn das sind die kleineren Zahlen. ;) Insofern passt dargos Vergleich, denn das sind beides die GPU-Power-Werte – und nicht die TBP, also die Total Board Power. Erstere kann man gut quervergleichen, Letztere nur zwischen Grafikkarten. Oder hat MS schon gesagt, dass das die Gesamt-Power ist? Das wäre verflucht wenig und ist daher unwahrscheinlich.
RX 5700 = 150W GPU bei <1,7Ghz mit 36 CUs
XBXS GPU = 150W GPU bei 1,825Ghz mit 52 CUs
Vega56 = 210W GPU bei 1,512 Ghz mit 56 CUs
VegaII = 280W GPU bei 1,750GHz mit 60CUs
Stark!
( Immer noch nicht vergleichbar, wichtig ist was ein CU leistet )
"Sustained" liegen unter Volllast alle mehr oder minder darunter. Etwa so - alles mit Referenzkühlern, die limitieren:
Navi 10 XL = 150 W GPU bei ~1,660 GHz mit 36 CUs
Navi 10 XT = 180 W GPU bei ~1,860 GHz mit 40 CUs (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/GPU-Performance-Charts-English-Version-1355341/2/#a22)
XBXS GPU = 150 W GPU bei ~1,700? GHz mit 52 CUs (reine Schätzung)
Vega 10 XL = 210 W GPU bei ~1,290 GHz mit 56 CUs (hier ist der HBM mit drin!)
Vega 20 XL = 250 W GPU bei ~1,740 GHz mit 60 CUs (hier ist der HBM mit drin!)
MfG
Raff
dildo4u
2020-08-27, 08:07:51
Und es hat immer noch null Relevanz für PC GPUs, es macht kein Sinn sich thermisch so einzuschränken wenn man gegen Nvidia anstinken will und bisher hat AMD das auch nicht gemacht.
Die GPUs laufen immer über Sweet spot weil sie nicht breit genug sind.
Nvidia tritt hier eher gegen sich selber an da der Turing Launch ziemlich mäh war was sie selber zugeben haben, daher holen sie jetzt den Hammer raus was Verbräuche angeht.
mironicus
2020-08-27, 08:10:10
Bei der langen GPU-Liste ist es schon beeindruckend wie nahe sich NVidia und AMD gekommen sind. Die Anzahl der CU und Shader ist ähnlich und die Terraflops auch.
Kimi2003
2020-08-27, 08:15:22
In der Tabelle sieht es wirklich so aus als hätte Nvidia nicht damit gerechnet das AMD näher kommt.
Ich bin gespannt in wie fern das natürlich stimmt. Sollte es so kommen, stelle ich mir schon ein einen Preiskampf im 6900 oder 6900XT Segment vor.
ShinyMcShine
2020-08-27, 08:23:09
Sollte es so kommen, stelle ich mir schon ein einen Preiskampf im 6900 oder 6900XT Segment vor.
Daran haben beide Seiten kein Interesse...
dargo
2020-08-27, 08:26:51
Du nimmst einfach zahlen die nirgends bestätigt wurden du bekommt bei einem Konsolen SOC keine Werte nur für die GPU.
Die 150W für die GPU habe ich aus einem anderen Thread. Ob die exakt stimmen sei mal dahin gestellt. Was man aber weiß... XBox X Series bekommt nur ein 300W Netzteil.
https://youtu.be/7Fjn4GRw8qE?t=748
Was denkst du also wird die gesamte Konsole bei so einem mickrigen Netzteil verbrauchen?
RX 5700 = 150W GPU bei <1,7Ghz mit 36 CUs
XBXS GPU = 150W GPU bei 1,825Ghz mit 52 CUs
Vega56 = 210W GPU bei 1,512 Ghz mit 56 CUs
VegaII = 280W GPU bei 1,750GHz mit 60CUs
Stark!
( Immer noch nicht vergleichbar, wichtig ist was ein CU leistet )
Lol? ;D
1. Du vermischt hier wieder GPU Power mit ganzen Karten. Super... :uclap:
2. Dass ein RDNA 1 CU wesentlich mehr leistet als ein GCN CU ist doch schon längst bekannt. :freak: Und du meinst ein RDNA 2 CU wird langsamer sein als ein RDNA 1 CU? Geiler Fortschritt... :crazy:
Dural
2020-08-27, 08:29:53
Ehm amd war auf dem papier schon immer an nv dran oder sogar besser.
Auf die werte der konsolen chips würde ich gar nichts geben, die werden bis zun geht nicht mehr geschönt sein.
dildo4u
2020-08-27, 08:32:09
300Watt sind doch heftig es macht kein Sinn dort 100Watt Luft zu lassen wenn der Takt sich eh nicht bewegt.
Kimi2003
2020-08-27, 08:39:01
Daran haben beide Seiten kein Interesse...
Interesse bestimmt nicht. Aber beide Seiten werden schon zusehen den Kunden dazu zu überreden deren Produkt zu kaufen.
Und da bleibt meiner Meinung nach ein Preiskampf nicht aus.
Dann kann man seitens NV den RT Aufpreis einfach gegenüber nicht mehr rechtfertigen.
Natürlich immer unter der Vorraussetzung beide Produkte sind vergleichbar und spielen in einer Liga.
Man hat ja das Katz und Maus Spiel bei der 5700XT gesehen. Da wurden die Preise plötzlich geändert...
Navi 10 XL = 150 W GPU bei ~1,660 GHz mit 36 CUs
XBXS GPU = 150 W GPU bei ~1,700? GHz mit 52 CUs (reine Schätzung)
Ich glaube Vega können wir auslassen, da die CU Leistung schlicht unter RDNA1 ist. Bei XBXS können wir von einer >= Leistung gegenüber Navi 10 ausgehen, nach Milchmänchen wären wir dann bei 1.48 Rechenleistung bei gleichem Verbrauch. Ziemlich genau das was AMD bewirbt (1.5x Performance/Watt).
Das sagt natürlich nicht wie der Vollausbau sein wird, die opfern bestimmt Effizienz um mehr Leistung zu bekommen, aber das könnte schon konkurenzfähig zu Ampere sein.
dargo
2020-08-27, 08:41:06
300Watt sind doch heftig es macht kein Sinn dort 100Watt Luft zu lassen wenn der Takt sich eh nicht bewegt.
Du kapierst es immer noch nicht oder? Niemand betreibt ein Netzteil am absoluten Limit. Man wäre mit RMAs überflutet. Und der 16-Threader (14 Threads für Games) der neuen Konsole liefert die Leistung auch nicht alleine von der Luft. 150W für die GPU und 50W für die CPU sind für dich so abwegig? Dann kommen noch paar Wattchen aus Wandlerverlusten für die Komponenten, Lüfter etc. und du landest irgendwo bei 230-250W die das Netzteil liefern muss.
Edit:
Die XBOX One X hat ein 245W Netzteil und verbraucht in Games max. 172W (Gesamtverbrauch inkl. Wandlerverluste). Da kann man schon einiges von ableiten.
Dural
2020-08-27, 08:46:15
Ja, und wer sagt jetzt das die gpu mit 150w die vollen 12teraflops bringt? Die 12tf können auch nur anliegen wenn die cpu däumchen dreht, die gpu über 200w ziehen darf.
mironicus
2020-08-27, 08:46:36
In der Tabelle sieht es wirklich so aus als hätte Nvidia nicht damit gerechnet das AMD näher kommt.
Ich bin gespannt in wie fern das natürlich stimmt. Sollte es so kommen, stelle ich mir schon ein einen Preiskampf im 6900 oder 6900XT Segment vor.
Zwischen RTX3080 (800$) und RTX3090 (1400$) liegt eine Preisspanne von 600 Dollar.
AMD könnte seine Karten genau zwischen dem Bereich platzieren, perfekt für ihre 12 GB und 16 GB-Karten die in der Leistung zwischen 3080 und 3090 liegen könnten.
Gibt es wohl eine geheime Preisabsprache zwischen AMD und NVidia? ;D
dargo
2020-08-27, 08:54:08
Ja, und wer sagt jetzt das die gpu mit 150w die vollen 12teraflops bringt? Die 12tf können auch nur anliegen wenn die cpu däumchen dreht, die gpu über 200w ziehen darf.
Wie toll, dass du wieder Null über die neuen Konsolen informiert bist. Microsoft hat bei der XBox einen festen Takt von 1825Mhz gewählt der in Games immer anliegt. Sony wählt einen anderen Weg... variable Taktraten bis zu 2,23Ghz.
The_Invisible
2020-08-27, 08:58:01
Ist eigentlich bekannt ob es wieder eine Art "A-Chip" und "non A-Chip" geben wird? Hoffe ja mal nicht, da gabs am Anfang von Turing ja schon schöne Preisspannen alleine wegen dem "Feature".
Immer wird der fix festgetackerte XBox-Takt herangezogen, das ist einfach nicht vergleichbar mit heutigen Grafikkarten.
Ist eigentlich bekannt ob es wieder eine Art "A-Chip" und "non A-Chip" geben wird? Hoffe ja mal nicht, da gabs am Anfang von Turing ja schon schöne Preisspannen alleine wegen dem "Feature".
Unwahrscheinlich, das wurde ja schon mit den Su-perversionen ;) aus der Welt geschafft. Die Unterteilung kam weder bei Nutzern noch Partnern gut an und diesmal, so sagt man, gibt's außerdem Konkurrenz aus Kanada.
MfG
Raff
TobiWahnKenobi
2020-08-27, 09:15:56
das zeug aus kanada war bisher nur im fernsehen lustig..
https://external-content.duckduckgo.com/iu/?u=https%3A%2F%2Ftse3.mm.bing.net%2Fth%3Fid%3DOIP.IkRayVbrsKyuHu7pRumaqgHaDt%26p id%3DApi&f=1
..und auch da muss ich inzwischen nicht mehr jede episode sehen :-)
(..)
mfg
tobi
fondness
2020-08-27, 09:21:05
Korrekt, NV musste aufgrund der ohnehin schon sehr großen Chips vor allem in mehr Fläche investieren, damit man genug Platz für zusätzliche bzw. umgebaute Einheiten hat, da Turing ja einen "Generationenwandel" einläutete.
Wenn wir dann noch davon ausgehen, dass NV 8nm von Samsung für wirklich sensationelle Preise hinterhergeschmissen bekommen hat (als Druckmittel relativ zu TSMC kann Samsung aktuell nicht ansatzweise mithalten), wird auch klar, warum NV diesen Weg gegangen ist.
GDDR6X war immer geplant, der verdoppelte Speicher aber eher nicht, das frisst NV unnötigerweise die Margen weg, was nur eine Reaktion auf AMD sein kann.
Dass NV die Gaming-Ableger nichtmehr bei TSMC fertigt, ist also eine bewusste Entscheidung gewesen. Für das Zugpferd im HPC nimmt man freilich den besten verfügbaren Prozess, weil der entsprechend teurer ist und dort Preise weniger relevant sind.
Dennoch, dass einige hier erwarten, dass NV deshalb die Ziele nicht erreicht, ist Quatsch. Insgesamt wurde das geplante TDP-Budget (bei der 3090 auch wegen dem Speicher) sicher etwas überschritten, dennoch wird die Performance auf jedenfall passen. Da wurde ordentlich aufgebohrt und ich denke, dass vor allem die 3080 (wenn der Speicher nicht so knapp wäre) ein absoluter Hit wird - jedoch abhängig von AMDs Reaktion.
Natürlich wird es NV wieder schaffen die Leistungskrone zu holen, aber:
1.) Wäre NV ohne starker Konkurrenz wohl nicht auf 350W gegangen.
2.) Hätten sie ohne starkem AMD vermutlich nicht so viel Speicher angeboten.
Fazit: NV muss sich offensichtlich ganz schön strecken um noch vorne zu bleiben. Der Chip ist ja auch alles andere als klein.
Spannend wird jetzt wieviel TDP bei welcher Leistung AMD benötigt.
mironicus
2020-08-27, 09:25:04
Ja, genau! Blame Canada! Nur wegen AMD müssen in Zukunft NVIDIA-GPUs viel mehr schwitzen als jemals zuvor! :D :D
Fehlen jetzt nur noch Meldungen wie "Haus abgebrannt! RTX 3090 wurde zu heiß!" :D
Troyan
2020-08-27, 09:25:29
Nichts davon hat irgendwas mit AMD zu tun. Sollte man langsam auch gecheckt haben, nachdem man solchen Unsinn seit Jahren hier immer wieder schreibt.
dargo
2020-08-27, 09:29:51
Fazit: NV muss sich offensichtlich ganz schön strecken um noch vorne zu bleiben. Der Chip ist ja auch alles andere als klein.
Richtig... selbst wenn es nicht ganz für die 3090 reicht. Die 3080 ist auch 627mm² groß. AMD wird bei BigNavi mit 4xxmm² deutlich mehr Luft bei der Preisgestaltung haben. Ich bin schon echt auf die Preise von RDNA 2 gespannt. Vielleicht erleben wir es nochmal, dass Nvidia kurz nach Release offiziell die Preise senken muss.
Daredevil
2020-08-27, 09:33:51
Die Probleme der Abwärme durch den kleinen Chip ( Hallo Zen2 ) und der Stromverbrauch durch den Speicher/Speicheranbindung ( Sollen es nicht 12/16GB sein spekuliert? ) sind ja auch etwas, was AMD treffen wird.
Mal schauen, wie die ihre Kühllösung umsetzen, mit der VII hat das ja so semi gut Funktioniert, trotz Vapor Chamber und Graphit.
Die 5700XT war schon besser, aber dort war die TDP ja auch recht niedrig.
fondness
2020-08-27, 09:34:12
Nichts davon hat irgendwas mit AMD zu tun. Sollte man langsam auch gecheckt haben, nachdem man solchen Unsinn seit Jahren hier immer wieder schreibt.
Du kannst ja gerne deine Theorie nennen, warum es plötzlich nach durchgehenden ~250W TDP beim Topmodell jetzt 350W benötigt und warum es nach jahrelangen knausern beim Speicher plötzlich Speicher in Hülle und Fülle gibt. Wäre der Chip so unglaublich gut und überlegen, würde man das wohl kaum machen.
Troyan
2020-08-27, 09:37:52
1. hat die 2080TI FE schon +-270W. 2. Gibt es eine 3080 mit mehr Leistung als alles, was AMD bieten wird. 3. Hat Ampere mehr Transistoren für mehr Features.
Und jahrelanges "Knausern" beim Speicher? nVidia bot mit der GTX980TI 6GB (AMD nur 4GB), GTX1080TI 11GB (AMD nur 8GB) und mit der 2080TI immer noch 11GB (AMD?!).
Stimmt, sehr knauserig von nVidia.
Du solltest hier mal erklären, wieso AMD es nötig hat schon im März eine erbärmliche Raytracing-Demo zu zeigen. Und wieso muss AMD plötzlich 16GB liefern, wenn doch schon 4GB für 4K ausgereicht haben sollen. Wohl Druck von nVidia, gell?
Daredevil
2020-08-27, 09:38:29
Du kannst ja gerne deine Theorie nennen, warum es plötzlich nach durchgehenden ~250W TDP beim Topmodell jetzt 350W benötigt
Das ist nicht bestätigt und das hast du auch keine Quelle zu, oder?
Nvidia bietet einem immer die Möglichkeit an, das Power Limit zu erhöhen, wenn das bei 350w auch die Basis sein sollte, dann.... sind es mit +15% 402w, denkst du echt, das wird so kommen? :-)
Schon alleine bei der 2080ti hat die Kühlung bei gleicher TDP schon eine große Rolle gespielt bei dem Takt.
Eine 3090 kann auch einen großen Kühler haben, ohne 350w Base zu ziehen, z.B. 250w oder 280w. ( Ähnlich TRex )
Der Kühler ist hier dann der Schlüssel für 1. Lautstärke, 2. Performance und 3. Reserven für Übertakter und nicht primär, um die Abwärme abzuführen, weil die Kiste sonst verglüht.
dargo
2020-08-27, 09:40:24
Die Probleme der Abwärme durch den kleinen Chip ( Hallo Zen2 ) und der Stromverbrauch durch den Speicher/Speicheranbindung ( Sollen es nicht 12/16GB sein spekuliert? ) sind ja auch etwas, was AMD treffen wird.
Mal schauen, wie die ihre Kühllösung umsetzen, mit der VII hat das ja so semi gut Funktioniert, trotz Vapor Chamber und Graphit.
Die 5700XT war schon besser, aber dort war die TDP ja auch recht niedrig.
Keine Ahnung wo du da Probleme sehen willst. Ich bekomme sowas hier (https://geizhals.de/sapphire-pulse-radeon-rx-5700-xt-8g-11293-01-20g-a2113368.html?hloc=de) bei 150W GPU Power und knapp unter 1.300RPM an den beiden Lüftern selbst an den heißen Tagen (Zimmer 29°C) nahezu unhörbar problemlos gekühlt. Die Karte ist bloß 254mm lang und mit 251mm² ist der Chp ein Winzling im Vergleich zu BigNavi.
fondness
2020-08-27, 09:40:36
1. hat die 2080TI FE schon +-270W. 2. Gibt es eine 3080 mit mehr Leistung als alles, was AMD bieten wird. 3. Hat Ampere mehr Transistoren für mehr Features.
Und jahrelanges "Knausern" beim Speicher? nVidia bot mit der GTX980TI 6GB (AMD nur 4GB), GTX1080TI 11GB (AMD nur 8GB) und mit der 2080TI immer noch 11GB (AMD?!).
Stimmt, sehr knauserig von nVidia.
Du solltest hier mal erklären, wieso AMD es nötig hat schon im März eine erbärmliche Raytracing-Demo zu zeigen. Und wieso muss AMD plötzlich 16GB liefern, wenn doch schon 4GB für 4K ausgereicht haben sollen. Wohl Druck von nVidia, gell?
Natürlich steht AMD unter massiven Druck von NV, das ist eh kein Geheimnis. Aber zum ersten mal scheint auch NV wieder an die Grenzen gehen zu müssen, und das nützt in der Regel vor allem uns Kunden.
Das ist nicht bestätigt und das hast du auch keine Quelle zu, oder?
Nvidia bietet einem immer die Möglichkeit an, das Power Limit zu erhöhen, wenn das bei 350w auch die Basis sein sollte, dann.... sind es mit +15% 402w, denkst du echt, das wird so kommen? :-)
Schon alleine bei der 2080ti hat die Kühlung bei gleicher TDP schon eine große Rolle gespielt bei dem Takt.
Eine 3090 kann auch einen großen Kühler haben, ohne 350w Base zu ziehen, z.B. 250w oder 280w. ( Ähnlich TRex )
Der Kühler ist hier dann der Schlüssel für 1. Lautstärke, 2. Performance und 3. Reserven für Übertakter und nicht primär, um die Abwärme abzuführen, weil die Kiste sonst verglüht.
Wenn es nicht so sein sollte, nehme ich das natürlich zurück. Aber der Kühler spricht zumindest stark dafür, dass da was dran ist.
Troyan
2020-08-27, 09:45:51
Natürlich steht AMD unter massiven Druck von NV, das ist eh kein Geheimnis. Aber zum ersten mal scheint auch NV wieder an die Grenzen gehen zu müssen, und das nützt in der Regel vor allem uns Kunden.
Denk dir doch einfach nichts aus. Die 2080TI geht genauso an die Grenzen mit 2x 8PIN Anschlüssen und 270W. Die 3090 wird genauso viel schneller sein als die 2080TI gegenüber AMD. Nur das wir hier eben keine 270 zu 220W sondern 350W zu 300W haben werden.
dargo
2020-08-27, 09:49:50
Und jahrelanges "Knausern" beim Speicher? nVidia bot mit der GTX980TI 6GB (AMD nur 4GB), GTX1080TI 11GB (AMD nur 8GB) und mit der 2080TI immer noch 11GB (AMD?!).
Stimmt, sehr knauserig von nVidia.
Alter... :facepalm:
Das einzige was hier stimmt ist Fiji. Technisch waren bei HBM halt nicht mehr als 4GB möglich. Zum Rest... Radeon VII hat 16GB, wie kommst du auf 8GB? Und wo siehst du den Gegner von AMD bei RDNA 1 für eine 2080TI? Oder anders gefragt... wo siehst du bei Nvidia bei der 2070(S) mehr als 8GB? :rolleyes: Mach dich nur weiter lächerlich mit deinen hirnverbrannten Vergleichen. Im übrigen gibt es sogar eine Navi mit 16GB Speicher, nur halt nicht im Desktop weil man dort keinen Markt für sowas sieht.
mironicus
2020-08-27, 09:50:29
Wer treibt denn wen vor sich her? Derjenige mit der schlechteren Fertigungstechnologie?
AMD hat Intel auch dazu gebracht, daß sie CPUs raus bringen die bis zu 250 Watt verbraten dürfen. NVidia hat es doch bisher auch nie für nötig gehalten, mehr als 270 Watt zu verbrauchen. Jetzt ist es aber nötig.
Dr.Doom
2020-08-27, 09:55:42
Schon alleine bei der 2080ti hat die Kühlung bei gleicher TDP schon eine große Rolle gespielt bei dem Takt.
Eine 3090 kann auch einen großen Kühler haben, ohne 350w Base zu ziehen, z.B. 250w oder 280w. ( Ähnlich TRex )
Der Kühler ist hier dann der Schlüssel für 1. Lautstärke, 2. Performance und 3. Reserven für Übertakter und nicht primär, um die Abwärme abzuführen, weil die Kiste sonst verglüht.War es bisher nicht so, dass Referenzkarten, Founder Editions oder wie man sie nennt, immer nur einen Kühler hatten, der die quasi nur Karte nutzbar machten, aber die Karte eigentlich nie ausgefahren werden konnten, weil sie ins Temperatur-Limit liefen? Zumindest bei den früheren DHE-Referenzmodellen.
Warum sollte nV jetzt "ab Werk" Kühler spendieren, die quasi übermotorisiert sind und Reserven bieten?
sChRaNzA
2020-08-27, 09:57:02
2. Gibt es eine 3080 mit mehr Leistung als alles, was AMD bieten wird.
Gibt es die? Spekulation ist ja schön und gut, diese Aussage allerdings finde ich "spannend".
Fragman
2020-08-27, 09:58:51
Jetzt ist es aber nötig.
Das liegt aber weniger an AMD als an den geringen Fortschritten in der Fertigung und wenn sie nochmal etwas mehr drauflegen wollen, müssen sie in die Extreme gehen.
Beim Kühler würd ich auch erstmal die Performance abwarten. Vielleicht ist das Ding auch deshalb so riesig, damit es leiser bleibt?
Daredevil
2020-08-27, 10:04:21
Keine Ahnung wo du da Probleme sehen willst. Ich bekomme sowas hier (https://geizhals.de/sapphire-pulse-radeon-rx-5700-xt-8g-11293-01-20g-a2113368.html?hloc=de) bei 150W GPU Power und knapp unter 1.300RPM an den beiden Lüftern selbst an den heißen Tagen (Zimmer 29°C) nahezu unhörbar problemlos gekühlt. Die Karte ist bloß 254mm lang und mit 251mm² ist der Chp ein Winzling im Vergleich zu BigNavi.
Kleines Rechenbeispiel:
Ampere 627mm² 300w
BigNavi 4xxmm² 300w
Bei welcher Karte lässt sich die Wärme besser abführen?
Wenn Nvidia hier Probleme hat, werden die AMD ebenso ( Sogar schlimmer ) treffen, denn die können nicht die Physik aushebeln, siehe z.B. die Kühlleistung einer 2080ti FE und der VII Ref.
2200rpm vs 2800rpm.
Und ja, Nvidia wird es hier schlimmer treffen als bei Turing, weil da die GPU abermals größer war.
Das ist btw. auch der Grund, wieso es eine 545mm² 2080S ins Notebook schafft, weil eine 5700xt schwerer zu kühlen ist aufgrund der DIE Größe.
Oder wieso gibt es "nur" eine 5600M im Notebook?
Also wäre BigNavi für Notebooks ja dann auch denkbar? Uhhh. :)
Warum sollte nV jetzt "ab Werk" Kühler spendieren, die quasi übermotorisiert sind und Reserven bieten?
Damit sie Geld verdienen und den Boardpartnern eine Referenz vorstellen, was sie sich vorstellen?
Wer kauft denn ne FE, wenn es Customs gibt?
Warum gibt es Customs? Weil FEs scheiße sind.
Sind FEs gut, kaufen weniger die Customs > Nvidia mehr Geld > All Time High.
unl34shed
2020-08-27, 10:05:20
Beim Kühler würd ich auch erstmal die Performance abwarten. Vielleicht ist das Ding auch deshalb so riesig, damit es leiser bleibt?
Das sollte allein schon dadurch leiser sein, da es hinten die Luft ohne großen Widerstand durchpusten kann. Die Größe deutet eben auch auf einen gesteigerten Verbrauch hin.
dargo
2020-08-27, 10:05:28
Beim Kühler würd ich auch erstmal die Performance abwarten. Vielleicht ist das Ding auch deshalb so riesig, damit es leiser bleibt?
Was hat die Performance damit jetzt zu tun? Es ist völlig wurscht ob das Ding 50% oder 100% schneller wird. 350W sind 350W die irgendwie abtransportiert werden müssen. Da ist es doch klar, dass der Kühler größer dimensioniert werden muss ohne einen zweiten NV30 Föhn zu bekommen. Hinzu kommt noch, dass die Fläche auf die sich diese Abwärme konzentriert 17% kleiner geworden ist. Mehr Wattage bei weniger Fläche = schwierigerer Abtransport der Wärme.
Zergra
2020-08-27, 10:08:42
War es bisher nicht so, dass Referenzkarten, Founder Editions oder wie man sie nennt, immer nur einen Kühler hatten, der die quasi nur Karte nutzbar machten, aber die Karte eigentlich nie ausgefahren werden konnten, weil sie ins Temperatur-Limit liefen? Zumindest bei den früheren DHE-Referenzmodellen.
Warum sollte nV jetzt "ab Werk" Kühler spendieren, die quasi übermotorisiert sind und Reserven bieten?
Weil NV an einer FE am Ende wohl mehr verdient als an einem Chip für die AIBs ?
Ist das wirklich so abwegig wenn man die FE sinnvoll anbieten möchte ? So kann jeder der einen guten Luftkühler haben möchte,gleich bei Release zugreifen.
Fragman
2020-08-27, 10:12:51
Die Größe deutet eben auch auf einen gesteigerten Verbrauch hin.
Jep, das sowieso, sonst bräuchte man den nicht.
Mehr Vebrauch-->größerer Lüfter damit sich das wieder ausgleicht.
In dem Segment, in dem die Karte angesiedelt sein wird, sehe ich auch keine Probleme. Bei midrange wäre das natürlich was anderes, aber dort besteht die Gefahr für soviel Abwärme offensichtlich nicht, wenn man sich mal die 3080 anschaut und midrange wohl noch kleiner sein wird.
Daredevil
2020-08-27, 10:17:53
Hinzu kommt noch, dass die Fläche auf die sich diese Abwärme konzentriert 17% kleiner geworden ist. Mehr Wattage bei weniger Fläche = schwierigerer Abtransport der Wärme.
Vielleicht ist die Wattage ja nicht größer vom Chip, sondern gleich geblieben/kleiner geworden, da sich der Verbrauch des Speichers erhöht hat und so die Gesamt TDP hochreißt. :)
Was unterscheidet denn den fetten Tri Slot 3090 Kühler vom kleinen Dual Slot 3080 Kühler?
Der DIE ist es nicht, es ist nur der Speicher.
dargo
2020-08-27, 10:18:31
Kleines Rechenbeispiel:
Ampere 627mm² 300w
BigNavi 4xxmm² 300w
Bei welcher Karte lässt sich die Wärme besser abführen?
Bei gleicher Wattage im gleichen Prozess natürlich die größere GPU. Da es aber nicht der gleiche Prozess ist ist sowas schwierig zu beantworten wie groß die Vorteile theoretisch sein könnten. Ich stecke jetzt auch nicht so tief in der Fertigungsmaterie drin. Gibt es auch eine wichtige Komponente wie Wärmedichte je Fertigungsprozess die man dabei berücksichtigen muss?
robbitop
2020-08-27, 10:20:30
Naja Leistungsdichte ist Leistungsdichte. Egal ob Kochplatte oder Silizium. ;)
Entsprechend wird der Gradient bei gleicher Leistung bei kleinerer Fläche größer sein.
Daredevil
2020-08-27, 10:21:48
Ich stecke da auch nicht drin, aber es gibt ja Praxisbeispiele, bei GPUs als auch bei Prozessoren.
Beispiel:
2700X bei 200w > Kein Ding unter LuKü
3600X bei 130w > Über 100°C mit LuKü
Sunrise
2020-08-27, 10:35:13
Kleines Rechenbeispiel:
Ampere 627mm² 300w
BigNavi 4xxmm² 300w
Woher kommen jetzt eigentlich die 4xxmm^2 von BigNavi? Das war meines Wissens doch lediglich eine Hochrechnung, oder?
Scheint mir so ein bisschen zuviel “Stille-Post”-Prinzip, wenn überall von anderen Zahlen ausgegangen wird.
ShinyMcShine
2020-08-27, 10:38:59
Woher kommen jetzt eigentlich die 4xxmm^2 von BigNavi? Das war meines Wissens doch lediglich eine Hochrechnung, oder?
Scheint mir so ein bisschen zuviel “Stille-Post”-Prinzip, wenn überall von anderen Zahlen ausgegangen wird.
Vor allem macht es einen großen Unterschied, ob xx an der unteren oder oberen Grenze liegt... ;)
Daredevil
2020-08-27, 10:39:42
Da steht ja Rechenbeispiel, das soll auch dann nur als Beispiel gesehen werden. Die Größe habe ich als Beispiel von Dargo übernommen.
Ich wollte damit nur aussagen, dass nicht nur Nvidia mit sowas zu kämpfen hat, sondern AMD das Problem auch lösen muss.
AMD wird ja auch sicherlich mehr Speicher verbauen und wer mal eine 2900XT hatte ( ich :D ) weiß, wie sich 512 Bit z.B. anfühlen, falls es denn so kommen sollte.
Dural
2020-08-27, 10:44:09
Ich finde die Diskussionen vor jeder neuen GPU Generation immer super, und jedes Mal geht es um das gleiche, AMD hat massiv aufgeholt. Nach 10 Jahren+ sollte man langsam intelligenter sein?!
Einfach noch mal zum Mitschreiben:
Die 5700XT hat dieselbe Effizienz wie die 1080, bei 7nm vs 16nm (!!!)
NV bringt eine neue Architektur in einem neuen Prozess, AMD bringt eine bestehende verbesserte Architektur im gleichen Prozess. Zwischen Navi1 und Navi2 liegt gerademal 1 Jahr, zwischen Turing und Ampere liegen 2 Jahre.
Man muss schon ziemlich schwer von Begriff sein um diese FAKTEN nicht zu begreifen.
Und jetzt kommt es noch besser, Navi1 ist ein mini Chip mit gerade mal 250mm2, so einen kleinen Chip pro Einheit gut Auslasten zu können ist keine Hexerei, konnte AMD ja schon mit Polaris und co.
AMD hatte aber immer und immer wieder Probleme bei Grösseren Chips die Auslastung pro Einheit aufrecht zu halten. Genau das ist ja auch die Herausforderung bei den heutigen GPU, die Auslastung pro Einheit in die Breite bei guten Energiewerten. Und jeder weiss das genau da NV massiv in den letzten Jahren investiert hat und AMD es immer auf die leichte Schulter genommen hat. Die Navi Architektur ist da sicher besser, aber ich glaube kaum das sie in die Nähe von NV die ja schon sehr viele Breite Chips gebaut haben kommen werden.
wolik
2020-08-27, 10:46:29
Statt Information und Gedanken / Erwartungen über Ampere auszutauschen, hier werden nur Schlachten zwischen AMD vs Nvidia durchgeführt. Dazu noch auch, zwischen "Grafikarten" welche noch kein Mensch getestet hat.
Schade das Mods nicht eingreifen.
dildo4u
2020-08-27, 10:48:10
Neue Netzteile von MSI von 650 bis 850 angeblich Ampere Ready.
https://videocardz.com/press-release/msi-releases-its-mpg-gf-power-supplies-for-geforce-rtx-30-series
nalye
2020-08-27, 10:51:01
Schade das Mods nicht eingreifen.
Ihr schafft das auch brav selbst! Einfach mal nicht auf offensichtliches Getrolle eingehen, anyone?
Daredevil
2020-08-27, 10:51:21
Stark, die haben die Beschriftung des Netzteils geändert und ein Kabel hinzugefügt. :D
Dural
2020-08-27, 10:55:50
Noch was, wer die letzten Quartal Zahlen von NV verfolgt hat weiss das sie mit deutlich mehr Umsatz UND Gewinn für die Zukunft rechnen.
Dazu soll die Gewinn Marge STEIGEN, Ampere hat somit eine bessere Marge als Turing.
So ich lasse jetzt einige weiter Träumen, die Realität wird sie zurück auf den Boden bringen.
unl34shed
2020-08-27, 10:57:54
Noch was, wer die letzten Quartal Zahlen von NV verfolgt hat weiss das sie mit deutlich mehr Umsatz UND Gewinn für die Zukunft rechnen.
Dazu soll die Gewinn Marge STEIGEN, Ampere hat somit eine bessere Marge als Turing.
Nö shit Sherlock, man hat ja auch schon wieder die Preise erhöht.
BiZiNiZz
2020-08-27, 10:59:20
Nö shit Sherlock, man hat ja auch schon wieder die Preise erhöht.
Mal weniger Lack saufen, aktuell wurden noch überhaupt keine Preise erhöht.
Sind reine Spekulanten.
WedgeAntilles
2020-08-27, 11:02:00
Dazu soll die Gewinn Marge STEIGEN, Ampere hat somit eine bessere Marge als Turing.
Das ist für Nvidia natürlich schön - aber ich als Konsument habe da nix von ;)
robbitop
2020-08-27, 11:09:10
Einfach noch mal zum Mitschreiben:
Die 5700XT hat dieselbe Effizienz wie die 1080, bei 7nm vs 16nm (!!!)
Die 5700 und die 2060 Super liegen sehr nah aneinander. Genau wie die 5700 XT und die 2070.
Die 1080 liegt da ebenfalls. Also könnte man sagen, dass trotz neuer uArch und trotz 12 nm Vorteile Turing nicht viel energieeffizienter ist als Pascal. (wir alle wissen, das kommt sehr stark auf den Parcours an ;-)
Hier mal die Energieeffizienz aus dem CB Test in 1440p:
5700XT 100%
1080 101%
2070 Super 104%
2060 vanilla 105%
5700 107%
2060 Super 111%
Das liegt alles so nah aneinander, dass Dinge wie Schwankungen der Güte im Silizium (Stichprobengröße = 1) und der Betriebspunkt die viel größeren Einflussgrößen sind.
Grundsätzlich ist das schon pari. Insbesondere wenn man sich Vega anschaut:
Radeon 7: 82%
Vega 64: 61%
RDNA ist schon ein ziemlich großer Schritt, der die Lücke kleiner werden ließ. Natürlich muss man konstatieren, dass Shrinkvorteil noch zwischen Turing und RDNA1 stand. Es wird interessant zu sehen, wie groß die Differenz zwischen RDNA2 und Ampere ist. Beide uArchs werden die Energieeffizienz sicherlich erhöhen. Die Frage ist wie sehr das jeweils der Fall sein wird.
RDNA1 soll ggü GCN1 +50% geholt haben - inkl Shrink. Das kommt grob hin. RDNA2 soll nochmal +50% liefern. Das bleibt abzuwarten, ob das auch so kommt. Im Falle von Ampere weiß man das noch nicht. Wir werden den Launch beider Produkte wohl abwarten müssen.
Hauwech
2020-08-27, 11:11:16
Genaues weiß man noch nicht, aber... der GPU-Part der XBox X-Series soll bei 12,15 TFLOPs 150W verbrauchen. Bei RDNA 1 schafft das gerade mal die RX 5700 mit ~7,7 TFLOPs. Den Rest kannst du dir selbst ausrechnen.
Wo sind die 150W denn her? Sind die bestätigt und akkurat? Mit "soll" kannst du genau gar nichts anfangen. Es könnten also genauso gut 160W oder 170W sein.
Egal wie das Milchmädchen rechnet, es kommen bei 36 gegen 52 CUs auf Biegen und Brechen keine +50% raus. Du willst einen Stand-alone GPU-Chip gegen einen APU-GPU-Teil vergleichen? Der nur mit genau einer Frequenz läuft und bei dem du nicht weisst was alles geändert und weggelassen wurde? Ernsthaft? :|
LasterCluster
2020-08-27, 11:29:23
Wo sind die 150W denn her? Sind die bestätigt und akkurat? Mit "soll" kannst du genau gar nichts anfangen. Es könnten also genauso gut 160W oder 170W sein.
Egal wie das Milchmädchen rechnet, es kommen bei 36 gegen 52 CUs auf Biegen und Brechen keine +50% raus.
Immerhin kann das Milchmädchen rechnen....52/36=1,444. Also 44%. Und da kommt dann noch ca 10% Takt drauf. Macht ca 55%. Sind es eher 160W werden es halt nur 45% sein. Kurz gesagt: Es sind ca die offiziell angekündigten 50%. Punkt. Im Grunde ist die Rechnung idiotensicher.
dargo
2020-08-27, 11:34:15
Woher kommen jetzt eigentlich die 4xxmm^2 von BigNavi? Das war meines Wissens doch lediglich eine Hochrechnung, oder?
Scheint mir so ein bisschen zuviel “Stille-Post”-Prinzip, wenn überall von anderen Zahlen ausgegangen wird.
Bisher gibt es afaik zwei Spekulationen. Die erste lag bei 505mm², die zweite bei 427mm². Beim Zweiteren bin ich mir jetzt nicht 100% sicher ob die Größe so passt. Da aber der SoC der neuen Xbox mit 56 CUs (52 CUs aktiv) nur 360mm² groß ist glaube ich nicht unbedingt an die 505mm². Aber selbst wenn ist das immer noch einiges weniger als die 627mm² bei Samsung.
unl34shed
2020-08-27, 11:36:32
Bisher gibt es afaik zwei Spekulationen. Die erste lag bei 505mm², die zweite bei 427mm². Beim Zweiteren bin ich mir jetzt nicht 100% sicher ob die Größe so passt.
Afaik war die 427 aus einem Moors law is dead video, das wohl die interne speculation seitens Nvidia sein sollte.
rentex
2020-08-27, 11:48:01
Ich finde die Diskussionen vor jeder neuen GPU Generation immer super, und jedes Mal geht es um das gleiche, AMD hat massiv aufgeholt. Nach 10 Jahren+ sollte man langsam intelligenter sein?!
Einfach noch mal zum Mitschreiben:
Die 5700XT hat dieselbe Effizienz wie die 1080, bei 7nm vs 16nm (!!!)
NV bringt eine neue Architektur in einem neuen Prozess, AMD bringt eine bestehende verbesserte Architektur im gleichen Prozess. Zwischen Navi1 und Navi2 liegt gerademal 1 Jahr, zwischen Turing und Ampere liegen 2 Jahre.
Man muss schon ziemlich schwer von Begriff sein um diese FAKTEN nicht zu begreifen.
Und jetzt kommt es noch besser, Navi1 ist ein mini Chip mit gerade mal 250mm2, so einen kleinen Chip pro Einheit gut Auslasten zu können ist keine Hexerei, konnte AMD ja schon mit Polaris und co.
AMD hatte aber immer und immer wieder Probleme bei Grösseren Chips die Auslastung pro Einheit aufrecht zu halten. Genau das ist ja auch die Herausforderung bei den heutigen GPU, die Auslastung pro Einheit in die Breite bei guten Energiewerten. Und jeder weiss das genau da NV massiv in den letzten Jahren investiert hat und AMD es immer auf die leichte Schulter genommen hat. Die Navi Architektur ist da sicher besser, aber ich glaube kaum das sie in die Nähe von NV die ja schon sehr viele Breite Chips gebaut haben kommen werden.
Da kann ich leider nur zustimmen.
Vllt. legt AMD nach ZEN3 den Focus auf die Grafiksparte.
Das mit der Auslastung erledigt sich mittlerweile "von selbst" - die Lower-Level-APIs helfen hier massiv und DX11-Spiele sind auf dem Rückzug.
MfG
Raff
Dr.Doom
2020-08-27, 11:57:19
Wer kauft denn ne FE, wenn es Customs gibt?Na, diejenigen, welche eine Referenzkarte wollen, um einen Wasserkühler draufzuschrauben.
Da brauchts keinen teuren Luftkühler, der sich erst noch beweisen muss, aber sowieso sofort abgeschraubt wird, um Platz zu schaffen.
Am liebsten wär mir, die würden gleich Karten ohne Kühler verkaufen. ;)
woodsdog
2020-08-27, 12:01:55
Da kann ich leider nur zustimmen.
Vllt. legt AMD nach ZEN3 den Focus auf die Grafiksparte.
Die Vorzeichen sind diesmal aber ganz andere... Ihr ignoriert den Riesen Sprung welcher mit RDNA1 schon passiert ist. die 5700er sind in ihrem Segment absolut konkurrenzfähig und vergleichbar zu Turing was Effizienz angeht... Wenn AMD noch mal 50% darauf verspricht werden am Ende sicher nicht nur 15% bei rauskommen. :rolleyes:
Daredevil
2020-08-27, 12:06:13
Na, diejenigen, welche eine Referenzkarte wollen, um einen Wasserkühler draufzuschrauben.
Da brauchts keinen teuren Luftkühler, der sich erst noch beweisen muss, aber sowieso sofort abgeschraubt wird, um Platz zu schaffen.
Am liebsten wär mir, die würden gleich Karten ohne Kühler verkaufen. ;)
Damm halt die :x
https://geizhals.de/zotac-gaming-geforce-rtx-2080-ti-blower-zt-t20810a-10p-a1915389.html
Fragman
2020-08-27, 12:22:14
Die Vorzeichen sind diesmal aber ganz andere... Ihr ignoriert den Riesen Sprung welcher mit RDNA1 schon passiert ist. die 5700er sind in ihrem Segment absolut konkurrenzfähig und vergleichbar zu Turing was Effizienz angeht... Wenn AMD noch mal 50% darauf verspricht werden am Ende sicher nicht nur 15% bei rauskommen. :rolleyes:
Wenn AMD was brauchbares hat, hören wir hoffentlich nächste Woche davon. Sonst decken sich die Leute bis November alle mit Ampere ein, zumindest in dem Bereich, in dem AMD dann wildern können soll.
Hier laufen ja alle schon auf heißen Kohlen. :D
Birdman
2020-08-27, 12:26:20
Also ich halte es durchaus für denkbar und realistisch dass Ampere nur geringfügig effizienter wird als Turing, zumindest bei "general-pupose" Rasterizing Aufgaben - vor allem wenn man die kolportierte 3090 zur Referenz nimmt und mit einer 2080Ti vergleicht
Zum einen ist der Samsung 8nm Prozess nun nicht so viel besser als die 12nm von TSMC und zum andern sind die 24GB GDDR6x schon für einen Grossteil der höheren BoardPower verantwortlich.
Dazu noch die Gerüchte dass vor allem RT und co. aufgebohrt wurden und schon sehen irgendwelche Witcher3 Benchmarks nicht mehr so rosig aus, wenn man Effizienzvergleiche anstellt.
dargo
2020-08-27, 12:36:39
Afaik war die 427 aus einem Moors law is dead video, das wohl die interne speculation seitens Nvidia sein sollte.
Aber laut Dural weiß Nvidia schon alles über BigNavi dann muss die Größe ja stimmen. ;)
Jetzt mal ernsthaft... wenn diese Schätzung tatsächlich von Nvidia kommt dann haben die Ingenieure nichts weiter gemacht als sich die bekannten Daten vom neuen XBXS SoC zu schnappen und anhand dieser Daten hochzurechnen. Womöglich hat Nvidia mit einem 384Bit hochgerechnet. Sollte BigNavi mit 512Bit SI kommen landen wir irgendwo bei 450-460mm² mit 80 CUs. Und selbst das muss nicht eintreffen. Die Geschichte lehrt uns, dass ein breiteres SI nicht unbedingt mehr Platz benötigt. Siehe Hawaii vs. Tahiti.
Wenn AMD was brauchbares hat, hören wir hoffentlich nächste Woche davon. Sonst decken sich die Leute bis November alle mit Ampere ein, zumindest in dem Bereich, in dem AMD dann wildern können soll.
Hier laufen ja alle schon auf heißen Kohlen. :D
Oh ja.. die 10 3DC-User werden sicher einen riesen Beitrag für die Marge von Nvidia leisten. :facepalm:
Ravenhearth
2020-08-27, 12:47:28
Denk dir doch einfach nichts aus. Die 2080TI geht genauso an die Grenzen mit 2x 8PIN Anschlüssen und 270W. Die 3090 wird genauso viel schneller sein als die 2080TI gegenüber AMD. Nur das wir hier eben keine 270 zu 220W sondern 350W zu 300W haben werden.
Du gehst echt davon aus, dass die 3090 50% schneller wird als Big Navi, nur weil es bei 2080 Ti vs. 5700 XT genauso war? ;D AMD hat mit RDNA1 doch noch nichtmal versucht, mit der 2080 Ti konkurrieren. Bei RDNA2 ist das anders. Big Navi wird mitnichten nur die 50% drauflegen, die die 3090 anscheinend bringt. Bei der doppelten Einheitenanzahl (die natürlich nicht perfekt skaliert), mehr IPC und mehr Takt sollte in etwa die doppelte Leistung der 5700XT schon drin sein, womit die 3090 keine 20% Vorsprung mehr hätte. Oder warum glaubst du, basiert die 3080 dieses mal auf GA102 und ist verhältnismäßig stark? Sie soll sich halt mit AMD anlegen, und nur die 3090 steht dann noch etwas über den beiden.
dargo
2020-08-27, 12:52:20
Das mit der Auslastung erledigt sich mittlerweile "von selbst" - die Lower-Level-APIs helfen hier massiv und DX11-Spiele sind auf dem Rückzug.
Bingo... vor nicht allzu langer Zeit glänzte Nvidia noch im CPU-Limit nicht unerheblich @DX11. So können sich die Zeiten ändern.
https://cdn.mos.cms.futurecdn.net/8Pf7FDiFumTkfvKCAQuLnN-2560-80.png
Da wird je nach CPU die 5700XT plötzlich bis zu 12% schneller im CPU-Limit als eine 2080TI.
BlacKi
2020-08-27, 12:59:07
Bingo... vor nicht allzu langer Zeit glänzte Nvidia noch im CPU-Limit nicht unerheblich @DX11. So können sich die Zeiten ändern.
https://cdn.mos.cms.futurecdn.net/8Pf7FDiFumTkfvKCAQuLnN-2560-80.png
Da wird je nach CPU die 5700XT plötzlich bis zu 12% schneller im CPU-Limit als eine 2080TI.
performt doch auf dem 9600k ganz gut? scheint bloß auf dem 3600 schlecht zu laufen, warum auch immer.
dargo
2020-08-27, 13:03:53
Den i3 Intel und i5 3400G Ryzen blendest du wieder gekonnt aus?
Fragman
2020-08-27, 13:05:42
Oh ja.. die 10 3DC-User werden sicher einen riesen Beitrag für die Marge von Nvidia leisten. :facepalm:
Du willst das aber auch mit Absicht falsch verstehen.
Viele wollen neue Karten und die gibt es in einem Monat zu kaufen. Wir reden hier von Highend, das sowieso nur einen kleineren Bereich des Marktes abdeckt.
Da haben die, die dann neu kaufen wollen, ein Produkt im Laden stehen. AMD wird da sicher reagieren und den Käufern irgendwas anteasern.
Daredevil
2020-08-27, 13:12:44
Wir reden hier von Highend, das sowieso nur einen kleineren Bereich des Marktes abdeckt.
https://www.3dcenter.org/artikel/mindfactory-grafikkarten-retail-verkaufsreport-q22020
https://www.3dcenter.org/dateien/abbildungen/Mindfactory-Graphics-Card-Sales-2Q-2020.png
So klein ist die Blase vom "HighEnd" eigentlich gar nicht im Vergleich zu den anderen Karten.
BlacKi
2020-08-27, 13:14:19
So klein ist die Blase vom "HighEnd" eigentlich gar nicht im Vergleich zu den anderen Karten.
mindfactory bildet keinen realen querschnitt.
Den i3 Intel und i5 3400G Ryzen blendest du wieder gekonnt aus?
und du blendest den 3900x und 9900k aus? die sind jeweils ebenfalls im cpu limit^^ ich wollte damit sagen, das die werte nichts aussagen.
Daredevil
2020-08-27, 13:15:15
Hast du eine bessere Quelle?
Einen Trend kann man jedoch durchaus erkennen, auch wenn das natürlich nicht auf alle Shops übertragbar ist.
Die Marktverhältnisse AMD/Nvidia stimmen jedoch durchaus mit diesem Bild überein.
woodsdog
2020-08-27, 13:15:26
mindfactory bildet keinen realen querschnitt.
this.
Selbstschrauber kaufen eher größer.
BlacKi
2020-08-27, 13:21:43
Hast du eine bessere Quelle?
Einen Trend kann man jedoch durchaus erkennen, auch wenn das natürlich nicht auf alle Shops übertragbar ist.
Die Marktverhältnisse AMD/Nvidia stimmen jedoch durchaus mit diesem Bild überein.
du und ich kaufen gerne beim billigsten ein, aber es gibt einen großen anteil an highend und enthusiast käufern die lieber bei alternate und caseking oder vorort zb. bei arlt einkaufen wegen dem besseren support und weil die wahrscheinlichkeit dort auf rückläufer zu treffen deutlich geringer ist.
die zahlen sollte man mit einer brise salz zu sich nehmen. mehr wollte ich dazu garnicht sagen.
Daredevil
2020-08-27, 13:25:50
Keine meiner 6 2080tis habe ich bei Mindfactory gekauft. :(
Ja, ich weiß was du meinst, trotzdem haben wir hier Indizien und können Trends erahnen.
Die Anzahl der verkauften Grafikkarten deckt sich auch mit der Meldung, dass Nvidia AMD weiter nach hinten gedrängt hat von der Anzahl der Verkäufen und das sind unterm Strich mehr Zahlen, Daten und Fakten als ein "Mindfactory bildet nicht den Markt wieder", denn darin ist Null gehalt.
Deswegen....HighEnd ist nicht so unbeliebt, wie manch einer denkt und Nvidias Quartalszahlen bestätigen ebenso, dass der Käufer mehr Geld ausgibt als letztes Jahr > der Trend geht zu teureren Karten.
Nichts, was ich toll finde. Aber so ist es nun einmal.
Genau in die Schiene wird sich Ampere anscheinend ja auch ansiedeln.
dargo
2020-08-27, 13:26:39
und du blendest den 3900x und 9900k aus? die sind jeweils ebenfalls im cpu limit^^ ich wollte damit sagen, das die werte nichts aussagen.
Woran erkennst du das? Nur weil dort low Details steht? :tongue: Der Übergang zwischen den CPUs ist natürlich fließend Richtung steigendes GPU-Limit.
Keine meiner 6 2080tis habe ich bei Mindfactory gekauft. :(
Ja, ich weiß was du meinst, trotzdem haben wir hier Indizien und können Trends erahnen.
Wenn schon dann ist das höchstens ein Trend alleine für Deutschland. Global gesehen eher unbedeutend. Mindfactory verkauft auch mehr Ryzen CPUs als Intel. Global dominiert Intel immer noch stark.
Lawmachine79
2020-08-27, 13:34:46
Was hat es eigtl. mit diesem Coprozessor auf sich? Sitzt der nur auf der 3090? Was soll der machen?
There is no co-processor -> 2. Voltage Control Chip.
MfG
Raff
Ex3cut3r
2020-08-27, 13:38:29
There is no co-processor -> 2. Voltage Control Chip.
MfG
Raff
Schon fleißig am testen? :biggrin:
Klar. Tonnenweise Vortests, die über die Basisbenchmarks hinausgehen.
Ach, du meinst mit Ampere-Grafikkarten? Nö. Gedulded euch besser noch drei Wochen. :)
Was sagt uns das? Es gibt derzeit weder offizielle Infos (die Teaser von gestern ausgenommen) noch ein Embargo.
MfG
Raff
Ex3cut3r
2020-08-27, 13:43:37
Klar. Tonnenweise Vortests, die über die Basisbenchmarks hinausgehen.
Ach, du meinst mit Ampere-Grafikkarten? Nö. Gedulded euch besser noch drei Wochen. :)
Was sagt uns das? Es gibt derzeit weder offizielle Infos (die Teaser von gestern ausgenommen) noch ein Embargo.
MfG
Raff
;D :up:
[MK2]Mythos
2020-08-27, 13:43:48
Klar. Tonnenweise Vortests, die über die Basisbenchmarks hinausgehen.
Gehört das dann nicht in den Navi Thread? :upara:
y33H@
2020-08-27, 13:44:09
Darf man lügen, Raff? :ucatch:
Cyberfries
2020-08-27, 13:45:42
Der September nähert sich, die Gerüchte werden zielführender, die größten Fantastereien entpuppen sich als das was sie sind.
Wir haben jetzt mehr oder weniger die Chipgröße bestätigt (ca.627mm²), Stromanschluss und X-Lüfter,
sowie die Leistungseinstufung (ca.60% +).
In einer ersten Vorabbewertung wirkt das nicht unvernünftig, die schlimmsten Befürchtungen sind damit ausgeräumt.
Bleibt nur noch das Hoffen, dass aus den 350w etwas Massentauglicheres wird.
Zu den Verkaufszahlen: Klar, die 2080er und 2070er sind durchaus erfolgreich auf Mindfactory.
Dass das jedoch kein vollständiges Bild des Marktes darstellt sollte klar sein, wie bereits angemerkt.
Selbstbauer sind eben eine recht geringe Gruppe und der finanzstarke Deutsche verzerrt das Bild weiter.
rentex
2020-08-27, 13:48:44
Klar. Tonnenweise Vortests, die über die Basisbenchmarks hinausgehen.
Ach, du meinst mit Ampere-Grafikkarten? Nö. Gedulded euch besser noch drei Wochen. :)
Was sagt uns das? Es gibt derzeit weder offizielle Infos (die Teaser von gestern ausgenommen) noch ein Embargo.
MfG
Raff
Joar, deckt sich alles mit z.B. Igor und umgekehrt.
Danke für den Hinweis, es bleibt sehr spannend.
Lowkey
2020-08-27, 13:49:48
Darf man lügen, Raff? :ucatch:
Aha welche Sondertests sind eigentlich geplant?
mboeller
2020-08-27, 13:55:57
Da muss man sich eher fragen, warum NV überhaupt so gehandelt hat,
IMHO:
Ampere war nie für den 8nm Prozess gedacht, sondern sollte eigentlich den 7nm EUV Prozess von Samsung benutzen. Da der aber MIA ist und Samsung/Nvidia das sehr spät gemerkt haben blieb nur der 8nm Prozess übrig. Die 7nm Kapazität bei TSMC war da schon ausgebucht.
rentex
2020-08-27, 14:15:01
Soweit ich weiß, hat NV bei den Verhandlungen mit TSMC zu hoch gepokert und musste zu Samsung.
Ja, und wer sagt jetzt das die gpu mit 150w die vollen 12teraflops bringt?
Microsoft sagt das. Die zur Verfügung stehende Leistung ist konstant, wie bei den bisherigen Konsolen. Natürlich kann der Verbrauch unter Target sein wenn wenige Transistoren schalten, aber 150W soll wohl das Limit sein, wie früher bei den Desktop GPUs.
TurricanM3
2020-08-27, 14:18:15
Wenn AMD was brauchbares hat, hören wir hoffentlich nächste Woche davon.
Wenn AMD mal einen im High-End Segment raushauen würde, wären die viel mehr in den Köpfen der Leute. Das Image ist halt, naja. Ich kenne nur Leute die NVidia Karten haben, schon Jahre. Ich hab nichts gegen AMD, würde ich auch kaufen. Meine letzte AMD war glaube eine X850XT, überleg mal wie lange das her ist. Ich weiß nur, dass die nichts interessantes für mich haben und da lohnt es sich für mich auch gar nicht mich weiter zu informieren, ich weiß nicht mal was dieses hier oft zitierte RDNA ist.
MiamiNice
2020-08-27, 14:20:48
Wenn AMD mal einen im High-End Segment raushauen würde, wären die viel mehr in den Köpfen der Leute. Das Image ist halt, naja. Ich kenne nur Leute die NVidia Karten haben, schon Jahre. Ich hab nichts gegen AMD, würde ich auch kaufen. Meine letzte AMD war glaube eine X850XT, überleg mal wie lange das her ist. Ich weiß nur, dass die nichts interessantes für mich haben und da lohnt es sich für mich auch gar nicht mich weiter zu informieren, ich weiß nicht mal was dieses hier oft zitierte RDNA ist.
Postete er stellvertretend für 95% aller Gamer da draußen :wink:
Leonidas
2020-08-27, 14:24:33
Aktualisierte TimeSpy-Werte von Kimi ins Verhältnis gesetzt zu bekannten Werten:
https://www.3dcenter.org/news/geruechtekueche-aktualisierte-timespy-werte-zeigen-auf-60-mehrperformance-bei-gaming-ampere-hin
-> interessanter Punkt: TSE skaliert fast exakt wie der 3DC 4K Perf.Index. Ergo kann man schon ziemlich gut hochrechnen, sofern da nichts gänzlich überraschendes mehr kommt.
Währenddessen auf Twitter:
https://pbs.twimg.com/media/EgZwcZnXsAAiTB-?format=png&name=large
woodsdog
2020-08-27, 14:26:12
Postete er stellvertretend für 95% aller Gamer da draußen :wink:
Ja. Der Titan RTX Käufer welcher von einer 2080ti aufrüstet und sich ein halbes Duzend 10900 bestellt um den Chip zu finden der 0.1V bei X Ghz weniger hat.
stellvertretend für 95% der Gamer. :freak:
Aber wie er sagt informiert er sich ja nicht mal. Einfach stumpf das mit dem längsten Balken wird gekauft. Kann jetzt jeder selbst was draus machen.
Brillus
2020-08-27, 14:30:41
Aktualisierte TimeSpy-Werte von Kimi ins Verhältnis gesetzt zu bekannten Werten:
https://www.3dcenter.org/news/geruechtekueche-aktualisierte-timespy-werte-zeigen-auf-60-mehrperformance-bei-gaming-ampere-hin
-> interessanter Punkt: TSE skaliert fast exakt wie der 3DC 4K Perf.Index. Ergo kann man schon ziemlich gut hochrechnen, sofern da nichts gänzlich überraschendes mehr kommt.
Währenddessen auf Twitter:
https://pbs.twimg.com/media/EgZwcZnXsAAiTB-?format=png&name=large
Sag mir bitte das das keine Stromstecker sind oben rechts.
Ansonsten bleib ich bei meiner Speku. 3080 und BigNavi Perf. Unterschied <= 10% ( In beide Richtungen nöglich). P/L 10% Vorteil AMD.
TheAntitheist
2020-08-27, 14:32:29
RX 5700 = 150W GPU bei <1,7Ghz mit 36 CUs
XBXS GPU = 150W GPU bei 1,825Ghz mit 52 CUs
Vega56 = 210W GPU bei 1,512 Ghz mit 56 CUs
VegaII = 280W GPU bei 1,750GHz mit 60CUs
Stark!
( Immer noch nicht vergleichbar, wichtig ist was ein CU leistet )
Vega56 war doch in 28nm wenn ich mich recht erinnere. €dit: nein war 14nm.
Das zeigt ja eigentlich nur wie schlecht RDNA1 eigentlich war.
dennoch ist RDNA2 sehr gut!
Und ja das sind Stromstecker oben rechts, aber das ist ein Joke obviously.
Und ob BigNavi einen Preisvorteil hat gegenüber der 3080 kannst du gar nicht sagen. Wenn man CUDA brauch, oder mehr RAM, oder GSYNC nutzt. RTX Voice haben will oder eben mehr RT Power, dann hat Nvidia zu 99% das bessere P/L.
Einfach noch mal zum Mitschreiben:
Die 5700XT hat dieselbe Effizienz wie die 1080, bei 7nm vs 16nm (!!!).Ich glaube dargo hatte was von computerbase verlinkt was 2070 und 5700xt gleich auf sah, sind 7nm vs 12nm bei 10,3 mrd Transistoren vs 10,8Mrd.
Was Architektur angeht kommt es wohl auf die Transistoranzahl an, da sehe AMD nicht schlecht aus.
Die Strukturgröße schlägt sich dann im Takt und Verbrauch nieder. Wieviel bringt da NVidias 12nm auf 8nm(?) Verkleinerung?
Auf der heutigen Titelseite steht eher ernüchternes was die Steigerung angeht.
Kimi2003
2020-08-27, 14:33:44
Sag mir bitte das das keine Stromstecker sind oben rechts.
Ansonsten bleib ich bei meiner Speku. 3080 und BigNavi Perf. Unterschied <= 10% ( In beide Richtungen nöglich). P/L 10% Vorteil AMD.
Klar sind das welche. Aber ist doch nur Fake...
Weiß doch jeder dass da eigentlich zwei 32A 380V Stecker ran kommen.
Aber ach nee, ist ja keine AMD🤣🤣🤣
Denke such ziemlich stark dass die 3080 gegen die AMD Spitze antreten wird. Deshalb denke ich wird NV auch einen guten Preis raus hauen 🙈
MiamiNice
2020-08-27, 14:37:37
Währenddessen auf Twitter:
https://pbs.twimg.com/media/EgZwcZnXsAAiTB-?format=png&name=large
Da hat doch wer glatt 2 Kaltgeräte Buchsen an die Blende geshoppt:)
3090 ist 3 Slot ...
Ex3cut3r
2020-08-27, 14:38:22
https://pbs.twimg.com/media/EgZwcZnXsAAiTB-?format=png&name=large
Hahahaha. Einfach nur geil. :biggrin: ;D
TurricanM3
2020-08-27, 14:38:57
Das ist ja der Witz daran. Ich find den gut. ;D
Der_Korken
2020-08-27, 14:52:03
Sind vor allem viel zu klein im Maßstab. Da hätten die echt gleich nen Drehstromstecker draufshoppen können. :D
Ex3cut3r
2020-08-27, 14:54:33
Ich freu mich wieder auf Memes wie damals zu Fermi/Thermi Zeiten. Dachte Nvidia hat diese Zeiten hinter sich, und exakt 10 Jahre später sind wir wieder da. Geil!
https://abload.de/img/3sbyohcbgjm3.jpg
https://abload.de/img/hqdefaultenklb.jpg
dargo
2020-08-27, 14:58:53
Ja. Der Titan RTX Käufer welcher von einer 2080ti aufrüstet und sich ein halbes Duzend 10900 bestellt um den Chip zu finden der 0.1V bei X Ghz weniger hat.
stellvertretend für 95% der Gamer. :freak:
You made my day. ;D (y)
Was hat es eigtl. mit diesem Coprozessor auf sich? Sitzt der nur auf der 3090? Was soll der machen?
Voltage regeln.
Dural
2020-08-27, 15:00:59
Habe über den Mittag ein bisschen den Rechner bemüht:
Ausgangslage: Turing, Navi1, aktuelle Gerüchte über die Anzahl der Einheiten und Takt.
Die 3080 wird in etwa 6900XT Leistung haben.
10GB gegen 16GB
320Bit gegen 512Bit
GDDR6X gegen GDDR6
250Watt gegen 300Watt
620mm2 gegen 500mm2
Samsung 8nm gegen TSMC 7nm
25% Deaktiviert gegen voller Chip
Die Herstellungskosten der 3080 dürfte klar unter der 6900XT liegen.
Ich möchte betonen das ich bei Ampere nur einen Zugewinn von 12% gegenüber Turing berücksichtigt habe (Takt und sonstige Verbesserungen) Ampere somit nur 35% (Einheiten + Takt + Verbesserungen) schneller als Turing ist.
Mich interesiert vor allen die Raytracingleistung. Ich hoffe Ampere verdoppelt RT.
dargo
2020-08-27, 15:04:49
@Dural
Was du schon alles weißt. :popcorn:
Brillus
2020-08-27, 15:12:55
Habe über den Mittag ein bisschen den Rechner bemüht:
Ausgangslage: Turing, Navi1, aktuelle Gerüchte über die Anzahl der Einheiten und Takt.
Die 3080 wird in etwa 6900XT Leistung haben.
10GB gegen 16GB
320Bit gegen 512Bit
GDDR6X gegen GDDR6
250Watt gegen 300Watt
620mm2 gegen 500mm2
Samsung 8nm gegen TSMC 7nm
25% Deaktiviert gegen voller Chip
Die Herstellungskosten der 3080 dürfte klar unter der 6900XT liegen.
Ich möchte betonen das ich bei Ampere nur einen Zugewinn von 12% gegenüber Turing berücksichtigt habe (Takt und sonstige Verbesserungen) Ampere somit nur 35% (Einheiten + Takt + Verbesserungen) schneller als Turing ist.
Naja Wattage sehen die Gerüchte eher anders rum aus. On 10Gb Gddr6x billiger sind als 16GB Gddr6 über die Brücke würde ich jetzt auch nicht gehen wollen.
Neuste Gerüchte sprechen auch bei AMD eher von 450mm^2 und der 500mm^2 soll dan Arctus sein.
Und bei dem Salvage spielen auch viel die Yields mit rein, wenn du da ganze Chips verwerten musst ist das kein Kostenvorteil.
Ich denke auch eher das 3080 günstiger sein könnte aber von klar würde ich da nicht reden und dann gibts auch noch die 20GB Variante.
FastAndy
2020-08-27, 15:14:42
Ja. Der Titan RTX Käufer welcher von einer 2080ti aufrüstet und sich ein halbes Duzend 10900 bestellt um den Chip zu finden der 0.1V bei X Ghz weniger hat.
stellvertretend für 95% der Gamer. :freak:
Aber wie er sagt informiert er sich ja nicht mal. Einfach stumpf das mit dem längsten Balken wird gekauft. Kann jetzt jeder selbst was draus machen.
Geht mir aber genauso und ich hab nur eine 2080ti/9900k. Wozu groß informieren, wenn man weiss amd hat eh nichts was in die nähe kommt. Das zu wissen reicht doch schon. Überspitzt gesagt wird sich ein porsche 911 interessent wohl eher unwahrscheinlich über ein mazda coupe oder sowas informieren.
Im hochpreisbereich wird es viele dieser leute geben.
Konkurrenz ist immer gut. Hoffen wir, dass amd auch mal wieder ein top produkt gelingt und nv komplett überholt. Hätten wir alle was von.
pixeljetstream
2020-08-27, 15:15:56
Klar. Tonnenweise Vortests, die über die Basisbenchmarks hinausgehen.
das bezieht sich auf das Gewicht der Karten oder ;)
zum stromstecker joke:
https://www.asus.com/Graphics-Cards/EN7800GT_DUAL2DHTV512M/
unl34shed
2020-08-27, 15:27:47
Habe über den Mittag ein bisschen den Rechner bemüht:
Ausgangslage: Turing, Navi1, aktuelle Gerüchte über die Anzahl der Einheiten und Takt.
Die 3080 wird in etwa 6900XT Leistung haben.
10GB gegen 16GB
320Bit gegen 512Bit
GDDR6X gegen GDDR6
250Watt gegen 300Watt
620mm2 gegen 500mm2
Samsung 8nm gegen TSMC 7nm
25% Deaktiviert gegen voller Chip
Die Herstellungskosten der 3080 dürfte klar unter der 6900XT liegen.
Ich möchte betonen das ich bei Ampere nur einen Zugewinn von 12% gegenüber Turing berücksichtigt habe (Takt und sonstige Verbesserungen) Ampere somit nur 35% (Einheiten + Takt + Verbesserungen) schneller als Turing ist.
Coole Liste, aber für eine Leitungsabschätzung fehlt irgendwie Takt und CU Zahl. Auch sollen es bei Navi 21 wohl 2 stacks HBM2e sein. Zumindest gibt es dazu Einträge im Linux Treiber.
Hakim
2020-08-27, 15:29:47
Wie Niedlich klein der Kühler damals trotz externen Netzteil war :).
Coole Liste, aber für eine Leitungsabschätzung fehlt irgendwie Takt und CU Zahl. Auch sollen es bei Navi 21 wohl 2 stacks HBM2e sein. Zumindest gibt es dazu Einträge im Linux Treiber.
Soll das nicht nur die HPC Version sein?
Lawmachine79
2020-08-27, 15:43:40
Das wäre sehr ordentlich:
https://www.3dcenter.org/news/geruechtekueche-aktualisierte-timespy-werte-zeigen-auf-60-mehrperformance-bei-gaming-ampere-hin
Wenn die Leistung so ist, werde ich die Karte wohl kaufen; faszinierende daran ist, dass ich mit meiner 1080TI eine Generation überspringen konnte und AMD es in der Zeit nicht geschafft hat, eine Alternative zu entwickeln - also zur 1080TI! Nicht zu der Karte, die die 1080TI ersetzen wird. Wir reden da über knapp 30 Monate. Da fragt man sich, wo der Optimismus hier teilweise herkommt.
unl34shed
2020-08-27, 15:45:00
Welche HPC Version? Das ist ein Eintrag im Treiber zu Sienna Cichlid was nach aktuellem Stand Navi21 entspricht. Davon wird es keine zwei Versionen geben.
Ex3cut3r
2020-08-27, 15:54:38
Das wäre sehr ordentlich:
https://www.3dcenter.org/news/geruechtekueche-aktualisierte-timespy-werte-zeigen-auf-60-mehrperformance-bei-gaming-ampere-hin
Wenn die Leistung so ist, werde ich die Karte wohl kaufen; faszinierende daran ist, dass ich mit meiner 1080TI eine Generation überspringen konnte und AMD es in der Zeit nicht geschafft hat, eine Alternative zu entwickeln - also zur 1080TI! Nicht zu der Karte, die die 1080TI ersetzen wird. Wir reden da über knapp 30 Monate. Da fragt man sich, wo der Optimismus hier teilweise herkommt.
Hä? Eine VII war/ist so schnell wie eine 1080Ti auch eine 5700XT kommt in modernen DX12 Titeln gefährlich nah dran, für läppische 350€....Dazu kommt noch das Pascal in modernen Spielen mittlerweile total abgehängt wird. Siehe 2070 non Super vs 1080 Ti. Das Leute ihre eignene HW immer so überschätzen müssen. ^^
Cyberfries
2020-08-27, 15:57:39
Um eine wirkliche Alternative zu sein, war die VII schon immer zu kompromissbeladen.
Zur Speicherausstattung von BigNavi gibt es immer noch keine klare Deutung, alles offen.
Genauso zur Chipfläche. Aber die 505mm² kann man wohl ausschließen.
TurricanM3
2020-08-27, 15:59:33
Das wäre sehr ordentlich:
https://www.3dcenter.org/news/geruechtekueche-aktualisierte-timespy-werte-zeigen-auf-60-mehrperformance-bei-gaming-ampere-hin
Das klingt fast schon zu schön um wahr zu sein.
Ich hoffe nur die Spulen machen nicht noch mehr Krach, bei der zu erwartenden Leistungsaufnahme. So ein Schreihals ist meine größte Sorge.
Welche HPC Version? Das ist ein Eintrag im Treiber zu Sienna Cichlid was nach aktuellem Stand Navi21 entspricht. Davon wird es keine zwei Versionen geben.
Die mit HBM. Laut Leonidas "Die komplette Chip-Generation soll allerdings ohne HBM-Speicher auskommen, dürfte demnach mit GDDR6-Speicher samt entsprechenden Interfaces ausgerüstet sein."
Mrickz
2020-08-27, 16:08:26
Naja ganz ehrlich der Performancesprung macht Sinn und ist quasi zu erwarten.
Wie soll man sonst 350W mit einer neuen Architektur, auf 7nm und für 1650€ rechtfertigen? Da kann Nvidia nicht mit 20-30% kommen. Ich denke 60-70% ist da schon sehr realistisch und alles drunter wäre Rückschritt. Ist ja keine 200W 300mm² GPU sondern eine Wuchtbrumme.
dargo
2020-08-27, 16:11:52
Hä? Eine VII war/ist so schnell wie eine 1080Ti auch eine 5700XT kommt in modernen DX12 Titeln gefährlich nah dran, für läppische 350€....Dazu kommt noch das Pascal in modernen Spielen mittlerweile total abgehängt wird. Siehe 2070 non Super vs 1080 Ti. Das Leute ihre eignene HW immer so überschätzen müssen. ^^
Das wirklich lustige an seinem Post ist aber, dass selbst Nvidia es nicht geschafft hat ihn mit Turing zum Wechseln zu bewegen. Das erwähnt er natürlich nicht. Ich mal mir die Welt wie sie mir gefällt. ;)
Hauwech
2020-08-27, 16:16:10
Immerhin kann das Milchmädchen rechnen....52/36=1,444. Also 44%. Und da kommt dann noch ca 10% Takt drauf. Macht ca 55%. Sind es eher 160W werden es halt nur 45% sein. Kurz gesagt: Es sind ca die offiziell angekündigten 50%. Punkt. Im Grunde ist die Rechnung idiotensicher.
Es sind vielleicht die angekündigten 50% bei den angenommenen150W/160W aber die gelten in diesem Fall auch nur für diese APU. Bei 170W sähe es schon wieder ganz anders aus. Das ist aber nun nicht mal ganz klar. Daraus kannst du aber nicht viele Rückschlüsse auf eine normale Graka ziehen.
Screemer
2020-08-27, 16:17:45
Sag mir bitte das das keine Stromstecker sind oben rechts.
Keine Stecker, sondern Buchsen ;) ist natürlich nur eine Anspielung auf den angeblich hohen Stromverbrauch.
Edit: oh man. Zweinseiten zu spät. F5.
BlacKi
2020-08-27, 16:53:20
palit regestriert zig modelle. ob es zu diesem zeitpunkt wirklich so viele verschiedene varianten geben wird? angeblich 3090ti, 3090super, 3090h. genauso für die 3080er und 70er. ob es sich da um karten mit schiedener vram ausstattung und powerlimits dreht?
https://videocardz.com/newz/palit-submits-geforce-rtx-3090-rtx-3080-rtx-3070-and-rtx-3060-to-eec
Hakim
2020-08-27, 17:04:24
T, S, H könnte für die verschiedenen Kühler Ausführungen wie Jetstream usw stehen. Ti, Super und H (Hyper?) bei der jedem Chip? glaube net.
Vielleicht "hydro" oder "hybrid" für die Wakü Versionen.
Cyberfries
2020-08-27, 17:53:51
Einfach mal mit aktuellen Palit-Karten vergleichen.
S,H und T sind unterschiedlich starke Übertaktungen.
z.B. 2070 Super:
NE6207S019P2 taktet bis 1770mhz
NE6207SS19P2 taktet bis 1815mhz
NE6207SH20P2 taktet bis 1830mhz und hat einen anderen Lüfter.
Lawmachine79
2020-08-27, 18:54:36
Das wirklich lustige an seinem Post ist aber, dass selbst Nvidia es nicht geschafft hat ihn mit Turing zum Wechseln zu bewegen. Das erwähnt er natürlich nicht. Ich mal mir die Welt wie sie mir gefällt. ;)
Ja, da war der Performanceabstand zu gering. Aber immerhin gab es einen Performanceabstand ;). Findest Du es denn gar nicht krass, dass man es in 30 Monaten nicht schafft, einen Performancerückstand aufzuhohlen bzw. knapp zu überbieten?
Ich weiß, ich lese mich wie ein Fanboy, aber ich kaufe die schnellste Karte, auch gerne wenn es AMD ist. Bei CPUs wird mein nächster wieder ein AMD und ich freue mich, dass sie es geschafft haben, den Performancerückstand bei CPUs aufzuholen, bei Bulldozer dachte ich, das wird nie wieder was. Ich hatte auch mal AMD Karten (4870, 1950 Pro) und ich war zufrieden, bis auf dass die Treiber eine totale Katastrophe waren.
Der Punkt ist, bei CPUs haben wir von AMD oft positive Überraschungen erlebt, aber wenn man mal vergleicht: AMD ist mit Intel im CPU-Sektor wesentlich häufiger der Schlagabtausch gelungen als mit NV im GPU-Sektor. Deshalb seht es mir nach, wenn ich hier ein wenig spöttelnd unterwegs bin. Erfolg macht oft irgendwann fett und unbeweglich, siehe Intel, aber trotz dieser Erkenntnis schafft es AMD nicht an NVidia vorbei.
Grendizer
2020-08-27, 19:06:25
...Erfolg macht oft irgendwann fett und unbeweglich, siehe Intel, aber trotz dieser Erkenntnis schafft es AMD nicht an NVidia vorbei.
Weil das nVidia gerade nicht ist. DLSS, RTX, Gameworks sind irgendwie alles Reizworte, zeigen aber auch, das nVidia sich innovativ vorwärts bewegt.
Eine DLSS Technologie hätte eigentlich von AMD kommen müssen um die Performanceabstände zu verkleinern. Aber das sich der aktuelle Performancekönig schon lange mit solchen Technologien beschäftigt zeigt wie weit sie AMD gedanklich voraus sind. AMD wird auf Hardware setzen und damit evtl. wieder näher dran an nVidia kommen. Ich bin mir sicher, das die Antwort dann in einem DLSS liegen wird, das für jedes Spiel zuschaltbar sein wird, oder irgendwas komplett neues, an dem nVidia schon länger forscht.
rentex
2020-08-27, 19:13:10
Nvidia hat den Kühler der 3090 gar nicht entwickelt, sondern...
Adam D.
2020-08-27, 19:18:51
https://www.youtube.com/watch?v=xtLBNJFTzgw&t=124s
Bisherige Benchmark-Ergebnisse laut Igor mit großer Vorsicht zu genießen.
Linmoum
2020-08-27, 19:20:41
Die ersten richten ihre 3090 schon mal ein.
crux2005
2020-08-27, 19:26:40
Das mit der Auslastung erledigt sich mittlerweile "von selbst" - die Lower-Level-APIs helfen hier massiv und DX11-Spiele sind auf dem Rückzug.
MfG
Raff
2020 neue Spiele: FS2020 - DX11, pCars 3 - DX11, A total War Saga: Troy - DX11... leider wird es noch dauern.
dargo
2020-08-27, 19:32:40
https://www.youtube.com/watch?v=xtLBNJFTzgw&t=124s
Bisherige Benchmark-Ergebnisse laut Igor mit großer Vorsicht zu genießen.
Da haben sich also wieder paar Leutchen Späßchen erlaubt. :D
rentex
2020-08-27, 19:34:32
@Lawmachine79
Kompletter Unfug! AMD hat Glück, das Intel nicht Nvidia ist. Wo NV sich auf seinen Lorbeeren ausruht, ist mir schleierhaft.
Und das man es sich mit seinem Hausfertiger verscherzt hat, ist ne andere Geschichte...
w0mbat
2020-08-27, 19:39:13
Weil das nVidia gerade nicht ist. DLSS, RTX, Gameworks sind irgendwie alles Reizworte, zeigen aber auch, das nVidia sich innovativ vorwärts bewegt.
Eine DLSS Technologie hätte eigentlich von AMD kommen müssen um die Performanceabstände zu verkleinern. Aber das sich der aktuelle Performancekönig schon lange mit solchen Technologien beschäftigt zeigt wie weit sie AMD gedanklich voraus sind. AMD wird auf Hardware setzen und damit evtl. wieder näher dran an nVidia kommen. Ich bin mir sicher, das die Antwort dann in einem DLSS liegen wird, das für jedes Spiel zuschaltbar sein wird, oder irgendwas komplett neues, an dem nVidia schon länger forscht.
DLSS ist ein netter Ansatz eines verbesserten upsamplings, aber mit zT deutlichem Verlust von BQ. Ich weißt nicht wieso das einige hier so geil finden...
y33H@
2020-08-27, 19:40:27
Schon live gesehen?
Mangel76
2020-08-27, 19:40:49
Ja, da war der Performanceabstand zu gering. Aber immerhin gab es einen Performanceabstand ;). Findest Du es denn gar nicht krass, dass man es in 30 Monaten nicht schafft, einen Performancerückstand aufzuhohlen bzw. knapp zu überbieten?
Sie haben es auch gar nicht versucht! Warum sollten Sie Ressourcen in einen großen Chip stecken, der ohne RT nicht hätte verkauft werden können! RDNA 1 ist nur Zwischenstand bei der Entwicklung der Konsolen-GPUs mit RDNA 2, damit man überhaupt noch was zum verkaufen hat.
Timbaloo
2020-08-27, 19:42:07
Schon live gesehen?
Treffer. Versenkt.
Nightspider
2020-08-27, 19:45:14
Hat Samsung eigentlich genug 8nm Kapazitäten für das gesamte NV Lineup oder könnte es da zu Engpässen kommen?
dargo
2020-08-27, 19:45:26
DLSS ist ein netter Ansatz eines verbesserten upsamplings, aber mit zT deutlichem Verlust von BQ. Ich weißt nicht wieso das einige hier so geil finden...
Die Artefakte werden halt intern im Kopf abgeschaltet. ;)
Grendizer
2020-08-27, 19:48:31
DLSS ist ein netter Ansatz eines verbesserten upsamplings, aber mit zT deutlichem Verlust von BQ. Ich weißt nicht wieso das einige hier so geil finden...
Weil ich nicht mit aller Kraft das Haar in der Suppe suche ....:rolleyes:
Und solange die Qualitätsverluste geringer sind, als ich durch das Abschalten von Details verliere um auf ähnliche Performancegewinne zu kommen könnte ich sehr gut damit leben.
Und etwas zu haben, das mir helfen kann ist besser als nix zu haben und hoffen müssen das es reicht.
Linmoum
2020-08-27, 19:48:45
Treffer. Versenkt.Geht mit nervigen Artefakten leider nicht so einfach. Hm.
Ex3cut3r
2020-08-27, 19:51:33
Schon live gesehen?
Ja, und ich finde es unterhalb von 4K Auflösung einfach nur schlecht. Und da ich weiterhin 3440x1440 auf Jahre rocken werde oder sogar 3840x1600 ist DLSS im ist zustand Wayne für mich.
w0mbat
2020-08-27, 19:57:12
Schon live gesehen?
Ja, leider. Und 1000 Bilder und 100000 Videos. Im Text steht "sieht besser aus als nativ" und im Vergleichsbild sieht es dann aus wie 480p mit YT-Artifakten.
Schau doch mal in den DLSS-Thread :)
Die Artefakte werden halt intern im Kopf abgeschaltet. ;)
Ne, die Artifakte werden einfach zu "mehr Details" und die Überschärfe vom Filter wird zu einem "brillanten Bild" :ugly:
Zossel
2020-08-27, 20:10:02
Ja, und ich finde es unterhalb von 4K Auflösung einfach nur schlecht. Und da ich weiterhin 3440x1440 auf Jahre rocken werde oder sogar 3840x1600 ist DLSS im ist zustand Wayne für mich.
Dann beschwere dich bei den Spieleherstellern weil die kein DX12 MultiGPU implementieren.
Ex3cut3r
2020-08-27, 20:55:19
Dann beschwere dich bei den Spieleherstellern weil die kein DX12 MultiGPU implementieren.
Hä? Was hat die Qualität von DLSS mit SLi zu tun? :confused:
Dampf
2020-08-27, 20:59:04
Ja, und ich finde es unterhalb von 4K Auflösung einfach nur schlecht. Und da ich weiterhin 3440x1440 auf Jahre rocken werde oder sogar 3840x1600 ist DLSS im ist zustand Wayne für mich.
Dann war es das alte DLSS.
Die Qualität von DLSS 2.0 ist hervorragend in allen Auflösungen.
SKYNET
2020-08-27, 20:59:45
Hä? Was hat die Qualität von DLSS mit SLi zu tun? :confused:
DX12 multiGPU ist nicht SLI... im gegenteil, es ist 1000x mächtiger, da keine mikroruckler und du kannst jede karte miteinander kombinieren die du willst, ne AMD mit NV, oder 2 unterschiedliche AMD / NV karten usw.
DX12 multiGPU ist nicht SLI... im gegenteil, es ist 1000x mächtiger, da keine mikroruckler und du kannst jede karte miteinander kombinieren die du willst, ne AMD mit NV, oder 2 unterschiedliche AMD / NV karten usw.
In der Theorie sicher, allerdings ist es für den Moment nicht möglich z.B. ne 2060s mit ner 5700Xt zu kombinieren und die 2060 nur für RT zu verwenden
HarryHirsch
2020-08-27, 21:10:50
Was nutzt DX12 mGPU denn für eine Methode?
AFR scheint es ja nicht zu sein?
SKYNET
2020-08-27, 21:12:58
In der Theorie sicher, allerdings ist es für den Moment nicht möglich z.B. ne 2060s mit ner 5700Xt zu kombinieren und die 2060 nur für RT zu verwenden
ob das geht, weiss ich nicht, da müsste sich mal einer der spezis zu wort melden... thema overlaying :confused:
Zossel
2020-08-27, 21:15:05
In der Theorie sicher, allerdings ist es für den Moment nicht möglich z.B. ne 2060s mit ner 5700Xt zu kombinieren und die 2060 nur für RT zu verwenden
Dafür kann man sich über die schlechte Qualität von arschteuren Grafikkarten aufregen, das gibt dem Tag doch auch Struktur.
Und was könnte man sich für Maschinen hinstellen wenn die Spielehersteller anständig DX12 MultiGPU unterstützen würden, Kisten mit Threadripper und 3 bis 4 GPUs und 2 KW Netzteilen oder gar mehreren Netzteilen.
Und der Pöbel wurde endlich Ruhe geben.
ob das geht, weiss ich nicht, da müsste sich mal einer der spezis zu wort melden... thema overlaying :confused:
Also vor 2 Monaten hat es nicht funktioniert. Da wollte ich ne 5700xt zum Test mit ner 2080Ti pairen. Was kam war nen Blackscreen
@Zossel
Wenn du mich als Pöbel bezeichnest, okay! Wenn das hier im Forum genehmigt wird, dann schmeißt mich bitte raus. Es ist ein Speku-Forum, wo imo jeder, egal ob DAU oder Ingenieur, seine Vermutung ablassen kann. Aber dieses Niveau geht imo nicht. Von daher löscht meinen Account und alles gut
mboeller
2020-08-27, 21:21:25
https://www.youtube.com/watch?v=xtLBNJFTzgw&t=124s
Bisherige Benchmark-Ergebnisse laut Igor mit großer Vorsicht zu genießen.
Vorsicht? Keine finalen Taktraten, kein Bios, keine Treiber...Furmark und TimeSpy läuft gar nicht ... also alles nur "heiße" Luft mit nem Geschmäckle aus der anderen Öffnung.
wolik
2020-08-27, 21:32:24
DX12 multiGPU ist nicht SLI... im gegenteil, es ist 1000x mächtiger, da keine mikroruckler und du kannst jede karte miteinander kombinieren die du willst, ne AMD mit NV, oder 2 unterschiedliche AMD / NV karten usw.
ich kenne noch eine Märchen... VRAM zusammen tun... Ob Praktisch oder Theoretisch das ist nur peinlich.
kunibätt
2020-08-27, 21:37:45
Aber genau das geht mit nv-Link doch :confused:
Dann beschwere dich bei den Spieleherstellern weil die kein DX12 MultiGPU implementieren.
Wie leitest du das Thema MultiGPU vom Gespräch über DLSS Qualität ab?
Was nutzt DX12 mGPU denn für eine Methode?
AFR scheint es ja nicht zu sein?
Da jeder Entwickler das selbst implemeniert, kann auch der Algorithmus frei gewählt werden.
wolik
2020-08-27, 21:42:22
Aber genau das geht mit nv-Link doch :confused:
Wie soll das gehen? Wie kann das überhaupt gehen? Was muss man rauchen um das zu präsentieren / verkaufen? Ich meine natürlich "Echtzeit Gaming".
Da jeder Entwickler das selbst implemeniert, kann auch der Algorithmus frei gewählt werden.
Und wieviel "mGPU" Titel kennst du? Letze Zeit? Null? Wieso? Wir sind aber in falsche Thread.
kunibätt
2020-08-27, 21:44:05
Da kannst du dich gerne selbst schlau machen.
Fakt ist, diese Technologie gibt es und sie funktioniert.
BlacKi
2020-08-27, 21:46:04
Da kannst du dich gerne selbst schlau machen.
Fakt ist, diese Technologie gibt es und sie funktioniert.
NVLink 3.0 50 Gbit/s ~6.25 GB/s
hq-hq
2020-08-27, 21:49:12
oje ich sehe hier noch Tränen fliessen... Spaß
also DLSS "1.0" kenne ich nur aus Metro Exodus und die Details gehen flöten
DLSS 2.0 hab ich noch nicht probiert...
BlacKi
2020-08-27, 21:54:36
@HQ
oje ich sehe hier noch Tränen fliessen... Spaß
also DLSS "1.0" kenne ich nur aus Metro Exodus und die Details gehen flöten
DLSS 2.0 hab ich noch nicht probiert...
https://www.youtube.com/watch?v=g1p7qROx6xo dort kannst du dir die infiltrator demo und diese navjack demo runterladen. in letzterer kannst du frei herumfliegen zum testen.
wolik
2020-08-27, 21:57:21
Da kannst du dich gerne selbst schlau machen.
Fakt ist, diese Technologie gibt es und sie funktioniert.
Ist mir ein Rätsel wem du meinst... und "welche Technologie funktionieren "
DLSS ist eine Krücke nicht mehr. Die bringt nicht mehr Qualität sonder mehr FPS. Was auch legitim ist. Ich kenne DLSS aus FFXV, MHW, 3DMark, Control, DS.
NVLink 3.0 50 Gbit/s ~6.25 GB/s
Blacki NVLInk ist schon geil, ich habe deswegen auf 2080Ti gefreut. Nur Unterstützung (SLI) ist nah am NULL.
HarryHirsch
2020-08-27, 21:57:24
Da jeder Entwickler das selbst implemeniert, kann auch der Algorithmus frei gewählt werden.
Nur sind Methoden wie Split oder Grid lange nicht so effizient wie AFR.
Welche neuen Möglichkeiten gibt es denn da um ohne Micro geruckel einen frame zu berechnen?
hq-hq
2020-08-27, 22:17:45
@HQ
https://www.youtube.com/watch?v=g1p7qROx6xo dort kannst du dir die infiltrator demo und diese navjack demo runterladen. in letzterer kannst du frei herumfliegen zum testen.
ok thx navjack erscheint ein wenig hypotetisch und ist Texturarm, DLSS 2.0 im quality Mode ist schon gut
ist klar wenn NV das weiter aufbohrt und die Qualität stimmt ist es ein starkes Argument... dafür muss es in der Breite ankommen.
Rampage 2
2020-08-27, 22:29:09
Ich freu mich wieder auf Memes wie damals zu Fermi/Thermi Zeiten. Dachte Nvidia hat diese Zeiten hinter sich, und exakt 10 Jahre später sind wir wieder da. Geil!
https://abload.de/img/3sbyohcbgjm3.jpg
Es gab doch zum Skylake-X Launch (2017) von Intel ein sehr ähnlich aussehendes Meme mit brennendem Haus;D - aber ich kann es nicht mehr finden;(
R2
Edit: Habs doch noch gefunden - im SKL-X Review-Thread...
BlacKi
2020-08-27, 22:30:57
ok thx navjack erscheint ein wenig hypotetisch und ist Texturarm, DLSS 2.0 im quality Mode ist schon gut
ist klar wenn NV das weiter aufbohrt und die Qualität stimmt ist es ein starkes Argument... dafür muss es in der Breite ankommen.
jedes spiel das mit einer aktuellen version auf der unreal engine basiert hat RTX und DLSS. du kannst dir dein eigenes spiel mit der unreal engine machen, mit dlss und rtx an bord, ich hätte es gerne in pubg, aber es scheint noch auf einer älteren Gen zu basieren, den eintrag in der config ist vorhanden, aber er bringt leider nichts.
Zossel
2020-08-27, 22:38:07
Wie leitest du das Thema MultiGPU vom Gespräch über DLSS Qualität ab?
Wenn genügend GPUs zusammen rechnen braucht man kein DLSS.
Zossel
2020-08-27, 22:41:16
@Zossel
Wenn du mich als Pöbel bezeichnest, okay! Wenn das hier im Forum genehmigt wird, dann schmeißt mich bitte raus. Es ist ein Speku-Forum, wo imo jeder, egal ob DAU oder Ingenieur, seine Vermutung ablassen kann. Aber dieses Niveau geht imo nicht. Von daher löscht meinen Account und alles gut
Was auch immer du da raus liest, ich nehme die andere Interpretation.
Dampf
2020-08-27, 23:09:42
jedes spiel das mit einer aktuellen version auf der unreal engine basiert hat RTX und DLSS. du kannst dir dein eigenes spiel mit der unreal engine machen, mit dlss und rtx an bord, ich hätte es gerne in pubg, aber es scheint noch auf einer älteren Gen zu basieren, den eintrag in der config ist vorhanden, aber er bringt leider nichts.
Braucht man nicht einen speziellen RTX Branch für DLSS oder wurde das bereits in den Haupt-Branch der Engine integriert?
horn 12
2020-08-27, 23:31:25
RTX 3080 Launch als Erstes laut @Igor
Man will wohl AMD in die Paroli fahren,- falls jene anschliessend Kleinigkeiten leaken,-
und dann die RTX 3090 so gestalten dass jene Karte die Krone behält und den Preis dementsprechend setzen.
Hauwech
2020-08-27, 23:41:19
ich kenne noch eine Märchen... VRAM zusammen tun... Ob Praktisch oder Theoretisch das ist nur peinlich.
Ich habe mal gelesen das es im professionellen Bereich schon geht. Ob es mit einer Quadro und mehreren Teslas oder nur Quadros funktioniert, weiss ich allerdings nicht mehr.
BlacKi
2020-08-27, 23:50:35
Braucht man nicht einen speziellen RTX Branch für DLSS oder wurde das bereits in den Haupt-Branch der Engine integriert?
scheint so, jeder kann so eine demo/spiel erstellen mit rtx und dlss. das muss aber nicht immer perfekt rund laufen. zb. die infiltrator demo mit rtx on hat in der einen szene 5-6 fps ohne dlss und mit dlss 12 oder so. ein fertiges spiel könnte sowas natürlich nicht bringen.
Zergra
2020-08-27, 23:52:46
RTX 3080 Launch als Erstes laut @Igor
Man will wohl AMD in die Paroli fahren,- falls jene anschliessend Kleinigkeiten leaken,-
und dann die RTX 3090 so gestalten dass jene Karte die Krone behält und den Preis dementsprechend setzen.
Ergibt nur keinen Sinn, da bei der 3090 quasi kein Spielraum ist. Die 2SM mehr machen den Kohl auch nicht mehr fett.
Wenn die 3080 100% auf die 1080Ti drauflegt dann wird die auch gekauft. :rolleyes:
pixeljetstream
2020-08-27, 23:58:37
Ich habe mal gelesen das es im professionellen Bereich schon geht. Ob es mit einer Quadro und mehreren Teslas oder nur Quadros funktioniert, weiss ich allerdings nicht mehr.
Es geht afaik auch mit der GeForce, nur der Grund warum man es eher im Bereich Quadro / Tesla hört ist dass man es dort in Szenarien verwendet die nicht wie ein Spiel so hohe frame raten haben.
Von der anderen Karte Speicher zu holen ist nicht so flott wie von der eigenen. Die Tesla's haben auch paar mehr lanes als GeForce/Quadro.
Der typische Real-Time usecase ist VR, das Bild für ein Auge dann übertragen auf eine Karte ist flott genug. Recht viel mehr ist aber knapp bei 90hz und steigender Auflösung.
Dural
2020-08-27, 23:59:14
Die kommen zusammen, die 3090 ist die neue titan.
Ex3cut3r
2020-08-28, 01:31:04
Dann war es das alte DLSS.
Die Qualität von DLSS 2.0 ist hervorragend in allen Auflösungen.
Sagt wer? Du? In 3440x1440 überzeugt es (mich) nicht. Punkt. Und ich kenne aus Control. Also 1.0 und 2.0 beides einfach nur Kacke. Macht anscheinend keinen Sinn unterhalb von 4K weil die Qualität und die interne gerenderte Auflösung einfach nur zu tief ist. Von 3440x1440 habe ich 2.293 × 960 im Quality Mode...das ist einfach nur miserabel. Während 4K User 2560x1440 auf 4K haben....
rentex
2020-08-28, 05:55:30
RTX 3080 Launch als Erstes laut @Igor
Man will wohl AMD in die Paroli fahren,- falls jene anschliessend Kleinigkeiten leaken,-
und dann die RTX 3090 so gestalten dass jene Karte die Krone behält und den Preis dementsprechend setzen.
Soll er wann geschrieben haben?
Zitiere mal die Stelle bitte...
nordic_pegasus
2020-08-28, 06:45:29
Die kommen zusammen, die 3090 ist die neue titan.
Sicher? Warum soll diese 3090/Titan nur 82 von 84 aktive SM haben? Ich wette auf eine Titan Ampere mit 84SM, 48GB und einem Preis von mindestens $2999 MSRP.
horn 12
2020-08-28, 07:08:19
RTX 3080 Launch als Erstes laut @Igor
Man will wohl AMD in die Paroli fahren,- falls jene anschliessend Kleinigkeiten leaken,-
und dann die RTX 3090 so gestalten dass jene Karte die Krone behält und den Preis dementsprechend setzen.
Sagte er im Neuestem Video !
Edgecrusher86
2020-08-28, 07:31:31
Sicher? Warum soll diese 3090/Titan nur 82 von 84 aktive SM haben? Ich wette auf eine Titan Ampere mit 84SM, 48GB und einem Preis von mindestens $2999 MSRP.
Genauso gut kann man z.B. H2/2021 eine RTX 3090 Super oder Ti bringen mit vollen 84SM, +5-10% Taktraten, -25/30W PT, 24GB 16Gb [single sided] 21-24 Gbps [siehe Micron Ankündigung für nächstes Jahr bzgl. G6X) und z.B. in Samsung 7LPP (EUV) bringen. Das Ganze dann grob 5-10% flotter.
Ich werde mir gleich am Dienstag eine NVIDIA RTX 3090 FE vorbestellen. Eine zweite Karte macht mMn keinen Sinn, wenn nicht zumindest 1/3 bis 1/2 der AAA-Titel offiziell und inoffiziell MGPU-tauglich sind. Groß wird der Boost einer solchen Refresh-Karte eh nicht werden - sollte es so oder ähnlich (etwa TSMC N7P [DUV]/N7+ [EUV]).
So werde ich es jedenfalls in Zukunft weiterhin handhaben. Neu gekauft wird erst, wenn die Leistung sich zum Verbauten quasi verdoppelt - durch die Bank.
Ein neuer Sockel kommt mir zum Beispiel auch erst in den Tower, wenn PCI-E 5.0 und DDR5 Support besteht - und das Ganze nicht mindestens 48 Lanes auf der CPU-Seite liefert - aus Prinzip. Mögliche schnelle M.2 a la PS5 werden auch noch kommen.
Vierstellige Preise für lächerliche Mainstream-Plattformen auf CPU + MoBo-Seite mit maximal 20 oder 24 PCI-E Lanes zu zahlen sehe ich nicht ein.
Wenn man bedenkt, dass es dann selbst unterhalb 4K Titel geben wird, wo ein fast voller GA102 über die doppelte Leistung vom GP102 Cut liefern können sollte, wird es schon ein insgesamt sehr lohnenswerter Sprung werden.
Der VRAM steigt auch endlich wieder massiv an, wie es spätestens bei Turing hätte sein dürfen. Zumindest ab der 2080(S) wären 10-12GB sinnvoll gewesen und bei der 2080 Ti 16GB - gerade für die Nutzung von NVL - wenn auch leider Nischer der Nische.
12Gb G6 zu verbauen wäre eine prima Zwischenlösung gewesen. Aber neue Ansätze wie der inoffizielle CFR-Mode zeigen, dass da auch noch was in Zukunft etwas kommen kann, auch wenn es leider nach dem 446.14 WQHL von Ende Mai eingestellt wurde.
Es mag sein, dass dies erst mit Hopper praxistauglich werden könnte.
Hauwech
2020-08-28, 08:45:34
Es geht afaik auch mit der GeForce, nur der Grund warum man es eher im Bereich Quadro / Tesla hört ist dass man es dort in Szenarien verwendet die nicht wie ein Spiel so hohe frame raten haben.
Von der anderen Karte Speicher zu holen ist nicht so flott wie von der eigenen. Die Tesla's haben auch paar mehr lanes als GeForce/Quadro.
Der typische Real-Time usecase ist VR, das Bild für ein Auge dann übertragen auf eine Karte ist flott genug. Recht viel mehr ist aber knapp bei 90hz und steigender Auflösung.
Ah, danke für die Erklärung. :) Ich dachte da eher an irgendwelche wissenschaftlichen Projekte die eben mehr Vram "als eins" brauchen.
Dural
2020-08-28, 09:22:28
Nein nicht sicher, es ist aber sehr nahe liegend.
Keine Ti mehr, neuer Name, gleich volle Speicherbestückung mit 24GB. 48GB ziemlich sinnlos, die 2 CU machen praktisch nichts aus.
Edit:
Und eventuell sogar weniger Bandbreite, das es die grösseren Speicher Chips nicht so schnell gibt.
wolik
2020-08-28, 09:52:24
Es geht afaik auch mit der GeForce, nur der Grund warum man es eher im Bereich Quadro / Tesla hört ist dass man es dort in Szenarien verwendet die nicht wie ein Spiel so hohe frame raten haben.
Von der anderen Karte Speicher zu holen ist nicht so flott wie von der eigenen. Die Tesla's haben auch paar mehr lanes als GeForce/Quadro.
Der typische Real-Time usecase ist VR, das Bild für ein Auge dann übertragen auf eine Karte ist flott genug. Recht viel mehr ist aber knapp bei 90hz und steigender Auflösung.
In Szenenrendering wo ein Frame "mehrere Minuten" gerendet wird, VRAM Addition wohl Möglich sein kann. Aber! Wie zum Teufel soll das in Gaming gehen! Dazu mit total abgespeckte NVLink, von SLI Bridge ganz zu schweigen. Aber (noch mal aber) es wird mit ganz ernste Mine erzählt über VRAM Addition für Games.
z.B. https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/47269-die-turing-architektur-mit-rtx-ray-tracing-und-den-neuen-shader-funktionen.html?start=9
pixeljetstream
2020-08-28, 10:00:40
In Szenenrendering wo ein Frame "mehrere Minuten" gerendet wird, VRAM Addition wohl Möglich sein kann. Aber! Wie zum Teufel soll das in Gaming gehen! Dazu mit total abgespeckte NVLink, von SLI Bridge ganz zu schweigen. Aber (noch mal aber) es wird mit ganz ernste Mine erzählt über VRAM Addition für Games.
z.B. https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/47269-die-turing-architektur-mit-rtx-ray-tracing-und-den-neuen-shader-funktionen.html?start=9
Ich lese da nix vom Gaming usecase, die VRAM Erweiterung wurde doch explizit für offline Raytracing erwähnt, wo es ja wirklich eingesetzt wird. Oder auf welchen Wortlaut beziehst du dich?
Ich stimme voll zu dass für Gaming mGPU extrem selten noch was bringt, sind ja wirklich nur wenige Titel die das explizit anbieten. Aber geforce wird auch von vielen Artists genutzt.
Hauwech
2020-08-28, 10:21:33
Ich lese da nix vom Gaming usecase, die VRAM Erweiterung wurde doch explizit für offline Raytracing erwähnt, wo es ja wirklich eingesetzt wird. Oder auf welchen Wortlaut beziehst du dich?
Ich stimme voll zu dass für Gaming mGPU extrem selten noch was bringt, sind ja wirklich nur wenige Titel die das explizit anbieten. Aber geforce wird auch von vielen Artists genutzt.
Für VR würde SLI wahrscheinlich schon eine Menge bringen. Vom Gesamtmarkt aus gesehen zwar Nische aber nunja. VR SLI Support kostet halt ordentlich Geld. Andereseits, wenn nV in einem Branch der UE4 Engine mit RTX und DLSS rumspielt... wäre SLI / VR SLI Support und DX12 darin ja auch mal was... :whistle::tongue:
rentex
2020-08-28, 10:34:28
Sagte er im Neuestem Video !
Er bezog das auf die Pilotproduktion.
Wer jetzt immer noch wegen den Preisen rummosert, sollte sich
den Aufwand für Ampere mal vergegenwärtigen...
Zergra
2020-08-28, 10:41:37
Sagt wer? Du? In 3440x1440 überzeugt es (mich) nicht. Punkt. Und ich kenne aus Control. Also 1.0 und 2.0 beides einfach nur Kacke. Macht anscheinend keinen Sinn unterhalb von 4K weil die Qualität und die interne gerenderte Auflösung einfach nur zu tief ist. Von 3440x1440 habe ich 2.293 × 960 im Quality Mode...das ist einfach nur miserabel. Während 4K User 2560x1440 auf 4K haben....
Du sagst also für 4k User ist das okay ? Im Grunde müsste es halt eine frei einstellbare Auflösung zum rendern geben.
wolik
2020-08-28, 10:45:05
Ich lese da nix vom Gaming usecase, die VRAM Erweiterung wurde doch explizit für offline Raytracing erwähnt, wo es ja wirklich eingesetzt wird. Oder auf welchen Wortlaut beziehst du dich?
Ich stimme voll zu dass für Gaming mGPU extrem selten noch was bringt, sind ja wirklich nur wenige Titel die das explizit anbieten. Aber geforce wird auch von vielen Artists genutzt.
Diese Artikel ist nur ein Beispiel.
Zitat: "Ein klassisches SLI als Alternate Frame Rendering (AFR) wird künftig über NVLink laufen – die Daten des Frame Buffers der zweiten Karte werden über den NVLink-Anschluss auf die erste Karte übertragen. Theoretisch steht dem System die doppelte Speichermenge der einzelnen Karte zur Verfügung."
Es wurde Allgemein darüber als Tatsache gesprochen. Wie z.B. auch über verschiedene GPUs "zusammenschalten". Ich"ärgere" mich das Nvidia solche Technologie wie SLI oder Physx nicht mehr Unterstütz. Beide (IMHO) für Gaming hatten mehr Bedeutung / Immersion als RT oder DLSS.
nordic_pegasus
2020-08-28, 10:50:22
Wer jetzt immer noch wegen den Preisen rummosert, sollte sich
den Aufwand für Ampere mal vergegenwärtigen...
willst Du damit andeuten, dass die kolportierten $1400 für die 3090 gerechtfertigt werden durch einen 12-Layer PCB und den dicken Kühler? Vieles von dem Aufwand der Ampere Karten wird dem Umstand geschuldet sein, dass Lederjacke ein paar Dollar bei TSMC einsparen wollte und sich verzockt hat.
ShinyMcShine
2020-08-28, 11:04:24
willst Du damit andeuten, dass die kolportierten $2400 für die 3090 gerechtfertigt werden durch einen 12-Layer PCB und den dicken Kühler? Vieles von dem Aufwand der Ampere Karten wird dem Umstand geschuldet sein, dass Lederjacke ein paar Dollar bei TSMC einsparen wollte und sich verzockt hat.
fixed that for you... (https://www.gamestar.de/artikel/nvidiartx-3090-haendler-preise-vram,3361371.html) :biggrin:
rentex
2020-08-28, 11:08:17
TSMC ist ne andere Geschichte, deren Auswirkungen wir noch sehen werden...wenn sie denn Relevant wird?
Samsungs Fertigung soll ja günstiger gewesen sein als die von TSMC.
1400$ wären ja noch vertretbar, 2400 nicht mehr.
Cyberfries
2020-08-28, 11:12:19
Nein nicht sicher, es ist aber sehr nahe liegend.
Keine Ti mehr, neuer Name, gleich volle Speicherbestückung mit 24GB. 48GB ziemlich sinnlos, die 2 CU machen praktisch nichts aus.
Das nVidia auf eine Titan-Karte auf GA102-Basis verzichten könnte ist durchaus eine Option.
Von den Gaming-Anfängen hat sich die Reihe immer weiter professionalisiert bis zur Titan V auf Volta Basis.
Durchaus denkbar, dass statt einer GA102-Titan eine A100-Titan erscheint.
Problem ist nur das fehlende RTX, das wäre der einzige Vorteil einer GA102-Titan.
1400$ wären ja noch vertretbar, 2400 nicht mehr.
Ach bitte, Mondpreise vor Launch sind doch wirklich nichts Neues.
Das hat nichts mit den tatsächlichen Preisen zu tun, da gehts nur um Aufmerksamkeit.
Daredevil
2020-08-28, 11:12:53
Es liegt ja ( eigentlich ) auch auf der Hand, das TSMC "teurer" ist, weil aktuell jeder große Big Player in riesigen Voluminas ( AMD, Apple ? ) dort fertigt, oder?
Die Fertigung alleine muss ja nicht mal teurer sein, die sind einfach gerade gefragt as fuck und wenn Apple noch ihre Intel Prozessorsparte auf den Rücken von TSMC legt, weil die ihr eigenes Silizium ätzen, wird es halt knapp für andere Fertiger. ^^
Nvidia hat ja sicherlich auch vor, erstmal massiv zu produzieren die nächsten Jahre.
WedgeAntilles
2020-08-28, 11:15:57
fixed that for you... (https://www.gamestar.de/artikel/nvidiartx-3090-haendler-preise-vram,3361371.html) :biggrin:
Die chinesischen Preise lassen sich nicht über den Wechselkurs in Euro oder Dollar umrechnen.
China ist deutlich teurer als Europa oder die USA.
nordic_pegasus
2020-08-28, 11:17:22
1400$ wären ja noch vertretbar, 2400 nicht mehr.
und wir reden hier noch nicht über die Titan, welche sicherlich noch kommen wird. Aber selbst eine 3090 Super zu diesen Preisen ist einfach nur noch gaga.
Mich erinnert diese Preisblase bei Nvidia an die Zeit von Intel vor Zen. Als z.B. ein 8-Kern 5960x ($999) Nachfolger auf einmal $1799 kostete (6950x, 10-Kerne). Und jetzt kann Intel auf einmal den 10980XE für $999 anbieten, seitdem Konkurrenz vorhanden ist.
Darum verstehe ich das gebashe hier im Thread auf AMD nicht. Selbst wenn BigNavi "nur" im Bereich der 3070/80 landet, würde dies zumindest die Preise im High-End wieder normalisieren. Falls AMD sogar einen Treffer im Enthusiast-Markt schaffen sollte, umso besser. Muss ja niemand AMD kaufen, wenn er nicht mag. Aber gegen bessere Preise wird doch hoffentlich niemand was haben.
Adam D.
2020-08-28, 11:32:36
Darum verstehe ich das gebashe hier im Thread auf AMD nicht. Selbst wenn BigNavi "nur" im Bereich der 3070/80 landet, würde dies zumindest die Preise im High-End wieder normalisieren. Falls AMD sogar einen Treffer im Enthusiast-Markt schaffen sollte, umso besser. Muss ja niemand AMD kaufen, wenn er nicht mag. Aber gegen bessere Preise wird doch hoffentlich niemand was haben.
Das ist eben genau das Resultat von Polarisierung und Lagerdenken. 3DC ist inzwischen das Techniksynonym des amerikanischen Culture Wars. Es gibt genug Leute hier, die jeden Preisanstieg mitgehen würden, weil es nicht mehr darum geht, nüchtern einzuschätzen (und anzuerkennen, dass wir es hier mit einer extrem problematischen Entwicklung zu tun haben), sondern seinen Darling immer ins bestmögliche Licht zu rücken. Das ist bei Team Rot ja auch nicht anders.
Nichts an dieser Entwicklung ist gut. Es ist verständlich, ja, aber wir kriegen immer weniger Performance-Sprünge für immer höhere Preise. Und das hat natürlich auch was mit fehlender Konkurrenz zu tun. Anstatt AMD zu wünschen, dass sie ein gutes Produkt launchen, was zu Marktentwicklungen führen dürfte, von der ALLE profitieren, wird nur gebasht. Anstatt NV dafür zu loben, dass sie das scheinbar Maximale aus den aktuellen Möglichkeiten rausholen, werden sie mit (zugegebenermaßen witzigen) Fermi-Memes überschüttet.
Das ist nur noch Kindergarten hier.
ChaosTM
2020-08-28, 11:35:10
Agreed. Manche schnallen nicht, das Konkurrenz was gutes ist. .
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.