Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)
Gouvernator
2020-09-05, 07:35:54
Ich kann mich prima anhand der letzten Post amüsieren.
Hat hier wer wirklich erwartet mit ner 2080Ti oder 3080 all in gehen zu können?
Like i said - 3090 or die. Und bitte in 2 Jahren neu kaufen.
the way its meant to be played
Namensschema suggeriert sowohl eine 3090Ti wie auch 3080Ti. Es wäre die gleiche Entscheidung wie jetzt. Die große Frage ist nun wie hoch wäre dabei der Performancesprung wenn NV dazu überginge TSMC zu nutzen. Ausgehend vom Maximalausbau bei GA100 mit 54Mrd. auf 826mm, könnten 600mm² ca. 10Mrd. Transistoren mehr sein also statt 28Mrd. dann 39Mrd. oder so. Das würde eigentlich schon eine RTX 4090 rechtfertigen. Oder es wird einfach eine echte Titan mit entsprechendem Preisschild.
So gesehen ist die 3090 zumindest für die Zukunft gut gerüstet und ist kein überteuerter Fail wie 2080Ti.
Soll man nun in eine 3090 investieren? Anstatt in 3080 plus eine neue Konsole oder CPU samt Mainboard? Ist 24 VRAM so wichtig? Nach meinen Tests am 30Hz 8K TV ist 4K120Hz eigentlich in jedem Game vorzuziehen. Es profitieren nur ganz wenige langsame Games von 8K wie Snowrunner, ARPGs, oder Emulatoren. Und da sind in der Regel die 10Gb VRAM schon ausreichend. Die 3090 wird nur relevant wenn solche alte Schinken erstmals auch mit 16K gezockt werden könnten... Genau dafür interessiert mich die 3090. Falls die Karte durchgehend alle Emulatoren 8K/16K bewältigen kann und alle Retro Games ab Far Cry, dann spielt es auf Jahre keine Rolle mehr ob NV etwas viel schnelleres anbietet oder nicht. Weil man das neuere Zeug eh nicht zockt.
dargo
2020-09-05, 07:43:52
NDA für Technik ist gefallen: https://www.computerbase.de/2020-09/nvidia-geforce-rtx-3000-ampere-technik/
WTF? ;D
Die Effizienz ist gestiegen
Nvidia spricht bei Ampere beziehungsweise der GeForce RTX 3080 von einer um 90 Prozent besseren Leistung pro Watt im Vergleich zu Turing. Diese Aussage trifft jedoch offenbar nur dann zu, wenn beide Grafikkarten bei derselben Framerate limitiert werden – Turing ist in diesem Szenario also stärker als Ampere ausgelastet.
Wenn ich grad dabei bin, der angeblich x-fach leisere Kühler ist doch auch totaler Käse. Man nehmen die 20er Karten und Übertakten sie bis zur Kotz grenze. Natürlich ist der FE Kühler nicht dafür ausgelegt und daher laut bzw. die Karte heiß. Wow...
https://pics.computerbase.de/9/4/7/2/3/14-1080.4dc3cafb.png
https://pics.computerbase.de/9/4/7/2/3/15-1080.4bfdf928.png
;D ;D ;D
Ich liebe das Marketing. :uup:
prinz_valium_2
2020-09-05, 07:47:02
https://www.pcgameshardware.de/screenshots/original/2020/09/GeForce-30-Series-Tech-Day-Session-Two_Products_RTX_Seite_04-pcgh.jpg
Hätte schon lieber den Kühler der 3090 auf der 3080
Zwei 100mm Lüfter sind doch deutlich besser als 80. Auf die ganzen Partnerkarten mit 3 Lüften habe ich auch kein Bock.
dargo
2020-09-05, 08:10:14
Fortnite mit allen RTX-Effekten sieht aus wie ein CGI-Film. Der Großteil wirkt geerdet und optisch rund. Jetzt bräuchte es noch bessere Texturen und Assets.
Ich kann über Fortnite mit oder ohne RT nur lachen. ;D Schau dir das an und vergleiche die Hardware die diese Bilder rendert.
GffelVJeGws
Es ändert sich nach wie vor nichts. Spiel-Assets sind das A und O. RT und das ganze andere Gedöns ist nur eine Unterstützung.
Karümel
2020-09-05, 08:17:46
Zu der 3060-Reihe gibt noch nichts offizielles, oder?
dildo4u
2020-09-05, 08:19:36
Zu der 3060-Reihe gibt noch nichts offizielles, oder?
Nein die 2060 kam z.b im Januar 2019, könnte also bis nach Weihnachten dauern.
dargo
2020-09-05, 08:21:43
Nein die 2060 kam z.b im Januar 2019, könnte also bis nach Weihnachten dauern.
Warum sollte ein GA104 Salvage so lange brauchen? Will NV die Salvages vom GA104 erstmal auf Halde horten? :freak:
dildo4u
2020-09-05, 08:23:50
Turing Abverkauf AMD wird das genau so fahren 5700XT wird noch ne Weile im Markt bleiben.
Sind noch einige 2070S auf Lager.
https://geizhals.de/?cat=gra16_512&xf=132_8192&asuch=&bpmin=&bpmax=&v=l&hloc=at&hloc=de&plz=&dist=&mail=&sort=p&bl1_id=30
masked__rider
2020-09-05, 08:29:23
Auf die Temps und Lautstärke der 3080 FE bin ich gespannt. Die Folien dazu meinen knapp 80 Grad Celsius bei 30db @Vollast 320W. Wäre interessant wie die auf diesen Wert kommen, mit welcher Testmethodik.
Sie sagen auch, 10db leiser als die 2080 auf 320W hochgeprügelt. Die 2080 ist aber @225W schon auf 42db laut CB-Test der FE.
Oder überseh ich da was? CB schreibt, die 3080FE hält 78°C @30db. Das kann ich mir fast nicht vorstellen. Der Kühler müsste dann schon sehr gut performen.
Es bleibt spannend.
dargo
2020-09-05, 08:29:54
Das ist doch vollkommender Quatsch. Natürlich wird die 3060 noch dieses Jahr kommen. Ich gehe spätestens vom November aus. Nur GA106/107 kommen erst 2021. Was interessieren die Händlerlager Nvidia? Den "Wert" von Turing hat NV eh schon selbst mit der 3070/3080 entwertet.
dildo4u
2020-09-05, 08:32:43
Auf die Temps und Lautstärke der 3080 FE bin ich gespannt. Die Folien dazu meinen knapp 80 Grad Celsius bei 30db @Vollast 320W. Wäre interessant wie die auf diesen Wert kommen, mit welcher Testmethodik.
Sie sagen auch, 10db leiser als die 2080 auf 320W hochgeprügelt. Die 2080 ist aber @225W schon auf 42db laut CB Test der FE.
Oder überseh ich da was? CB schreibt, die 3080FE hält 78°C @30db. Das kann ich mir fast nicht vorstellen. Der Kühler müsste dann schon sehr gut performen.
Es bleibt spannend.
Der alte Turing Kühler scheint mit hohen TDP nicht zurecht zu kommen, da wird der neue massiv besser sein laut CB war die 2080 Ti lauter als die 1080 Ti und der Kühler war in jedem Fall Kernschrott.
https://www.computerbase.de/2019-07/geforce-rtx-2080-super-test/3/#abschnitt_lautstaerke__kuehlung
Das ist doch vollkommender Quatsch. Natürlich wird die 3060 noch dieses Jahr kommen. Ich gehe spätestens vom November aus. Nur GA106/107 kommen erst 2021. Was interessieren die Händlerlager Nvidia? Den "Wert" von Turing hat NV eh schon selbst mit der 3070/3080 entwertet.
Angeblich sind die Samsung Yields extrem schlecht aber kann natürlich Blödsinn von AMD Fanboys sein.
dargo
2020-09-05, 08:35:13
Oder überseh ich da was? CB schreibt, die 3080FE hält 78°C @30db. Das kann ich mir fast nicht vorstellen. Der Kühler müsste dann schon sehr gut performen.
Es bleibt spannend.
78°C auf der GPU findest du gut? :freak: Wenn ich so ein Temperatur-Target verfolge kommen meine Lüfter gar nicht mehr als der Idle-Drehzahl raus. :ulol: Erstmal abwarten ob der heißeste Punkt nicht eher beim GDDR6X liegt.
Angeblich sind die Samsung Yields extrem schlecht aber kann natürlich Blödsinn von AMD Fanboys sein.
Wenn die Yields schlecht sind dann hast du eher mehr Salvages auf Halde.
btw.
Die Meldung von schlechten Yields muss nicht zwangsläufig von irgendwelchen AMD-Fanboys kommen. Das kann genau so gut von Nvidias "Influenzern" kommen. Einfach um möglichst viele die noch unentschlossen sind zum Kauf der 3070/3080 zu bewegen bevor RDNA 2 kommt. :wink:
masked__rider
2020-09-05, 08:35:26
Das die Yieldrate unterirdisch ist, hat Igor eigentlich schon ausgeräumt.
robbitop
2020-09-05, 08:38:50
Ich hab mir schon gedacht, hmm die DLSS Zuwächse sind doch noch beeindruckender als bei Turing.
Kommt wohl daher, dass TCs jetzt synchron zu RT und ALUs ausgeführt werden können. Das ist eine tolle Neuerung. Durch die höhere Leistung und das synchrone Anwenden kann wohl ein höherer Upscaling-Faktor verwendet werden (8K Ampere)
Es gab nie eine HW Limitierung für die gleichzeitige Nutzung von TC und FPUs. (Edit: aber offenbar für gleichzeitge Nutzung der RT Cores - dennoch ist der Kernaspekt, dass man es asynchron implementieren muss, um mehr Rechenzeit rauszuholen) Es liegt in der Natur der Implementierung von DLSS in SW. Die Engine rendert den Frame in Inputauflösung (ohne PP und HUD) und übergibt dieses inkl motion vectors an das DLSS Modul. Dieses erzeugt dann den Frame in Outputauflösung. Danach wird PP und HUD gerendert. Entsprechend muss die Engine auf dlss warten. Das ließe sich nur umgehen, wenn die Engine in der Wartzeit bereits das nächste Frame beginnt. Das liegt in der Hand des Entwicklers.
dildo4u
2020-09-05, 08:40:53
Hatte die 2060 nicht ein kleineren Chip diesmal bringen sie im Prinzip sofort die 2060S oder?
dargo
2020-09-05, 08:44:38
Namensgebungen sind Schall und Rauch. Nvidia hat bei Ampere-Gaming die Leistungsklassen verschoben.
GA102 = 3090/3080
GA104 = 3070/3060
rentex
2020-09-05, 09:10:18
Die GPUs sind nicht das Problem, die verfügbaren Kühler sind der Flaschenhals der Produktion.
Und ja, der VRAM treibt die Temperaturen in die Höhe!
Das ist schon seit einer Woche bekannt:rolleyes:
masked__rider
2020-09-05, 09:10:20
78°C auf der GPU findest du gut? :freak: Wenn ich so ein Temperatur-Target verfolge kommen meine Lüfter gar nicht mehr als der Idle-Drehzahl raus. :ulol: Erstmal abwarten ob der heißeste Punkt nicht eher beim GDDR6X liegt.
Naja, in Anbetracht der 320W und der zwei 90mm Lüfter finde ich das ganz passabel. 78 Grad Celsius sind für eine Karte dieser Klasse vertretbar. Bin gespannt was die AIBs da auf die Beine stellen.
dildo4u
2020-09-05, 09:12:11
Die GPUs sind nicht das Problem, die verfügbaren Kühler sind der Flaschenhals der Produktion.
Und ja, der VRAM treibt die Temperaturen in die Höhe!
Das ist schon seit einer Woche bekannt:rolleyes:
Die AIB konnten Kühler schon lange vorher bauen Igor meine die Probleme mit dem Kühler gibt es nur bei Nvidia.
rentex
2020-09-05, 09:27:02
Igor hat doch ebenfalls für die AIBs größere Probleme bei der Kühlerkonstruktion genannt.
Die Stückzahlen werden ebenfalls für Custom Karten, niedrig ausfalken.
Screemer
2020-09-05, 09:31:52
Kann ich mich nicht dran erinnern. Seine Aussage war aber auf jeden Fall, dass die Produktion der Kühler für die fe rest vor max 5-6 Wochen angelaufen ist und auch noch problematisch zu sein scheint. Dazu kommen eben noch Logistik der Kühler und die abschließende Logistik der Karten.
dildo4u
2020-09-05, 09:39:15
Die AIB müssen die Specs schon lange haben früher war es mal der Fall das EVGA z.b Nvidias PCB genutzt haben bis ihre eignen PCB fertig waren.
Diesmal scheint jeder sofort eigene Designs zu nutzen.
Hübie
2020-09-05, 09:41:12
Ganze anders. Es kommen keine doppelten Speichermengen.
Quelle? :rolleyes:
Dural
2020-09-05, 09:41:15
GA102 628mm 28b
GA104 393mm 17,4b
L2 Cache ist gleich / leicht weniger
GA102 5mb
GA104 4mb
AffenJack
2020-09-05, 10:01:47
Bin nicht sicher ob es wirklich nur 5mb sind. Irgendwo habe ich gelesen, dass die 3080 5mb L2 hat. Bei der 3090 könnten es auch 6mb sein.
Cyberfries
2020-09-05, 10:05:20
Genau, die 5mb gehören zur 3080, bei der 3090 ist nichts bekannt.
Skaliert der L2 bei nVidia mit dem Speicherinterface?
Die Transistorendichte liegt mit ca. 44MTr/mm² höher als bei Navi, trotz schlechterem Prozess, nicht schlecht.
ShinyMcShine
2020-09-05, 10:06:09
Hier sind übrigens alle: https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Specials/RTX-3090-RTX-3080-RTX-3070-Launch-kaufen-1357443/
MfG
Raff
Vielen Dank für diesen hervorragenden Artikel! :up:
AffenJack
2020-09-05, 10:09:10
Genau, die 5mb gehören zur 3080, bei der 3090 ist nichts bekannt.
Skaliert der L2 bei nVidia mit dem Speicherinterface?
Selbst wenn er nicht direkt skaliert, würde mich ein Abschalten von 1mb für Yieldzwecke nicht wundern.
GA104 256 Bit 4mb
GA102 320 Bit 5mb
GA102 384 Bit 6mb
passt perfekt.
Dural
2020-09-05, 10:10:23
Ja die 3080 hat 5mb.
Ich hätte aber mit deutlich mehr cache gerechnet, scheint aber offensichtlich nicht viel zu bringen
AffenJack
2020-09-05, 10:23:17
Mal abseits von den bekannten Sachen und kleineren Amperechips bleibt GA103 auch immernoch mysteriös.
kopite7kimi
27. Aug.
Please don't forget GA103.
kopite7kimi
27. Aug.
Do you remember NV40/45 and NV42? I don't know yet what we will see.
kopite7kimi lag bisher mit praktisch allem richtig und sagt nun GA103 ist wohl doch nicht tot. Der Vergleich NV40 zu NV42 lässt GA103 auf einem anderen Prozess vermuten. Nv40 war 0,13um, Nv42 0,11um.
Hat Nvidia vll eine etwas kleinere Alternative für GA102 gebaut, falls Samsung die Produktion des Big-Die nicht hinkriegt? Am ehesten anzunehmen wäre dann ein GA103 bei TSMC in 7nm. Aber auch ein erster EUV Chip wäre nicht völlig auszuschließen, falls man Erfahrungen mit EUV sammeln will, bevor Hopper kommt. Dann kämen sogar Samsung 5nm oder TSMC 6nm/5nm in Betracht.
lol
"20 degrees cooler 3 times quieter" typisches BS Marketing
https://www.techpowerup.com/review/nvidia-geforce-ampere-architecture-board-design-gaming-tech-software/images/rtx-3080-thermal-performance.jpg
mironicus
2020-09-05, 10:32:27
Ich kann mir schon jetzt vorstellen, wie NVidia gefeiert wird, wenn der Ampere-Nachfolger mit deutlich unter 300 Watt TDP vorgestellt wird, weil 350-400 Watt ja vorher normal waren. :)
Quelle? :rolleyes:
Hier ist seine Quelle:
https://c8.alamy.com/comp/H3RJA7/foreteller-crystal-ball-woman-glass-ball-clairvoyant-spiritualism-H3RJA7.jpg
[MK2]Mythos
2020-09-05, 10:46:24
Badesalz hat in der IT schon mehr vergessen als ihr alle zusammen noch lernen könnt. Bitte habt ein bisschen mehr Respekt.
fondness
2020-09-05, 11:16:12
NDA für Technik ist gefallen: https://www.computerbase.de/2020-09/nvidia-geforce-rtx-3000-ampere-technik/
Geile Uhrzeit btw.
Nvidia spricht bei Ampere beziehungsweise der GeForce RTX 3080 von einer um 90 Prozent besseren Leistung pro Watt im Vergleich zu Turing. Diese Aussage trifft jedoch offenbar nur dann zu, wenn beide Grafikkarten bei derselben Framerate limitiert werden – Turing ist in diesem Szenario also stärker als Ampere ausgelastet.
Also das ist schon ziemlich frech. Mal sehen wie viel davon übrig bleibt wenn nicht eine Karte am Limit und die andere im sweet-spot laufen kann.
mironicus
2020-09-05, 11:20:28
Die 90% mehr Effizienz bezogen sich auf das Spiel Control in 4K mit 60 FPS Framecap. Limitiert man das Spiel auf diese Framezahl ist Ampere 90% effizienter als Turing.
"So" kann man es natürlich auch verkaufen...
Die AIB müssen die Specs schon lange haben früher war es mal der Fall das EVGA z.b Nvidias PCB genutzt haben bis ihre eignen PCB fertig waren.
Diesmal scheint jeder sofort eigene Designs zu nutzen.
Igor hat vor Wochen/Monaten schon gesagt, dass es zwei PCB Designs gibt. Eines FE exklusiv, das andere für die Boardpartner. Musst du mal suchen.
Wenn trotzdem Taktraten etc. erst kurz vor knapp bekannt wurden, haben sie AIB natürlich nicht viel Zeit ihre Designs anzupassen.
dargo
2020-09-05, 11:29:45
Also das ist schon ziemlich frech. Mal sehen wie viel davon übrig bleibt wenn nicht eine Karte am Limit und die andere im sweet-spot laufen kann.
Kann ich dir jetzt schon sagen, 25-30%. Ausgehend von der 2080TI FE vs. 3070. Ich gehe davon aus, dass die 3070 im Schnitt minimal vor der 2080TI landen wird. Dann hättest du nach den bisher bekannten Daten 278W vs. 220W. Bei der 3070 meine ich natürlich die FE. Viele Customs werden sicherlich die 220W sprengen.
Thunder99
2020-09-05, 11:37:29
Früher hat die 70er immer den Top Dog der vorherigen Generation geschlagen. Bei Turing war das nicht der Fall bis 2070S (mehr oder weniger). Daher erwarte ich von der 3070 einen deutlichen Vorsprung, da ja ein Full Chip 04er gegen vorherigen 02er antritt. Aus der Perspektive ist die Performance von Ampere doch nicht so geil...
BTW, das Marketing macht echt alles mögliche um die Negativen Aspekte ins Positive zu rücken ;D. Hoffentlich fallen nicht so viele darauf ein.
Und die Anzahl der Shader/CUDA Cores erinnert mich an AMD Bulldozer Architektur. Vermarktet als 8 Kern CPU war es was zwischen 4 und 8, je nach Workload. Würde mich nicht wundern wenn es auch bei Ampere ist.
Edit: Tech Artikel gelesen, es ist so ;D
Jupiter
2020-09-05, 11:48:17
Ich kann über Fortnite mit oder ohne RT nur lachen. ;D Schau dir das an und vergleiche die Hardware die diese Bilder rendert.
https://youtu.be/GffelVJeGws
Es ändert sich nach wie vor nichts. Spiel-Assets sind das A und O. RT und das ganze andere Gedöns ist nur eine Unterstützung.
Die Schatten sind da sehr scharfkantig und unrealistisch. Ebenso fügen sich die Objekte nicht so gut in die Umgebung ein. Das hat keinesfalls die Homogenität und die CGI-Optik eines Raytracing Fortnites. Dafür ist die Assetqualität bei beiden ähnlich schwach.
Ich habe das Gefühl, das Grafik in den letzten Jahren leider vom Anspruch auf Fotorealismus abrückt. In diese Richtung würde ich mir einen Ruck wünschen. Stattdessen wird die Optik so gestaltet, um bestimmte neue Effekte präsentieren zu können. Anders wäre wünschenswert, nämlich die richtige Effekte für eine fotorealistischere Darstellung zu finden.
Ich bevorzuge auch eine fotorealistische Optik. Cimic-Grafik wird generell überschätzt. Es ist viel leichter, so etwas zu erreichen als eine Realistische.
rentex
2020-09-05, 11:50:25
Mythos;12414887']Badesalz hat in der IT schon mehr vergessen als ihr alle zusammen noch lernen könnt. Bitte habt ein bisschen mehr Respekt.
Dann darf er natürlich behaupten was er möchte!
Fragman
2020-09-05, 11:55:05
Es ist viel leichter, so etwas zu erreichen als eine Realistische.
Das kann man so nicht sagen.
Comic ist viel komplexer wenn es zu Dingen wie Piselstrichen, schattierte Bleistiftlooks oder ähnlich komplexem kommt. Fortnite und Co sollte man nicht als Referenz für Comicgrafik sehen, das ist eher was sehr reduziertes. ;)
Jupiter
2020-09-05, 12:01:31
Comicgrafik braucht nicht solch komplexe Modelle und die Charaktere müssen nicht realistisch aussehen. Echt wirkende Menschen sind am schwersten zu realisieren. Dagegen ist so eine Comicfigur simpel. Oder auch die Modelle. Ein Comicbaum muss nicht ansatzweise so komplex wie ein Fotorealistischer sein.
Es stimmt aber, dass Comicgrafik sehr viel sein kann. Die Umsetzung von manchen Stilen ist viel einfacher und bei anderen weitaus schwerer. Spiele mit spielbarer Zeichentrickgrafik im Sinne von alten Disneyfilmen oder japanischen Animefilmen kenne ich nicht.
Ja das stimmt. Dann sieht es wirklich aus wie CGI. Wie bei König der Löwen. Du meinst damit wie 1994, Lawmachine79 möchte eher wie 2019.
Fortnite ist aber auch ken besseres Beispiel für sowas als MinecraftRTX. Fortnite ist glasklar auf FPS getrimmt. So wie man das zu spielen hat damit man besteht ist irgendeine Form von Grafikpracht fehl am Platz. Wenn man sich etwas gönnen möchte, stellt man das Beiwerk wie Schatten&Co., auf Medium. Mind. 120fps und sehr gute Frametimes sind das Ziel. Sonnenuntergänge eher weniger. Selbst wenn alles auf max. und mit RT und in 4k mit 120fps gehen würde, ist es immernoch uninteressant.
Für Einzelspieler- oder kooperative Ttitel wäre das natürlich sinnvoller.
da Vinci
2020-09-05, 12:02:27
Hier sind übrigens alle: https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Specials/RTX-3090-RTX-3080-RTX-3070-Launch-kaufen-1357443/
MfG
Raff
Schöner Artikel.
Zum RTX IO...Ist es wie du schreibst jetzt doch hardwarebasiert auf Ampere? Ich habs so verstanden, daß es eine Softwarelösung ist und deshalb auch auf Turing läuft?!
Troyan
2020-09-05, 12:06:39
Läuft über die normalen Recheneinheiten der GPUs. Ist also "Software" bei der Dekomprimierung. Das sollte auch nicht wirklich ein Problem sein, da die Xbox SX ja nur 4,5GB/s komprimiert erreicht.
dargo
2020-09-05, 12:15:42
Die Schatten sind da sehr scharfkantig und unrealistisch. Ebenso fügen sich die Objekte nicht so gut in die Umgebung ein. Das hat keinesfalls die Homogenität und die CGI-Optik eines Raytracing Fortnites. Dafür ist die Assetqualität bei beiden ähnlich schwach.
Tut mir leid, aber ich kann dich im Bereich Computergrafik nicht mehr ernst nehmen. ;D
MacnbvEssVA
Armaq
2020-09-05, 12:21:38
Ich warte auf den nächsten Ghost Recon-Teil, der einen ähnlichen Sprung macht wie das schöne Bolivien.
MiamiNice
2020-09-05, 12:32:01
Dargo, jetzt komm schon. Die Grafik von Fortnite RTX mit der von Clank zu vergleichen, ist schon irgendwie meh. Ich kann ja verstehen das Dich als AMD Boy das RTX Gedöns ein wenig anpinkelt. Aber im ernst, Alter, da liegt mindestens eine Welt zwischen. Ernsthaft, kann man ruhig zugeben.
Dampf
2020-09-05, 12:34:33
Tut mir leid, aber ich kann dich im Bereich Computergrafik nicht mehr ernst nehmen. ;D
https://youtu.be/MacnbvEssVA
Wow, okay das ist ein beeindruckender Sprung.
Scheinbar wurden auch noch andere Aspekte der Grafik abseits von Raytracing geändert, zum Beispiel Asset quality und LOD.
Das macht meinen Vergleich von gestern ja komplett invalid.
dargo
2020-09-05, 13:01:48
Dargo, jetzt komm schon. Die Grafik von Fortnite RTX mit der von Clank zu vergleichen, ist schon irgendwie meh. Ich kann ja verstehen das Dich als AMD Boy das RTX Gedöns ein wenig anpinkelt. Aber im ernst, Alter, da liegt mindestens eine Welt zwischen. Ernsthaft, kann man ruhig zugeben.
Du meinst zwischen Fortnite RTX On und Ratchet & Clank der PS5? Ja... da liegt mindestens eine Welt zwischen wenn nicht sogar zwei. Fortnite sieht aus wie Last-Last-Gen.
Megamember
2020-09-05, 13:02:49
Und für eine etwas höhere Helligkeit und knalligere Farben benötigt man RTX oder wie?
robbitop
2020-09-05, 13:08:48
Und die Anzahl der Shader/CUDA Cores erinnert mich an AMD Bulldozer Architektur. Vermarktet als 8 Kern CPU war es was zwischen 4 und 8, je nach Workload. Würde mich nicht wundern wenn es auch bei Ampere ist.
Edit: Tech Artikel gelesen, es ist so ;D
Gemessen an Maxwell oder Pascal kann man das aber so stehen lassen. Die hatten pro SM 128 FPUs. Es gab keine dedizierte INT ALU.
Erst Turing (bzw Volta) halbierte die SMs, verbaute mehr davon und packte INT ALUs dazu.
Der Anteil an INT Code ist bei 3D Grafik idR eh so klein (die von NV vor 2 Jahren kolportierten 30% sind eher die Ausnahme, ansonsten wäre Turing Pascal rohleistungsnormiert davon gelaufen - das war bis auf Quantum Break und Wolfenstein jedoch nicht der Fall) dass es kaum einen Unterschied macht.
Wenn Maxwell und Pascals FPUs als CUDA Kerne auch heute noch zählen, dann kann man die von Ampere ebenfalls zählen.
Leonidas
2020-09-05, 13:33:31
Namensgebungen sind Schall und Rauch. Nvidia hat bei Ampere-Gaming die Leistungsklassen verschoben.
GA102 = 3090/3080
GA104 = 3070/3060
2x Zustimmung. Die alten Einteilungen passen alle nicht mehr, man muß sich an neue gewöhnen.
pixeljetstream
2020-09-05, 13:37:17
Nur als Korrektur, es gab da auch int ALUs, nur weniger, so dass die nie erwähnt werden. Es gibt auch jetzt noch mehr Units als in den Bildern gezeigt, nur sind die alt nicht so bedeutend (INT muss man ja schon irgendwie können). CUDA guides geben dann bissl Aufschluss.
Fortnite sieht aus wie Last-Last-Gen.
Fortnite sieht aus wie ein Spiel, dessen Assets auch noch irgendwie auf Mobile/Switch darstellbar sein müssen. :freak:
Thunder99
2020-09-05, 14:18:52
2x Zustimmung. Die alten Einteilungen passen alle nicht mehr, man muß sich an neue gewöhnen.
Wie damals von GF100/110 auf Kepler und danach. Jetzt gibt es wieder eine neue Einteilung die bezogen auf die RAM Menge nicht verkehrt ist.
Jetzt kommt ja 6/8/10/24. Und später eventuell 12/16/20/24? Die letzten beiden Generationen hatte ja 6/8/11(12) und dann bei Turing 8/8/11(12). Bleibt diesbezüglich spannend :)
dargo
2020-09-05, 14:20:37
Fortnite sieht aus wie ein Spiel, dessen Assets auch noch irgendwie auf Mobile/Switch darstellbar sein müssen. :freak:
Ja... so kann man es auch formulieren. :D
Troyan
2020-09-05, 14:24:15
Fortnite sieht aus wie ein Spiel, dessen Assets auch noch irgendwie auf Mobile/Switch darstellbar sein müssen. :freak:
Mehr ein Artstyle. Spiel sah von anfang so aus bevor auch nur Mobile/Switch in Betracht kam.
prinz_valium_2
2020-09-05, 14:28:16
2x Zustimmung. Die alten Einteilungen passen alle nicht mehr, man muß sich an neue gewöhnen.
Naja nicht wirklich umgewöhnen.
Es ist halt wieder zurück zur 400 / 500er Serie.
Nur diesmal ist eben der Marketingname jeweils eine Stufe höher
x90 = full (or very slight salvage) top dog
x80 = salvage top dog
x70 = full (or very slight salvage) performance chip
x60 = salvage performance chip
Früher war es
x80 = full (or very slight salvage) top dog
x70 = salvage top dog
x60 = full (or very slight salvage) performance chip
X50 = salvage performance chip
Naja nicht wirklich umgewöhnen.
Es ist halt wieder zurück zur 400 / 500er Serie.
600er Serie war auch noch so. 660Ti, 670 und 680 hatten alle top dog GK104.
700er Serie waren 780, 780Ti und Titan top dog GK110
Erst mit der 900er Serie hatte die 980 keinen Top Dog mehr und es gab einen lauten Aufschrei...
Nazar
2020-09-05, 15:41:59
Tut mir leid, aber ich kann dich im Bereich Computergrafik nicht mehr ernst nehmen. ;D
https://youtu.be/MacnbvEssVA
Dir ist schon klar, dass in deinem Beispiel zwei unterschiedliche Softwarestände mit zusätzlich unterschiedlichen Qualitätseinstellungen (und ich meine nicht RT on oder off) verglichen werden? ;)
dargo
2020-09-05, 15:49:00
Dir ist schon klar, dass in deinem Beispiel zwei unterschiedliche Softwarestände mit zusätzlich unterschiedlichen Qualitätseinstellungen (und ich meine nicht RT on oder off) verglichen werden? ;)
Darum gings mir doch anfangs überhaupt nicht. :freak:
mironicus
2020-09-05, 16:00:26
Onkel Igor hinterfragt die "10496" Cuda-Cores der RTX 3090.
U0ctUTTpMJM
Cyberfries
2020-09-05, 16:15:52
Muss das wirklich sein, dass ständig 20-30min Videos hier beworben werden?
Das Gefasel will ich mir nicht unbedingt antun, schreibt doch wenigstens ne kurze Zusammenfassung,
mehr als ein Satz Inhalt kommt doch ohnehin selten bei rum.
BiZiNiZz
2020-09-05, 16:17:34
Ich hab den Artkiel aus der Videobeschreibung gelesen, stand aber auch nicht mehr drin als bei CB oder PCGH. Und das nur in 5min.... vs 20min Video.
Und nichts gegen Igor, aber ich kann darauf verzichten die behaarte Brust eines älteren Herren zu sehen:freak:
dargo
2020-09-05, 16:20:18
Onkel Igor hinterfragt die "10496" Cuda-Cores der RTX 3090.
https://youtu.be/U0ctUTTpMJM
SM = Ursula mit der Peitsche. ;D ;D ;D Ich liebe die Videos von Igor. :biggrin:
Timbaloo
2020-09-05, 16:23:05
Muss das wirklich sein, dass ständig 20-30min Videos hier beworben werden?
Anklicken, dislike und weiter.
w0mbat
2020-09-05, 16:24:19
@Cyberfries: Du bist keine drei Monate hier im Forum, muss dein Gefasel hier sein?
DrFreaK666
2020-09-05, 16:28:51
Muss das wirklich sein, dass ständig 20-30min Videos hier beworben werden?
Das Gefasel will ich mir nicht unbedingt antun, schreibt doch wenigstens ne kurze Zusammenfassung,
mehr als ein Satz Inhalt kommt doch ohnehin selten bei rum.
zwingt dich jemand das Video anzuklicken? :rolleyes:
mironicus
2020-09-05, 16:38:21
Muss das wirklich sein, dass ständig 20-30min Videos hier beworben werden?
Das Gefasel will ich mir nicht unbedingt antun, schreibt doch wenigstens ne kurze Zusammenfassung,
mehr als ein Satz Inhalt kommt doch ohnehin selten bei rum.
Guck dir das Video noch mal ganz in Ruhe an. Igor hat nämlich ein paar Sachen indirekt gespoilert, über die er offiziell noch gar nicht reden darf (NDA). :biggrin:
monstar-x
2020-09-05, 16:41:48
Muss das wirklich sein, dass ständig 20-30min Videos hier beworben werden?
Das Gefasel will ich mir nicht unbedingt antun, schreibt doch wenigstens ne kurze Zusammenfassung,
mehr als ein Satz Inhalt kommt doch ohnehin selten bei rum.
Einfach weiterlesen oder nicht anschauen wenn es dich nicht interessiert.
Wie kann man sich nur über jeden Mist aufregen.
Ich finde 30 Minuten Videos gut, passt Ideal in mein Home Fitness Training.
Besser geht es doch nicht, Muskel stärken und dabei sich (weiterbilden, informieren)
hlynska
2020-09-05, 17:00:06
Das ist reinstes ASMR, das beruhigt ungemein und bildet.
YT-Fast-Food mit Wurfkartons ist wie eine digitale 5-Minuten-Terrine. Macht kurzeitig satt und bei der zweiten muss man schon kotzen. :D
MiamiNice
2020-09-05, 17:21:26
Guck dir das Video noch mal ganz in Ruhe an. Igor hat nämlich ein paar Sachen indirekt gespoilert, über die er offiziell noch gar nicht reden darf (NDA). :biggrin:
Ich schaue das auch wegen den Spoilern zwischen den Zeilen.
Diesmal waren die Spoiler, zumindest die relevanten:
40-50% mehr Rohpower
Der Umbau der SM greift in den meisten Games
BlacKi
2020-09-05, 17:39:22
seit wann ist das aufklären wie ein chip funktioniert denn ein spoiler?
das erklärbär video hatte zwar infos für mich, aber etwas weniger laberbacke würden den videos gut tun.
Linmoum
2020-09-05, 17:41:48
Im Endeffekt werden die Reviews genau das aufzeigen, was schon seit Monaten spekuliert worden ist: Die 3090 ist +-50% schneller als eine 2080Ti bei 350W. Weitergehen.
Was jetzt noch interessant bleibt, ist der OC-Headroom. Noch vorhanden, oder musste NV schon an die Kotzgrenze gehen?
Cyberfries
2020-09-05, 17:50:15
Einfach weiterlesen oder nicht anschauen wenn es dich nicht interessiert.
Wie kann man sich nur über jeden Mist aufregen.
Da habe ich mich aber in ein Wespennest gesetzt.
Geht mir nicht um Igor, ihr dürft anschauen was euch gefällt.
Werden ja auch nicht nur Igor-Videos gezeigt, das ist Zufall dass ich genau hier meckere.
Es geht mir darum, dass hier Teile der Diskussion ausgelagert werden, Informationen vorenthalten werden.
Diesmal waren die Spoiler, zumindest die relevanten:
.....
Danke für die Info, auf so etwas habe ich gehofft.
Und das ist genau mein Punkt.
Ohne meckern wäre ich nur an die Info gekommen über die Sekundärquelle Youtube.
Ihr schaut euch das Video sowieso an und habt Freude daran, dann ergänzt doch einfach den Text um die 100 Zeichen.
Anklicken, dislike und weiter.
Dann wird trotzdem mein Feed mit Videovorschlägen zu Igor & Co überflutet, was ich vermeiden möchte.
@Cyberfries: Du bist keine drei Monate hier im Forum, muss dein Gefasel hier sein?
In der Zeit etwa einen Beitrag/Tag, halb so viel wie du im Schnitt.
edit: Ich wollte das Thema jetzt nicht groß aufziehen.
Ich habe meinen Unmut mitgeteilt, wenn ich in der Minderheit bin, seis drum. Gerne zurück zur Tagesordnung.
Igor hat seine Videos in Textform auch immer auf seiner HP. So kann sich jeder das beste Format raus suchen.
Korvaun
2020-09-05, 18:05:34
Für alle die gerne in Erinnerungen schwelgen... die letzte 90er Karte von nV liegt schon etwas zurück:
https://www.computerbase.de/2020-09/nvidia-geforce-gtx-690-rueckblick/
robbitop
2020-09-05, 18:15:23
Nur als Korrektur, es gab da auch int ALUs, nur weniger, so dass die nie erwähnt werden. Es gibt auch jetzt noch mehr Units als in den Bildern gezeigt, nur sind die alt nicht so bedeutend (INT muss man ja schon irgendwie können). CUDA guides geben dann bissl Aufschluss.
Ich ging davon aus, dass die FPUs auch INT konnten. Ist das nicht so?
MiamiNice
2020-09-05, 18:19:42
Yam Yam:
https://videocardz.com/newz/first-water-blocks-for-geforce-rtx-3090-and-rtx-3080-are-here
BlacKi
2020-09-05, 18:22:39
Yam Yam:
https://videocardz.com/newz/first-water-blocks-for-geforce-rtx-3090-and-rtx-3080-are-here
sind halt untauglich für die FE modelle da sie nicht die referenzkarten sind. musstdu warten nech^^
woodsdog
2020-09-05, 18:27:44
Was jetzt noch interessant bleibt, ist der OC-Headroom. Noch vorhanden, oder musste NV schon an die Kotzgrenze gehen?
Lol die Karten kommen mit 350W bzw 320W aus der Packung... hier wurden die normalerweise vorhandenen 100-für-OC-Watt direkt von NV mitgenommen.
Was soll denn da noch gehen, wenn die Karten stock an der thermischen Grenze von allen Komponenten laufen. Hat Igor doch schon im vorletzten Video durchblicken lassen... von wegen "Hitzewellen aus dem Testlabor".
Einzig die Wasser-Mädels und Jungs können da wohl noch mit dem Brecheisen was tun, für alle unter Luft sind die Kühllösungen vermutlich jetzt schon grenzwertig...
Freestaler
2020-09-05, 18:28:57
@Cyberfries: Du bist keine drei Monate hier im Forum, muss dein Gefasel hier sein?
OT: (registier)Alter macht nicht Weiser, nur älter *hust*.. ich finde es gut wenn kurz was schreibt zu den Links. Macht die Diskussion komplett. Sonst können wir ja gleich ins Igorforum.
Ps: igor bitte ersetzen durch was auch immer (ocn, lux,cb usw.)
Naja, in Anbetracht der 320W und der zwei 90mm Lüfter finde ich das ganz passabel. 78 Grad Celsius sind für eine Karte dieser Klasse vertretbar. Bin gespannt was die AIBs da auf die Beine stellen.
Kommt drauf an welche Raumtemperatur angestanden hat, welches Gehäuse, oder offener Aufbau. 78Grad wären ausgezeichnet, nur vermag ich das nicht so recht glauben.
MiamiNice
2020-09-05, 18:37:42
sind halt untauglich für die FE modelle da sie nicht die referenzkarten sind. musstdu warten nech^^
Streu noch Salz in die, von Lederjacke verursachte, Wunde, weil er den 12 Pin Terrorturm unbedingt aufrecht verlöten musste :mad:
Linmoum
2020-09-05, 18:40:37
Lol die Karten kommen mit 350W bzw 320W aus der Packung... hier wurden die normalerweise vorhandenen 100-für-OC-Watt direkt von NV mitgenommen.
Was soll denn da noch gehen, wenn die Karten stock an der thermischen Grenze von allen Komponenten laufen. Hat Igor doch schon im vorletzten Video durchblicken lassen... von wegen "Hitzewellen aus dem Testlabor".
Einzig die Wasser-Mädels und Jungs können da wohl noch mit dem Brecheisen was tun, für alle unter Luft sind die Kühllösungen vermutlich jetzt schon grenzwertig...Um Wasser geht's mir auch (primär), alles andere ist bei noch höherem Verbrauch ja eben nur, wenn überhaupt, mit Düsenjet-Lautstärke machbar.
woodsdog
2020-09-05, 18:49:51
Um Wasser geht's mir auch (primär), alles andere ist bei noch höherem Verbrauch ja eben nur, wenn überhaupt, mit Düsenjet-Lautstärke machbar.
Relativ gesehen dürfte Ampere aber auch unter Wasser eine OC-Krücke werden. Das große Potenzial kommend von 250W Stock ist halt schon weg und von 350W ausgehend geht halt auch unter Wasser vermutlich nur noch bedingt viel. Die Letzten 5-10% sind halt bekanntlich SEHR teuer.
BlacKi
2020-09-05, 19:01:31
Relativ gesehen dürfte Ampere aber auch unter Wasser eine OC-Krücke werden. Das große Potenzial kommend von 250W Stock ist halt schon weg und von 350W ausgehend geht halt auch unter Wasser vermutlich nur noch bedingt viel. Die Letzten 5-10% sind halt bekanntlich SEHR teuer.
wow, tolle glaskugel.:freak:
Um Wasser geht's mir auch (primär), alles andere ist bei noch höherem Verbrauch ja eben nur, wenn überhaupt, mit Düsenjet-Lautstärke machbar.
ich finde 1400rpm trotz OC wie bei der top 2080ti msi karte nicht zuviel. frag mal daredevil.
ich verstehe diese denkweiße einfach nicht. die leute hatten die ausgangslage der leaks von +35-50% auf turing bei 350w. bei 250w sind die karten garantiert leise und die +50% hat man nun trotdem. hätte nv 250w bei +50% gebracht, hätten die leute sich aufgeregt, das man nur +20% powertarget bekommt. jetzt bekommt man eine 250w karte mit +50% auf turing und kann das PT auf +68% stellen.
einfach auch mal so denken, nur hätten dann die hater nichts zum haten gehabt... einfach unglaublich so nen mist jedes mal lesen zu müssen.
Relativ gesehen dürfte Ampere aber auch unter Wasser eine OC-Krücke werden. Das große Potenzial kommend von 250W Stock ist halt schon weg und von 350W ausgehend geht halt auch unter Wasser vermutlich nur noch bedingt viel. Die Letzten 5-10% sind halt bekanntlich SEHR teuer.
Wenn sich Ampere wie Turing verhält, dann sind 320w unter Wasser 0 Problem. Meine Matrix konnte man relativ schwer über 45 Grad bringen und die konnte 360W. Ne Custom 3090 ist mit 525W ein anderes Thema. Hier braucht es wahrscheinlich nen Kompressor.
woodsdog
2020-09-05, 19:25:00
Wenn sich Ampere wie Turing verhält, dann sind 320w unter Wasser 0 Problem. Meine Matrix konnte man relativ schwer über 45 Grad bringen und die konnte 360W. Ne Custom 3090 ist mit 525W ein anderes Thema. Hier braucht es wahrscheinlich nen Kompressor.
Wer sprach davon das 320/350W ein Problem sind? Der Punkt ist schlicht dass Turing sich an der Stelle bereits 100W für's OC genemigen durfte und entsprechend _Mehrperformance_ bei rum kam. Ampere startet da aber gerade mal (aka 0% OC@350W) und da wird die sprichwörtliche Luft halt sehr schnell sehr dünn.
Was ist bei Turing (mit größerem Die und damit besserer kühlbarkeit wohlgemerkt) zwischen 350 und 500W noch an Performance unter Wasser dazu gekommen? Ich hab aufrichtig keine Ahnung in dem Extrembereich. Viel kann es aber eigentlich nicht gewesen sein
MiamiNice
2020-09-05, 19:40:35
Wenn Customs mit über 500 Watt kommen, wie kommst Du darauf das der Chip mit 350 Watt schon am Ende ist?
Es gab auch schon Bilder mit Taktraten jenseits der 2Ghz. Standardboost sind 1,7Ghz.
500 Watt? :ulol: Ab Werk oder als maximales Powerlimit?
MfG
Raff
dargo
2020-09-05, 20:01:42
Es gab auch schon Bilder mit Taktraten jenseits der 2Ghz. Standardboost sind 1,7Ghz.
Das ist der offizielle Boost von NV. Noch weiß niemand wie hoch der reale Boost in Games tatsächlich ist. Der war schon bei Turing einiges höher als in den offiziellen Daten angegeben.
pilzsammler2002
2020-09-05, 20:06:41
500 Watt? :ulol: Ab Werk oder als maximales Powerlimit?
MfG
Raff
Glaube viele sehen 3x8-Pin und gehen direkt vom maximalen aus... Das war aber schon bei der Nitro 64 Limited nicht der Fall :)
Trotzdem bin ich selber sehr überrascht über die 350w official :freak:
Gouvernator
2020-09-05, 20:07:26
500 Watt? :ulol: Ab Werk oder als maximales Powerlimit?
MfG
Raff
Nur her damit. Ich hatte weit über 400W mit einer GTX480@900Mhz und das mal 4 als Quad SLI. Das 1600W Netzteil von damals steckt noch immer in meinem PC. Mit einem dedizierten Kreislauf und Triple Radi ist das problemlos zu kühlen.
Gauron Kampeck
2020-09-05, 20:08:23
In den ganzen technischen Berichten zur 3000er Serie dieses Wochenende steht ja, dass Ampere im Gegensatz zu Turing Shader, RT und Tensor gleichzeitig kann, wenn die Software das unterstützt. Kann es sein, dass ein Teil der erhöhten Leistungsaufnahme daher kommt, da die TDP genau diesen Fall einbezieht?
dargo
2020-09-05, 20:18:30
In den ganzen technischen Berichten zur 3000er Serie dieses Wochenende steht ja, dass Ampere im Gegensatz zu Turing Shader, RT und Tensor gleichzeitig kann, wenn die Software das unterstützt. Kann es sein, dass ein Teil der erhöhten Leistungsaufnahme daher kommt, da die TDP genau diesen Fall einbezieht?
Warum sollte das genau in so einem Szenario sein? Oder anders gefragt... warum sollte man ohne so ein Szenario Leistung verschenken? Moderne GPUs haben schon lange ein modernes Powermanagement welches sich den Gegebenheiten entsprechend schnell in ms anpasst. Du hast ein Powerlimit X (vom IHV gewählter Betriebspunkt) und wenn eine Szenario weniger GPU-Last erzeugt wird entsprechend der Takt angehoben um dieses Powerlimit auszureizen. Das ist nun wirklich nichts Neues.
Troyan
2020-09-05, 20:18:42
Durch den Boost und den deutlich besseren Kühler (wie bei Turing Custom-Karten) können die Karten bis zum oberen Ende des Taktlimits laufen. Heißt also, wenn weniger Last auf den Cores liegt, dann wird die Taktrate erhöht. Das ist ineffizienter als eine deutlich bessere Auslastung bei niedrigen Taktraten.
Die <=320W der 3080 werden also immer erreicht. Entweder mit hohen Takt (~1920MHz) oder aber bei der viel besseren Ausnutzung der Einheiten (deutliche Mehrleistung gegenüber Turing).
500 Watt? :ulol: Ab Werk oder als maximales Powerlimit?
MfG
Raff
Japp >500W. Die Customs haben halt ein PL von 150%. Zudem sollten dich die Werte nicht wundern bei Turing mit 400W Vbios
=Floi=
2020-09-05, 20:28:11
nachdem der wert im grunde gelockt ist und man ihn bequem nach unten regeln kann, freut mich der 350+ wert besonders. Das drosselt die karten in extremsituationen nicht.
nachdem der wert im grunde gelockt ist und man ihn bequem nach unten regeln kann, freut mich der 350+ wert besonders. Das drosselt die karten in extremsituationen nicht.
Die 3090 ist echt ne geile Karte, aber die 115% PL reichen bei der FE nicht aus um das Potential zu entfachen. Auch hier Fullcover Wakü für Front und Back und dann mal schauen was geht
BoMbY
2020-09-05, 20:52:06
Glaube viele sehen 3x8-Pin und gehen direkt vom maximalen aus...
Wenn man 3x8-Pin verbaut wird man vermutlich mit mehr als 450W rechnen ...
Hauwech
2020-09-05, 20:54:32
Wenn Customs mit über 500 Watt kommen, wie kommst Du darauf das der Chip mit 350 Watt schon am Ende ist?
Es gab auch schon Bilder mit Taktraten jenseits der 2Ghz. Standardboost sind 1,7Ghz.
Die ganze Karte hat eine TDP von 350W. Wenn die Spekus laut Igor von vor ein paar Wochen stimmen, dann liegt der Chip selber bei ~230W und die 24GB G6x Speicher ziehen schon alleine ~60W.
Anscheinend hat er ja schon Ampere in seinem Labor und mit seinem Equipment, dürfte er nach NDA Fall schon recht akkurate Werte liefern. 2GHz+ gab es ja anscheinend schon zu sehen. Also mal abwarten was er da so raushaut. Wäre natürlich interessant wenn er auch noch UV Werte liefern könnte. :smile:
Orbmu2k
2020-09-05, 20:54:35
Die 3090 ist echt ne geile Karte, aber die 115% PL reichen bei der FE nicht aus um das Potential zu entfachen. Auch hier Fullcover Wakü für Front und Back und dann mal schauen was geht
Die 3090 FE dürfte sogar nur +7% PT haben, war zumindest auf einem der Screenshots letztens zu sehen. Die +15% war nur die 3080 FE.
Die 3090 FE dürfte sogar nur +7% PT haben, war zumindest auf einem der Screenshots letztens zu sehen. Die +15% war nur die 3080 FE.
Ich rede ja nicht von der FE, sondern von Customs, welche allein der Anbindung wegen 525W bereit stellen.
Thunder99
2020-09-05, 21:08:26
Einfach nur krank, sorry. Zu viel nach meiner Meinung
Platos
2020-09-05, 21:12:36
Als ob man von der Anzahl Stecker auf den Stromverbrauch ab Werk schliessen könnte... Man könnte meinen ihr habt noch nie ne Grafikkarte gesehen.
Als ob man von der Anzahl Stecker auf den Stromverbrauch ab Werk schliessen könnte... Man könnte meinen ihr habt noch nie ne Grafikkarte gesehen.
Enthusiast-Level, sprich die Leute, welchen die Kohle egal ist. Zudem weiß ich anhand der Stecker, was mir zur Verfügung steht
woodsdog
2020-09-05, 21:41:04
also was nun? 350W Stock -> 500W bringt was bei Turing? oder doch nix?
350W sind praktisch die Grenze mit Luftkülung, was soll da noch gehen? Hitzewellen werden uns überrollen.
unl34shed
2020-09-05, 21:43:36
Ich dachte die Tensor Leistung sei bei Ampere verdoppelt worden, aber das ist ja nur durch Sparse. Das man damit wirbt hat irgendwie auch ein Gschmäckle.
https://www.pcgameshardware.de/screenshots/original/2020/09/GeForce-30-Series-Tech-Day_Arch_Hardware_Seite_19-pcgh.jpg
Platos
2020-09-05, 21:47:30
@ Raff: Hab mir mal den PCGH Artikel durchgelesen:
Was unterscheidet nun eigentlich das "neue" 8K DLSS mittels DSR von der "alten" möglichkeit, die ihr mal ausgetestet habt? Das hat doch schon vorher funktioniert, oder nicht? Worin unterscheidet sich das ?
Und bezüglich RTX IO: Wo gehen die Daten nach der GPU hin? In den RAM oder in den Grafikspeicher? Denn direkt von einer SSD zu streamen, wird doch deutlich zu langsam sein. Ich nehme also an, es geht weiterhin in den CPU RAM, nur wird es nicht von der CPU dekomprimiert, richtig
Enthusiast-Level, sprich die Leute, welchen die Kohle egal ist. Zudem weiß ich anhand der Stecker, was mir zur Verfügung steht
Was hat das jetzt mit Kohle und den Leuten zu tun?
Nein, das weisst du nicht, ausser du machst BIOS/Hardware Mods. Du weisst, was dir zur Verfügung steht, wenn das Powertarget bekannt ist und nicht anhand der Stecker.
Badesalz
2020-09-05, 22:29:04
Du hast ein Powerlimit X (vom IHV gewählter Betriebspunkt) und wenn eine Szenario weniger GPU-Last erzeugt wird entsprechend der Takt angehoben um dieses Powerlimit auszureizen. Das ist nun wirklich nichts Neues.Da hab ich wohl noch Defizite :redface: Wozu war das nochmal gut? Wenn man grad kurz weniger GPU-Last hat, hängts irgendwo an der CPU oder am Speicherinterface. Was macht man dann mit dem kurzzeitig erhöhten GPU-Takt?
Bei einer APU, grad auch jetzt wie die nexgen Konsolen es machen, ist das naütrlich was anderes. Da erschliesst sich einem der Sinn quasi sofort.
@ Raff: Hab mir mal den PCGH Artikel durchgelesen:
Was unterscheidet nun eigentlich das "neue" 8K DLSS mittels DSR von der "alten" möglichkeit, die ihr mal ausgetestet habt? Das hat doch schon vorher funktioniert, oder nicht? Worin unterscheidet sich das ?
Ich kenne auch nur das, was public ist. Dort ist ersichtlich, dass das ein gezielt auf 8K ausgelegter Modus ist. Heißt: Stellt man 8K ein und aktiviert man den DLSS-Modus Ultra Performance, wird intern mit WQHD gerechnet. Das ist ein Neuntel (!) der Gesamt-/Zielauflösung. Würde man das bei verbreiteten Pixelmengen aktivieren, hätte man Tetris. Und aktiviert man stattdessen DLSS Quality in 8K, ist das immer noch verflucht viel Auflösung. DLSS UP ist also nur ein hübscher "Cheat", um mit 8K zu werben. Klar soweit? :)
MfG
Raff
MiamiNice
2020-09-05, 22:38:27
Als ob man von der Anzahl Stecker auf den Stromverbrauch ab Werk schliessen könnte... Man könnte meinen ihr habt noch nie ne Grafikkarte gesehen.
Das Gefühl habe ich auch :freak:
@Raff: Dein Artikel ist super und ganz ohne Paywall. Ich bin regelrecht begeistert;)
Als ob man von der Anzahl Stecker auf den Stromverbrauch ab Werk schliessen könnte... Man könnte meinen ihr habt noch nie ne Grafikkarte gesehen.
Hab da so ein Deja vu ��
Ein Neuntel der Auflösung mit SSAA - und wenn ja, welcher Grad?
nairune
2020-09-05, 22:53:55
Da hab ich wohl noch Defizite :redface: Wozu war das nochmal gut? Wenn man grad kurz weniger GPU-Last hat, hängts irgendwo an der CPU oder am Speicherinterface. Was macht man dann mit dem kurzzeitig erhöhten GPU-Takt?
Bei einer APU, grad auch jetzt wie die nexgen Konsolen es machen, ist das naütrlich was anderes. Da erschliesst sich einem der Sinn quasi sofort.
Das ist gut, da unterschiedliche Spiele die GPU unterschiedlich auslasten.
Wenn die GPU nichts zu tun hat, da z.B. im CPU-Limit, geht sie in den "idle" oder taktet zumindest runter, das hat gar nichts damit zu tun.
Ein Forza Horizon 4 oder Horizon Zero Dawn z.B. lasten die GPU nicht gut aus: sie verbraucht verhältnismäßig wenig Strom. Da das Powerlimit somit Luft nach oben lässt, taktet die Karte einfach höher und tada, man hat mehr Leistung als wenn der Takt festgetackert wäre. Dann hätte man nämlich auf den worst case (power virus) kalkulieren müssen und er wäre entsprechend niedriger.
@Raff: Dein Artikel ist super und ganz ohne Paywall. Ich bin regelrecht begeistert;)
Bitte, danke. Nur einer von vielen demnächst. =)
MfG
Raff
MiamiNice
2020-09-05, 23:11:18
Ich habe zu danken! GZ!
dargo
2020-09-05, 23:15:51
Da hab ich wohl noch Defizite :redface: Wozu war das nochmal gut? Wenn man grad kurz weniger GPU-Last hat, hängts irgendwo an der CPU oder am Speicherinterface. Was macht man dann mit dem kurzzeitig erhöhten GPU-Takt?
Bei einer zu geringen GPU-Last (also starken CPU-Last) verringert sich der GPU-Takt da eine Erhöhung eh nichts außer etwas mehr Stromverbrauch bringt. Spielen hier echt so viele ohne ein Overlay? :tongue:
MiamiNice
2020-09-06, 00:02:20
Was ist ein „Overlay“? Bist Du wichtig? :p
Platos
2020-09-06, 00:17:34
Ich kenne auch nur das, was public ist. Dort ist ersichtlich, dass das ein gezielt auf 8K ausgelegter Modus ist. Heißt: Stellt man 8K ein und aktiviert man den DLSS-Modus Ultra Performance, wird intern mit WQHD gerechnet. Das ist ein Neuntel (!) der Gesamt-/Zielauflösung. Würde man das bei verbreiteten Pixelmengen aktivieren, hätte man Tetris. Und aktiviert man stattdessen DLSS Quality in 8K, ist das immer noch verflucht viel Auflösung. DLSS UP ist also nur ein hübscher "Cheat", um mit 8K zu werben. Klar soweit? :)
MfG
Raff
D.h WQHD ist die Renderauflösung bei dem höchsten Qualy-Modus ? Das wäre schade. Habe gehofft, es gibt vlt. noch höhere Settings. Ich kann mir ehrlich gesagt nicht vorstellen, dass das gut werden kann... Ein Vergleich mit DSR 8k ohne DLSS wäre da interessant. Vergleiche mit 4k nativ und 8k DLSS per DSR wären natürlich auch gut (also dann mit dem "offiziellen" 8k DLSS)
Und guter Artikel, danke. Freue mich schon auf weitere ;)
Was ist denn die höchst mögliche Renderauflösung bei 4K DLSS ?
Was ist ein „Overlay“? Bist Du wichtig? :p
Er meint ein On Screen Display.
BlacKi
2020-09-06, 00:21:35
Bei einer zu geringen GPU-Last (also starken CPU-Last) verringert sich der GPU-Takt da eine Erhöhung eh nichts außer etwas mehr Stromverbrauch bringt. Spielen hier echt so viele ohne ein Overlay? :tongue:
du bist hier bei nv im fred, das ist das umgekehrt. liegt daran, das umso mehr takt umso mehr drawcalls bearbeitet werden. d.h. geringeres cpu limit wenn wenig gpu last anliegt.
Lawmachine79
2020-09-06, 00:32:06
Ich kenne auch nur das, was public ist. Dort ist ersichtlich, dass das ein gezielt auf 8K ausgelegter Modus ist. Heißt: Stellt man 8K ein und aktiviert man den DLSS-Modus Ultra Performance, wird intern mit WQHD gerechnet. Das ist ein Neuntel (!) der Gesamt-/Zielauflösung. Würde man das bei verbreiteten Pixelmengen aktivieren, hätte man Tetris. Und aktiviert man stattdessen DLSS Quality in 8K, ist das immer noch verflucht viel Auflösung. DLSS UP ist also nur ein hübscher "Cheat", um mit 8K zu werben. Klar soweit? :)
MfG
Raff
Funktioniert der Cheat denn?
pixeljetstream
2020-09-06, 00:35:35
D.h WQHD ist die Renderauflösung bei dem höchsten Qualy-Modus ?
Der Modus mit der niedrigsten Qualität, daher der Name ultra performance wie von Raff geschrieben.
just4FunTA
2020-09-06, 00:38:27
Bitte, danke. Nur einer von vielen demnächst. =)
MfG
Raff
Habe es eben mal überflogen, kein Wort zum Vram? Eine Einschätzung fände ich interessant, ist doch das Thema aktuell was die RTX30X0 Karten angeht.
Würde gerne umsteigen aber die 10gb VRAM machen mir echt sorgen. Ein Gedanke war schon wenn ich eh davon ausgehen muss das ich die Auflösung bei einem Battlefield 6 runterschrauben muss damit der VRAM nicht überläuft und sich alles zutoderuckelt wie sinnvol ist es dann 200€ mehr auszugeben für die RTX3080?
Sollte man sich lieber gleich damit abfinden das man die Auflösung eh runterschrauben muss damit der VRAM ausreicht und dann spart man sich die 200€ Aufpreis und greift zu RTX3070? :freak::confused:
Orbmu2k
2020-09-06, 00:49:44
Und bezüglich RTX IO: Wo gehen die Daten nach der GPU hin? In den RAM oder in den Grafikspeicher? Denn direkt von einer SSD zu streamen, wird doch deutlich zu langsam sein. Ich nehme also an, es geht weiterhin in den CPU RAM, nur wird es nicht von der CPU dekomprimiert, richtig
Nope, das soll direkt die Texturen und Assets usw. von der SSD in den VRAM streamen ohne Umweg über CPU und RAM. Zusätzlich können die Assests komprimiert abgelegt sein und von der GPU dekomprimiert werden, damit verdoppelt sich ca. nochmal die Bandbreite.
Platos
2020-09-06, 00:54:02
Der Modus mit der niedrigsten Qualität, daher der Name ultra performance wie von Raff geschrieben.
Ach so, habs falsch gelesen. Ist denn bekannt/erlaubt zu sagen, was die höchste Renderauflösung bei 8K DLSS ist?
Bin seit den letzten 4 Jahren mal wieder gespannt :D 8K wäre schon sehr nice. mit einer 3080 20GB wäre das genau das richtige für dieses Jahr, neben eine PS5.
Hoffe nur, sie kostet keine 999 sondern 799- aller, aller höchstens 899.
Nope, das soll direkt die Texturen und Assets usw. von der SSD in den VRAM streamen ohne Umweg über CPU und RAM. Zusätzlich können die Assests komprimiert abgelegt sein und von der GPU dekomprimiert werden, damit verdoppelt sich ca. nochmal die Bandbreite.
Und gibts dazu auch eine Quelle? Eine Quelle, die das explizit nennt?
Ich glaube da nicht so richtig dran. NVME SSDs sind niemals genug schnell um zu streamen. Auch die PS5 streamt nicht direkt von der SSD. Dabei gehts auch nicht um die seq. Leseraten sondern um die Zugriffszeiten. Der Grafikspeicherverbrauch müsste auch steigen, da der RAM deutlich mehr in den Grafikspeicher laden kann, wie die SSD.
Troyan
2020-09-06, 01:02:29
Es gibt vier Preset bei DLSS2.0 für Renderauflösung:
1/2 - Quality
1/3 - Balanced
1/4 - Performance
1/9 - High Performance
DLSS nutzt intern immer Bruchteile der Zielauflösung, hier im Detail erklärt: https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Mechwarrior-5-DLSS-Test-Control-DLSS-Test-1346257/
In Zukunft haben wir also vier DLSS-Modi (Quality, Balanced, Performance, Ultra Performance), wobei Letzterer hoffentlich nicht nur in 8K, sondern generell ab/jenseits von Ultra HD verfügbar sein wird. Um auszurechnen, was in 7.680 × 4.320 intern anliegt: Einfach die Pixelachsen durch 1,5, 1,725, 2 oder 3 Teilen (entspricht den Modi Q, B, P UP). 8K ausmultipliziert:
5.120 × 2.880 mit DLSS Q
4.452 × 2.504 mit DLSS B
3.840 × 2.160 mit DLSS P
2.560 × 1.440 mit DLSS UP
MfG
Raff
Orbmu2k
2020-09-06, 01:06:37
Und gibts dazu auch eine Quelle? Eine Quelle, die das explizit nennt?
NVME SSDs sind niemals genug schnell um zu streamen. Auch die PS5 streamt nicht direkt von der SSD.
Das ist der ganze Sinn dahinter, bisher geht es ja, egal ob komprimiert oder nicht, super langsam erstmal durch die CPU/RAM und dann erst in den VRAM.
Siehe Nvidia Slides:
https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Specials/RTX-3090-RTX-3080-RTX-3070-Launch-kaufen-1357443/galerie/3433127/?fullsize
https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Specials/RTX-3090-RTX-3080-RTX-3070-Launch-kaufen-1357443/galerie/3433128/?fullsize
https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Specials/RTX-3090-RTX-3080-RTX-3070-Launch-kaufen-1357443/galerie/3433129/?fullsize
https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Specials/RTX-3090-RTX-3080-RTX-3070-Launch-kaufen-1357443/galerie/3433130/?fullsize
https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Specials/RTX-3090-RTX-3080-RTX-3070-Launch-kaufen-1357443/galerie/3433131/?fullsize
https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Specials/RTX-3090-RTX-3080-RTX-3070-Launch-kaufen-1357443/galerie/3433132/?fullsize
https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Specials/RTX-3090-RTX-3080-RTX-3070-Launch-kaufen-1357443/galerie/3433133/?fullsize
https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Specials/RTX-3090-RTX-3080-RTX-3070-Launch-kaufen-1357443/galerie/3433134/?fullsize
https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Specials/RTX-3090-RTX-3080-RTX-3070-Launch-kaufen-1357443/galerie/3433135/?fullsize
Rampage 2
2020-09-06, 01:08:35
Es gibt vier Preset bei DLSS2.0 für Renderauflösung:
1/2 - Quality
1/3 - Balanced
1/4 - Performance
1/9 - High Performance
Gibt's auch eine 1/2 DLSS-Renderauflösung für 1440p (2560x1440), also 1280x720? Wenn ja, welchem Preset würde das entsprechen?
OT: Gibt's eigentlich neue News zu der hypothetischen 3070 Ti/Super mit dem vollen GA104-chip? :)
R2
BlacKi
2020-09-06, 01:13:22
Gibt's auch eine 1/2 DLSS-Renderauflösung für 1440p (2560x1440), also 1280x720? Wenn ja, welchem Preset würde das entsprechen?
OT: Gibt's eigentlich neue News zu der hypothetischen 3070 Ti/Super mit dem vollen GA104-chip? :)
R2
du zitierst die antwort auf deine frage.
Rampage 2
2020-09-06, 01:20:18
DLSS nutzt intern immer Bruchteile der Zielauflösung, hier im Detail erklärt:
https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Mechwarrior-5-DLSS-Test-Control-DLSS-Test-1346257/
In Zukunft haben wir also vier DLSS-Modi (Quality, Balanced, Performance, Ultra Performance), wobei Letzterer hoffentlich nicht nur in 8K, sondern generell ab/jenseits von Ultra HD verfügbar sein wird. Um auszurechnen, was in 7.680 × 4.320 intern anliegt: Einfach die Pixelachsen durch 1,5, 1,725, 2 oder 3 Teilen (entspricht den Modi Q, B, P UP). 8K ausmultipliziert:
5.120 × 2.880 mit DLSS Q
4.452 × 2.504 mit DLSS B
3.840 × 2.160 mit DLSS P
2.560 × 1.440 mit DLSS UP
MfG
Raff
Müssten die nicht-ganzzahligen Dividenten nicht völlig schrott aussehen vgl. mit 1/[2x2] oder 1/[3x3] :| Schließlich werden bei Ersterem nicht ganze Pixel verarbeitet, sondern "halbe", "drittel" bzw. unvollständige Pixel - das kann ja wohl nicht scharf aussehen!
aths schrieb 2014 in einem Artikel zu DSR/Downsampling (zum Maxwell-Launch), dass nur 2x2 ein wirklich gutes & scharfes Bild liefert und der Rest (1.5, 1.333, etc.) deutlich schlechter aussieht...
du zitierst die antwort auf deine frage.
Huch, stimmt! Hatte ich anfangs übersehen - d.h. also 1/2 (1280x720) entspricht dem "Quality"-Preset? :)
R2
BlacKi
2020-09-06, 01:38:02
Huch, stimmt! Hatte ich anfangs übersehen - d.h. also 1/2 (1280x720) entspricht dem "Quality"-Preset? :)
R2
nein^^ das zitierte ist nicht auf 1440p anwendbar wenn ich richtig liege.
Troyan
2020-09-06, 01:39:53
Es ist auf jede Auflösung anwendbar. Bei 1440p entspricht die Renderauflösung 720p 1/4 ergo Performance.
MiamiNice
2020-09-06, 01:44:02
Habe es eben mal überflogen, kein Wort zum Vram? Eine Einschätzung fände ich interessant, ist doch das Thema aktuell was die RTX30X0 Karten angeht.
Würde gerne umsteigen aber die 10gb VRAM machen mir echt sorgen. Ein Gedanke war schon wenn ich eh davon ausgehen muss das ich die Auflösung bei einem Battlefield 6 runterschrauben muss damit der VRAM nicht überläuft und sich alles zutoderuckelt wie sinnvol ist es dann 200€ mehr auszugeben für die RTX3080?
Sollte man sich lieber gleich damit abfinden das man die Auflösung eh runterschrauben muss damit der VRAM ausreicht und dann spart man sich die 200€ Aufpreis und greift zu RTX3070? :freak::confused:
Das ist ein purer technik Artikel. Für Deine Belange musst noch paar Tage warten. :biggrin: Wer zu viel schreibt bekommt eins mit Jensens RGB Pfannenwender auf den Allerwertesten
;)
Müssten die nicht-ganzzahligen Dividenten nicht völlig schrott aussehen vgl. mit 1/[2x2] oder 1/[3x3] :| Schließlich werden bei Ersterem nicht ganze Pixel verarbeitet, sondern "halbe", "drittel" bzw. unvollständige Pixel - das kann ja wohl nicht scharf aussehen!
aths schrieb 2014 in einem Artikel zu DSR/Downsampling (zum Maxwell-Launch), dass nur 2x2 ein wirklich gutes & scharfes Bild liefert und der Rest (1.5, 1.333, etc.) deutlich schlechter aussieht...
Zu Aths Zeiten gab es allerdings keine KI *hust*, da wurde nur simpel hochskaliert. Heute ist das natürlich ganz anders. Von skalieren will keiner mehr was hören. Das ist alles total imba ai - und morgen überrennt uns Skynet :)
Orbmu2k
2020-09-06, 01:48:57
@Raff: Ist der DLSS UP Modus überhaupt für alle RTX Karten frei? NV bewirbt ja explizit die 3090 als 8K Gaming. Die WQHD Source für 8K sollte ja in den meisten Spielen auch mit kleineren Karten kein Problem sein.
BlacKi
2020-09-06, 02:11:19
Es ist auf jede Auflösung anwendbar. Bei 1440p entspricht die Renderauflösung 720p 1/4 ergo Performance.
NJA, 720p render ist halt einfach nicht 1/2 von 1440p. es ist nicht Q sondern P.
Platos
2020-09-06, 02:22:44
DLSS nutzt intern immer Bruchteile der Zielauflösung, hier im Detail erklärt: https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Mechwarrior-5-DLSS-Test-Control-DLSS-Test-1346257/
In Zukunft haben wir also vier DLSS-Modi (Quality, Balanced, Performance, Ultra Performance), wobei Letzterer hoffentlich nicht nur in 8K, sondern generell ab/jenseits von Ultra HD verfügbar sein wird. Um auszurechnen, was in 7.680 × 4.320 intern anliegt: Einfach die Pixelachsen durch 1,5, 1,725, 2 oder 3 Teilen (entspricht den Modi Q, B, P UP). 8K ausmultipliziert:
5.120 × 2.880 mit DLSS Q
4.452 × 2.504 mit DLSS B
3.840 × 2.160 mit DLSS P
2.560 × 1.440 mit DLSS UP
MfG
Raff
Ah so, danke für die Info, den Artikel lese ich noch. Aber das ist doch gut zu hören. Bin ja gespannt, wie das dann aussieht (und wie viel FPS man noch kriegt mit einer 3080 in den Modis). Wenn 8k per DLSS spielbar wird, wird auch ein 8K Monitor/TV für mich interessant (wobei diese momentan noch extrem Stromhungrig/ineffizient sind...und teuer).
Das ist der ganze Sinn dahinter, bisher geht es ja, egal ob komprimiert oder nicht, super langsam erstmal durch die CPU/RAM und dann erst in den VRAM.
Siehe Nvidia Slides:
https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Specials/RTX-3090-RTX-3080-RTX-3070-Launch-kaufen-1357443/galerie/3433127/?fullsize
https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Specials/RTX-3090-RTX-3080-RTX-3070-Launch-kaufen-1357443/galerie/3433128/?fullsize
https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Specials/RTX-3090-RTX-3080-RTX-3070-Launch-kaufen-1357443/galerie/3433129/?fullsize
https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Specials/RTX-3090-RTX-3080-RTX-3070-Launch-kaufen-1357443/galerie/3433130/?fullsize
https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Specials/RTX-3090-RTX-3080-RTX-3070-Launch-kaufen-1357443/galerie/3433131/?fullsize
https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Specials/RTX-3090-RTX-3080-RTX-3070-Launch-kaufen-1357443/galerie/3433132/?fullsize
https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Specials/RTX-3090-RTX-3080-RTX-3070-Launch-kaufen-1357443/galerie/3433133/?fullsize
https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Specials/RTX-3090-RTX-3080-RTX-3070-Launch-kaufen-1357443/galerie/3433134/?fullsize
https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Specials/RTX-3090-RTX-3080-RTX-3070-Launch-kaufen-1357443/galerie/3433135/?fullsize
Schau' ich mir morgen mal genauer an.
MiamiNice
2020-09-06, 02:44:18
@Raff: Ist der DLSS UP Modus überhaupt für alle RTX Karten frei? NV bewirbt ja explizit die 3090 als 8K Gaming. Die WQHD Source für 8K sollte ja in den meisten Spielen auch mit kleineren Karten kein Problem sein.
afaik is 8k 3099 only.
just4FunTA
2020-09-06, 02:47:53
afaik is 8k 3099 only.
Nicht wirklich, die werben bloß damit das die 3090 so super toll und schnell ist das sie sogar 8k schafft, aber 8k geht natürlich auch mit den anderen Karten..
Cubitus
2020-09-06, 03:34:33
Nicht wirklich, die werben bloß damit das die 3090 so super toll und schnell ist das sie sogar 8k schafft, aber 8k geht natürlich auch mit den anderen Karten..
Solange der Vram reicht dürfte es gut laufen...
Gouvernator
2020-09-06, 05:39:32
Nicht wirklich, die werben bloß damit das die 3090 so super toll und schnell ist das sie sogar 8k schafft, aber 8k geht natürlich auch mit den anderen Karten..
10Gb ist arg an der Grenze. Forza Horizon 4 knallt 8Gb in 8K komplett voll.
Habe ein Benchmark mit GTX1080 laufen lassen ohne Motion Blur und AA: 4k = 63FPS, 8K=21 FPS. Eine 3090 ist in 8K mit 78 FPS sogar schneller als eine 1080 in 4K. Der limitierende Faktor wird bei einer 3080 also immer der VRAM sein. Es ist bei solcher Leistung der 3090 auch noch Luft für 16K@30FPS. Weil auch der VRAM nicht ausgeht. Und bei älteren Games kann man dann grundsätzlich 16K fahren.
dildo4u
2020-09-06, 05:44:56
FH4 ist kein Maßstab das ist extrem GPU schonend ich zocke das in 4k auf meiner 1070.Ihr überschätz die neuen Karten selbst Cross Gen Games wie Control brechen ihnen schon ohne DLSS das Genick.
Leonidas
2020-09-06, 06:00:02
Onkel Igor hinterfragt die "10496" Cuda-Cores der RTX 3090.
Textform:
https://www.igorslab.de/technische-details-zur-geforce-rtx-3000-mehr-als-nur-eine-wundersame-vermehrung-der-shader/
Entspricht grob dem, was auch schon auf 3DC stand:
https://www.3dcenter.org/news/wie-gaming-ampere-die-verdoppelte-anzahl-shader-einheiten-erreicht
Badesalz
2020-09-06, 06:38:16
In Zukunft haben wir also vier DLSS-Modi (Quality, Balanced, Performance, Ultra Performance), wobei Letzterer hoffentlich nicht nur in 8K, sondern generell ab/jenseits von Ultra HD verfügbar sein wird.Warum sollte ausgerechnet der Super-Mud-Mode "hoffentlich" generell verfügbar sein?? :|
Wenn die GPU nichts zu tun hat, da z.B. im CPU-Limit, geht sie in den "idle" oder taktet zumindest runter, das hat gar nichts damit zu tun.Wie? Das war doch nicht der Punkt. dargo sprach davon, daß sie dann höher Takten kann, weil der Powerlimit nicht ausgeschöpft wird.
Da das Powerlimit somit Luft nach oben lässt, taktet die Karte einfach höher und tada, man hat mehr Leistung als wenn der Takt festgetackert wäre.Und was hat man davon, wenn die GPU schon davor nicht "ausgelastet" war? Mehr Däumchendreh-Takte?
dildo4u
2020-09-06, 06:51:53
Du brauchst super Performance für die kleinen Karten NV und AMD werden RayTracing Karten für 200€ haben.
Badesalz
2020-09-06, 07:12:49
Ah so. Dachte mit kleineren Karten fährt man generell niedrigere Auflösungen und dann passt es. Daß es ein Vorteil ist dabei auch noch die Bildquali so massiv zu degradieren, das wusste ich nicht...
dildo4u
2020-09-06, 07:24:57
Klar ist es von Vorteil die Low End Karten werden beim Vram sparen, wenn Nvidia schon bei 500€ nur 8GB gibt.
Würde mich nicht wundern wenn es weiterhin 4GB 3050 oder so gibt.
Gouvernator
2020-09-06, 07:29:35
FH4 ist kein Maßstab das ist extrem GPU schonend ich zocke das in 4k auf meiner 1070.Ihr überschätz die neuen Karten selbst Cross Gen Games wie Control brechen ihnen schon ohne DLSS das Genick.
Mir ist es eigentlich egal wie eine 3090 unter modernen Games performt. DLSS auch egal. Es geht primär um schon bestehende Spielbibliothek inklusive Emulatoren. Wenn ich mit Forza 63 FPS habe unter 4K und mit 3090 8K/78 FPS bekomme, dann bedeutet es ich kann grundsätzlich alle Games die ich mit GTX1080 in 4K zocke übergangslos mit 8K zocken. Mit einer RTX 3080 ist es aber nicht der Fall, weil die 10Gb VRAM vorne weg limitieren.
Badesalz
2020-09-06, 07:52:24
Klar ist es von Vorteil die Low End Karten werden beim Vram sparen, wenn Nvidia schon bei 500€ nur 8GB gibt.
Würde mich nicht wundern wenn es weiterhin 4GB 3050 oder so gibt.Selbst wenn man von dem hohen Ross absteigt und sich dafür auch gleich auf dem Boden legt: Ist die daraus resultierende Grafik dann für Menschen die PCs hassen und man sie so foltern möchte (Nigeria? Usbekistan?) oder um 8jährige zu überschaubaren Kosten mit PC-Gaming anzufixen?
@Gouvernator
Wie sieht das eigentlich auf den großen 8k Monitoren aus, wenn die Linien zwar immer feiner werden, der sonstige Content aber unverändert bleibt? Oder spielst du nur die Titel für welche es GB-große Textures/Assets-Mods gibt?
ChaosTM
2020-09-06, 08:28:23
Die 8/10GB Karten sind einfach nur Müll, den man mit DLSS aufhübschen will/muss.
DLSS wäre perfekt, wenn es denn überall auch perfekt funktionieren würde, ohne Artefakte.
So ist es bisher nur Flickwerk.
Ein zwar sehr schönes Flickwerk wenn es funktioniert, was aber bisher nicht immer der Fall ist..
Bei Control hat es ein Jahr gebraucht bis es richtig einsetzbar war. Ich will lieber richtigen Speicher auf der Karte anstatt Smoke Screens in Software ..
Gouvernator
2020-09-06, 08:31:41
@Gouvernator
Wie sieht das eigentlich auf den großen 8k Monitoren aus, wenn die Linien zwar immer feiner werden, der sonstige Content aber unverändert bleibt? Oder spielst du nur die Titel für welche es GB-große Textures/Assets-Mods gibt?
Es sieht so aus wie man es eigentlich immer haben will. Alles wirkt viel definierter. Bei halbwegs modernen Games holst du in 8K noch viel heraus aus bestehendem Content. Bis zur Zeit von Battlefield 2 oder Doom 3 bringt 8K so gut wie nichts. Aber von der Zeit an der Xbox 360 Games fängt es gut an zu wirken. Und ab Serios Sam 3 wirkt es wie Alien-Technologie. Deswegen bin ich ja so heiß auf alte Games in 8K.
Hier ist übrigens der beste und einzige bezahlbarer Gaming 8K zur Zeit.
https://geizhals.de/samsung-gq55q950r-a2091089.html?hloc=at&hloc=de
Sardaukar.nsn
2020-09-06, 08:53:06
10Gb ist arg an der Grenze. Forza Horizon 4 knallt 8Gb in 8K komplett voll.
Habe ein Benchmark mit GTX1080 laufen lassen ohne Motion Blur und AA: 4k = 63FPS, 8K=21 FPS. Eine 3090 ist in 8K mit 78 FPS sogar schneller als eine 1080 in 4K. Der limitierende Faktor wird bei einer 3080 also immer der VRAM sein. Es ist bei solcher Leistung der 3090 auch noch Luft für 16K@30FPS. Weil auch der VRAM nicht ausgeht. Und bei älteren Games kann man dann grundsätzlich 16K fahren.
Wie misst du denn den VRAM bedarf? Da gibt es aktuell erhebliche Unterschiede in der Software. Soviel vorab... RTSS ist dafür im Moment nicht geeignet.
Hervorragender Beitrag zum Thema: https://www.resetera.com/threads/vram-in-2020-2024-why-10gb-is-enough.280976/
dargo
2020-09-06, 08:59:45
Was ist ein „Overlay“? Bist Du wichtig? :p
Das da zum Bleistift.
https://abload.de/image.php?img=2020.09.05-22.19_01ptjbk.jpg
woodsdog
2020-09-06, 09:07:17
Wie misst du denn den VRAM bedarf? Da gibt es aktuell erhebliche Unterschiede in der Software. Soviel vorab... RTSS ist dafür im Moment nicht geeignet.
Hervorragender Beitrag zum Thema: https://www.resetera.com/threads/vram-in-2020-2024-why-10gb-is-enough.280976/
Danke, sehr informativ.
horn 12
2020-09-06, 09:07:25
Nun, laut Igor falls die int32 genutzt werden läuft Ampere Turing davon
Ist dem Nicht der Fall wird es wohl auf 25 bis 40% hinauslaufen,- also stark Spieleabhängig.
Der Gesichtsauszug Igors sagt seinesgleichen, Positiv wie auch Negativ!
dargo
2020-09-06, 09:16:59
Du brauchst super Performance für die kleinen Karten NV und AMD werden RayTracing Karten für 200€ haben.
Ist das denn überhaupt sicher? Bei GA106 würde ich schon davon ausgehen, aber GA107? Da könnte NV genauso wie bei Turing die RT und Tensor Cores rausschmeißen.
Hauwech
2020-09-06, 09:25:15
Nun, laut Igor falls die int32 genutzt werden läuft Ampere Turing davon
Ist dem Nicht der Fall wird es wohl auf 25 bis 40% hinauslaufen,- also stark Spieleabhängig.
Der Gesichtsauszug Igors sagt seinesgleichen, Positiv wie auch Negativ!
Da er offensichtlich schon Karten zum Testen hat, wird er die 40-50% sicher nicht ohne Grund erwähnt haben.
Gouvernator
2020-09-06, 09:27:36
Wie misst du denn den VRAM bedarf?
Ich sehe im Afterburner das VRAM mit über 7.6Gb belegt ist.
woodsdog
2020-09-06, 09:32:38
Ich sehe im Afterburner das VRAM mit über 7.6Gb belegt ist.
:facepalm:
Lies den Link von ihm!
Cubitus
2020-09-06, 09:33:21
Das wird so sein, dass die 3090 GTX im "Touring Modus" also 64 Floatingpoint und 64 Integer Berechnungen, sich deutlicher von der 3080 absetzen wird.
Die Rohpower lässt bei einem fehlenden GPC und eben den 2 nicht ganz ausgebauten GPCs mit je nur 10 SM den Abstand deutlicher werden.
Wer auf der sicheren Seite sein möchte und die Power über die reine Rohleistung abschöpfen will, der wäre in jedem Fall mit der 3090 besser beraten..
Wobei man natürlich auch sagen muss, dass ältere Spiele ja sowieso schon auf den alten Karten sehr gut liefen,
hier geht es dann wiederum nur um die Auflösung und entsprechend bereitgestellten VRAM..
woodsdog
2020-09-06, 09:50:18
Was redest du für einen Quatsch?
Es ist der gleiche Chip mit einem GPC weniger. 20% weniger von exakt der selben Sache soll sich also in Modus A gleich verhalten und in Modus B sich "deutlicher absetzen"? häh? die 3090 wird im schnitt 15-17% schneller sein, ggf einen tick besser takten weil die 3080 vermutlich die gammel-chips abbekommt - das wars aber auch schon.
Ging dann wohl doch um Turing
OgrEGT
2020-09-06, 10:05:13
Wie misst du denn den VRAM bedarf? Da gibt es aktuell erhebliche Unterschiede in der Software. Soviel vorab... RTSS ist dafür im Moment nicht geeignet.
Hervorragender Beitrag zum Thema: https://www.resetera.com/threads/vram-in-2020-2024-why-10gb-is-enough.280976/
Vielen Dank für den Link. Jetzt wäre es sehr informativ wenn man mit diesem Tool den VRAM Verbrauch und nicht die Reservierung dessen in verschiedenen Games @4K nachmessen würde... ich kann es mit meiner Noch-GTX7702G leider nicht :ugly:
robbitop
2020-09-06, 10:06:49
Und Außerdem hatte Alan Turing nichts mit BMW zu tun. ;)
ouring] :D
Wenn viel INT im Spiel ist, sinkt der Abstand zwischen Turing und Ampere. Zu Pascal bleibt der Abstand jeweils gleich.
Ich vermute weiterhin, dass die Limitierung, dass INT nicht zusätzlich zu FP geht, in der Praxis gering sein wird.
1.) Mit so vielen Ausführungseinheiten ist eine hohe Auslastung eh schwierig
2.) Arithmetische Leistung ist nicht der einzige potenzielle Bottleneck
3.) Sind 3D Spiele selten INT lastig (zumeist für das Postprocessing)
————————
Die FPUs zu verdoppeln war ein schlauer Schachzug. Es kostet relativ wenig Transistoren, da viele andere Dinge nicht mitwachsen mussten und es bringt ein gutes Stück Leistung. Mehr Leistung als es relativ Transistoren kostet.
Für eine weitere Effektive Steigerung müsste man allerdings dann die SMs erhöhen und das kostet dann wieder.
Cubitus
2020-09-06, 10:07:10
Was redest du für einen Quatsch?
Es ist der gleiche Chip mit einem GPC weniger. 20% weniger von exakt der selben Sache soll sich also in Modus A gleich verhalten und in Modus B sich "deutlicher absetzen"? häh? die 3090 wird im schnitt 15-17% schneller sein, ggf einen tick besser takten weil die 3080 vermutlich die gammel-chips abbekommt - das wars aber auch schon.
Sry es ist noch etwas früh am morgen :freak:
Eigentlich müsste es so heißen,
Das wird so sein, dass die 3090 GTX im "Turing Modus" also 64 Floatingpoint und 64 Integer Berechnungen, sich deutlicher von der 2080ti absetzen wird. Die Rohpower lässt bei einem fehlenden GPC und eben den 2 nicht ganz ausgebauten GPCs mit je nur 10 SM den Abstand gegenüber der 3080 deutlicher werden.
Ich hatte eigl die 2080ti im Kopf :redface: (Weil ich ja von dort aus wechseln möchte)
und lässt man mal das ganze RT Zeugs bei alten spielen weg, wirst du die 20% Mehrleistung kommend von der alten Genration, natürlich noch deutlicher merken.
ich hätte es auch einfacher schreiben können :freak:
dargo
2020-09-06, 10:10:31
Vielen Dank für den Link. Jetzt wäre es sehr informativ wenn man mit diesem Tool den VRAM Verbrauch und nicht die Reservierung dessen in verschiedenen Games @4K nachmessen würde... ich kann es mit meiner Noch-GTX7702G leider nicht :ugly:
Spezial K kann mal momentan leider vergessen da es kein Overlay für DX12 (Vulkan auch?) gibt.
robbitop
2020-09-06, 10:13:56
Am deutlichsten wird sich die 3090 von der 2080ti absetzen, wenn viel FP Arbeit ansteht. Also 128 fp vs 64 fp.
woodsdog
2020-09-06, 10:14:54
Spezial K kann mal momentan leider vergessen da es kein Overlay für DX12 (Vulkan auch?) gibt.
Ja, kann man komplett vergessen weil es nur für 95% der aktuellen Softwarebasis funktioniert, nicht 100%. Dann lass uns lieber weiter uninformiert auf den VRAM-Used Wert vom Afterburner glotzen. Hauptsache wir haben was gepostet.
Finde den Fehler.
Cubitus
2020-09-06, 10:18:04
Am deutlichsten wird sich die 3090 von der 2080ti absetzen, wenn viel FP Arbeit ansteht. Also 128 fp vs 64 fp.
Ja das sowieso
pixeljetstream
2020-09-06, 10:29:52
Ja, kann man komplett vergessen weil es nur für 95% der aktuellen Softwarebasis funktioniert, nicht 100%. Dann lass uns lieber weiter uninformiert auf den VRAM-Used Wert vom Afterburner glotzen. Hauptsache wir haben was gepostet.
Finde den Fehler.
Wir haben mittlerweile eine thread für die vram Diskussion. IMO braucht es das specialK nicht, weil es APIs bei Nvidia nutzt die Prozess unabhängig sind. Und für AMD es keine api für vram nutzt.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12414892
Die Art zu messen und was man als genutzt definiert ist nicht immer so einfach. Am besten ist es wenn Spiele selbst Statistiken haben. Aber nutzt doch einfach Mal konsequent den thread.
Gouvernator
2020-09-06, 10:34:05
:facepalm:
Lies den Link von ihm!
Jemand von NV versucht uns den Honig ums Maul zu schmieren wegen 10Gb?
Hier VRally 4 in 8K. Der klitzekleine Grafikfehler verrät das die VRAM Auslastung doch korrekt ist? In 4K ist die VRAM Auslastung bei 5Gb.
https://abload.de/img/vrally4_2020_09_06_10ckjub.jpg (https://abload.de/image.php?img=vrally4_2020_09_06_10ckjub.jpg)
Dampf
2020-09-06, 10:38:42
Jemand von NV versucht uns den Honig ums Maul zu schmieren wegen 10Gb?
Hier VRally 4 in 8K. Der klitzekleine Grafikfehler verrät das die VRAM Auslastung doch korrekt ist? In 4K ist die VRAM Auslastung bei 5Gb.
https://abload.de/img/vrally4_2020_09_06_10ckjub.jpg (https://abload.de/image.php?img=vrally4_2020_09_06_10ckjub.jpg)
? Grafikfehler müssen nicht immer mit dem VRAM zusammenhängen.
Und ja, die VRAM Auslastung im MSI Afterburner kann auch korrekt sein, nämlich dann wenn der zugewiesene Bereich des VRAMs auch tatsächlich gebraucht wird. Bei 8K kann das schon mal geschehen.
dargo
2020-09-06, 10:48:44
Ja, kann man komplett vergessen weil es nur für 95% der aktuellen Softwarebasis funktioniert, nicht 100%. Dann lass uns lieber weiter uninformiert auf den VRAM-Used Wert vom Afterburner glotzen. Hauptsache wir haben was gepostet.
Finde den Fehler.
Junge... kühl dich wieder ab. Habe ich gesagt die memory dedicated vom Afterburner hätte irgendwelche Relevanz? :freak: Bei Horizon: Zero Dawn und den bekannten Frametime-Spikes in einigen Gebieten bei <=8GB Grafikkarten mit größer Low Texturen hat es Null Relevanz, der Fehler liegt nämlich wo anders... bei der Anforderung vom dynamischen Speicher. Tut mir leid für dich wenn ich überwiegend mit DX12/Vulkan spiele. Für mich persönlich ist das Tool aktuell leider wertlos. Vielleicht kommt ja bald was für DX12/Vulkan.
pixeljetstream
2020-09-06, 10:57:04
Jemand von NV versucht uns den Honig ums Maul zu schmieren wegen 10Gb?
Ich hoffe du meinst nicht mich damit, da Sinn so eines threads im forum hier ja ist mehr Details zu sammeln und der Problematik des Messens, bzw. des Sachverhalts sich bewusst zu werden.
monstar-x
2020-09-06, 11:02:38
Mir ist es eigentlich egal wie eine 3090 unter modernen Games performt. DLSS auch egal. Es geht primär um schon bestehende Spielbibliothek inklusive Emulatoren. Wenn ich mit Forza 63 FPS habe unter 4K und mit 3090 8K/78 FPS bekomme, dann bedeutet es ich kann grundsätzlich alle Games die ich mit GTX1080 in 4K zocke übergangslos mit 8K zocken. Mit einer RTX 3080 ist es aber nicht der Fall, weil die 10Gb VRAM vorne weg limitieren.
Dazu muss das Spiel erstmal DLSS können, ich wage es stark zu bezweifeln das ältere Spiele dass nachträglich integrieren werden.
Zu dem verhählt es sich mit VRAM bei DLSS ein wenig anders und ist nicht 1:1 mit der nativen Auflösung zu vergleichen, da keine 8K Rendering statt fanden, sondern ein "upscaling"
Frei erfunden Zahlen für ein Beispiel
8K (nativ, max details) = 14GB VRAM
8K (DLSS max. details) 9,8 GB VRAM
Die 8/10GB Karten sind einfach nur Müll, den man mit DLSS aufhübschen will/muss.
DLSS wäre perfekt, wenn es denn überall auch perfekt funktionieren würde, ohne Artefakte.
So ist es bisher nur Flickwerk.
Ein zwar sehr schönes Flickwerk wenn es funktioniert, was aber bisher nicht immer der Fall ist..
Bei Control hat es ein Jahr gebraucht bis es richtig einsetzbar war. Ich will lieber richtigen Speicher auf der Karte anstatt Smoke Screens in Software ..
Ich persönlich mag kein DLSS, das sieht immer viel zu Hart (kontrastreich) und Überschärft aus.
Gerade in deinem Beispiel bei Control, das ja eh einen weichen Filmischen Look hat, stört DLSS sehr.
Sardaukar.nsn
2020-09-06, 11:08:38
Yam Yam:
https://videocardz.com/newz/first-water-blocks-for-geforce-rtx-3090-and-rtx-3080-are-here
Die sind passend für das ominöse neue "reference design", welches im übrigen so aussieht. Gut zu erkennen an der Kerbe hinter dem pcie Slot.
https://i.imgur.com/Nx0t4KB.jpg
Eines von viele kompatiblen Karten wäre z.B. eine Einsteiger Gigabyte Eagle: https://videocardz.net/gigabyte-geforce-rtx-3080-10gb-eagle-oc
Welche bei overclockers.co.uk mit rund 650 Pfund gelistet ist: https://www.overclockers.co.uk/gigabyte-geforce-rtx-3080-eagle-oc-10gb-gddr6x-pci-express-graphics-card-gx-1bv-gi.html
Zergra
2020-09-06, 11:10:02
Wie stellt sich GB mit einem Kühlerwechsel an?
unl34shed
2020-09-06, 11:14:39
Sicher mit der Gigabyte? Der extra DisplayPort scheint von der Referenz abzuweichen.
E:
Vom I/O sollte eher die Strix der Referenz entsprechen. Unten 3x DP in Reihe und dann 1 oder 2x HDMI übereinander.
Hat aber einen PCIe Power Connector zu viel...
https://videocardz.net/asus-geforce-rtx-3080-10gb-rog-strix
Dampf
2020-09-06, 11:21:24
Ich hoffe du meinst nicht mich damit, da Sinn so eines threads im forum hier ja ist mehr Details zu sammeln und der Problematik des Messens, bzw. des Sachverhalts sich bewusst zu werden.
Er meint wohl die Dame auf Resetera, die den Post geschrieben hat, den ich verlinkt hab.
MiamiNice
2020-09-06, 11:31:29
Die sind passend für das ominöse neue "reference design", welches im übrigen so aussieht. Gut zu erkennen an der Kerbe hinter dem pcie Slot.
https://i.imgur.com/Nx0t4KB.jpg
Eines von viele kompatiblen Karten wäre z.B. eine Einsteiger Gigabyte Eagle: https://videocardz.net/gigabyte-geforce-rtx-3080-10gb-eagle-oc
Welche bei overclockers.co.uk mit rund 650 Pfund gelistet ist: https://www.overclockers.co.uk/gigabyte-geforce-rtx-3080-eagle-oc-10gb-gddr6x-pci-express-graphics-card-gx-1bv-gi.html
Danke für das Bild!
Ich hatte aber eher vor eine EVGA zu kaufen. Hast Du da auch Infos?
Ich tippe auf die XC3 von Evga.
€:
Gerade gecheckt: https://www.techpowerup.com/gpu-specs/evga-rtx-3090-xc3.b7941
PG132
Das wird meine Karte + EKWB Block + Backplate
Zu dem verhählt es sich mit VRAM bei DLSS ein wenig anders und ist nicht 1:1 mit der nativen Auflösung zu vergleichen, da keine 8K Rendering statt fanden, sondern ein "upscaling"
Mit dem Wort musst hier aufpassen :)
DLSS ist die fancy AI die aus dem Temporalwirbel in unsere Zeit gestiegen ist um unsere Grafik zu pimpen.
Gouvernator
2020-09-06, 11:36:15
Dazu muss das Spiel erstmal DLSS können, ich wage es stark zu bezweifeln das ältere Spiele dass nachträglich integrieren werden.
Zu dem verhählt es sich mit VRAM bei DLSS ein wenig anders und ist nicht 1:1 mit der nativen Auflösung zu vergleichen, da keine 8K Rendering statt fanden, sondern ein "upscaling"
Frei erfunden Zahlen für ein Beispiel
8K (nativ, max details) = 14GB VRAM
8K (DLSS max. details) 9,8 GB VRAM
DLSS ist reinster Schwindel bei 10Gb VRAM auch. Du kannst damit vielleicht eine handvoll neuster Games in 8K zocken, aber keinen einzigen älteren Titel ohne DLSS. Das ist doch lächerlich.
BigBangBacket
2020-09-06, 11:36:55
Danke für das Bild!
Ich hatte aber eher vor eine EVGA zu kaufen. Hast Du da auch Infos?
Ich tippe auf die XC3 von Evga.
Gibt es schon Infos über eine 3080 Kingpin AiO EVGA?
MiamiNice
2020-09-06, 11:47:03
https://de.evga.com/articles/01434/evga-geforce-rtx-30-series/Default.asp
Die übliche Seite halt.
Emil_i_Lönneberga
2020-09-06, 11:47:12
Sicher mit der Gigabyte? Der extra DisplayPort scheint von der Referenz abzuweichen.
E:
Vom I/O sollte eher die Strix der Referenz entsprechen. Unten 3x DP in Reihe und dann 1 oder 2x HDMI übereinander.
Hat aber einen PCIe Power Connector zu viel...
https://videocardz.net/asus-geforce-rtx-3080-10gb-rog-strix
Denke weder die Gigabyte Aorus noch die Asus Strix.
Eher Palit, Zotac, ...
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12414948#post12414948
Und nach Evga auch die XC3 und Hybrid, gut an der Platinenbreite am Bracket erkennbar. Aber beide ohne die zusätzlichen Tempsensoren auf der Platine. Das gibt es nur bei der FTW3 und einem Hydro Copper Modell.
https://youtu.be/Yr4mx9R6r5g?t=909
https://cdn.videocardz.net/cache/aa53486aecc2c82c1550bf3b7813607c-1200x900.jpg
MasterElwood
2020-09-06, 11:52:09
Die 8/10GB Karten sind einfach nur Müll, den man mit DLSS aufhübschen will/muss.
DLSS wäre perfekt, wenn es denn überall auch perfekt funktionieren würde, ohne Artefakte.
So ist es bisher nur Flickwerk.
Ein zwar sehr schönes Flickwerk wenn es funktioniert, was aber bisher nicht immer der Fall ist..
Bei Control hat es ein Jahr gebraucht bis es richtig einsetzbar war. Ich will lieber richtigen Speicher auf der Karte anstatt Smoke Screens in Software ..
Control ist auch gekommen BEVOR es DLSS 2.0 gab :facepalm:
BlacKi
2020-09-06, 11:53:50
DLSS ist reinster Schwindel bei 10Gb VRAM auch. Du kannst damit vielleicht eine handvoll neuster Games in 8K zocken, aber keinen einzigen älteren Titel ohne DLSS. Das ist doch lächerlich.
vl wirbt man deshalb nur mit 8k dlss gaming und nicht mit 8k gaming^^ ausserdem hat man nur mit der 3090 8k dlss gaming geworben.
mal davon abgesehen, finde ich das thema 8k gaming schon etwas abgefahren. wenn man schon in solche einer nische unterwegs ist, muss man eben zu kompromissen bereit sein.
MasterElwood
2020-09-06, 11:56:03
DLSS ist reinster Schwindel bei 10Gb VRAM auch. Du kannst damit vielleicht eine handvoll neuster Games in 8K zocken, aber keinen einzigen älteren Titel ohne DLSS. Das ist doch lächerlich.
Keiner hat auch jemals behauptet die 3080 wäre eine "8K" Karte :freak:
ChaosTM
2020-09-06, 11:56:04
Ändert nix daran, dass DLSS kein Ersatz für Speicher ist.
MiamiNice
2020-09-06, 11:59:12
Ändert nix daran, dass DLSS kein Ersatz für Speicher ist.
Ist ja nicht gaaaaanz korrekt. Man stellt einfach eine Texturstufe runter und da DLSS ja bekanntlich besser als nativ aussieht - gleicht sich das wieder aus und man spart VRam :freak:
masked__rider
2020-09-06, 11:59:51
DLSS ist reinster Schwindel bei 10Gb VRAM auch. Du kannst damit vielleicht eine handvoll neuster Games in 8K zocken, aber keinen einzigen älteren Titel ohne DLSS. Das ist doch lächerlich.
Die 3080 ist auch keine 8K Karte... Will sie nicht sein und so wurde sie auch nicht positioniert.
Sardaukar.nsn
2020-09-06, 12:02:09
Danke für das Bild!
Ich hatte aber eher vor eine EVGA zu kaufen. Hast Du da auch Infos?
Ich tippe auf die XC3 von Evga.
€:
Gerade gecheckt: https://www.techpowerup.com/gpu-specs/evga-rtx-3090-xc3.b7941
PG132
Das wird meine Karte + EKWB Block + Backplate
...
Bei mir könnte es auch eine EVGA werden, aber 3080. Scheint ebenfalls zu passen: https://www.overclockers.co.uk/evga-geforce-rtx-3080-icx3-10gb-gddr6x-pci-express-graphics-card-gx-329-ea.html
Overclockers.co.uk Preis von 659 Pfund wäre ich mit einverstanden.
DrMabuse1963
2020-09-06, 12:07:15
Könnte DLSS in VR funzen,oder beisst es sich sowieso mit SS auch wenn auf x1 gestellt ist?
Troyan
2020-09-06, 12:12:57
Neue Version von DLSS 2.1 funktioniert nun auch in VR.
nairune
2020-09-06, 12:15:20
Wie? Das war doch nicht der Punkt. dargo sprach davon, daß sie dann höher Takten kann, weil der Powerlimit nicht ausgeschöpft wird.
Und was hat man davon, wenn die GPU schon davor nicht "ausgelastet" war? Mehr Däumchendreh-Takte?
Es gibt zwei verschiedene "Auslastungen": einmal ob die Karte durchgehend rechnet oder Pausen macht (-> CPU-Limit). Das meinst du wahrscheinlich und wird prozentual in diversen Überwachungstools angezeigt.
In diesem Fall geht es aber nicht darum, sondern um die "Intensität" der Auslastung.
Spiel A kann "100%" GPU-Auslastung erzeugen und 220W dabei verbrauchen, bei Spiel B sind es bei gleichem Takt aber nur 180W.
Macht es jetzt klick?
ChaosTM
2020-09-06, 12:16:41
Gibts überhaupt schon VR Games mit DLSS?
Ringing Aretefakte wie sie DLSS zeigt sind normalerweise nicht so gut auf Grund der geringen Sicht-Entfernung.. Wird man von Titel zu Titel beurteilen müssen.
aufkrawall
2020-09-06, 12:19:47
Ringing Aretefakte wie sie DLSS zeigt
Nur in Control afaik.
MiamiNice
2020-09-06, 12:23:47
Bei mir könnte es auch eine EVGA werden, aber 3080. Scheint ebenfalls zu passen: https://www.overclockers.co.uk/evga-geforce-rtx-3080-icx3-10gb-gddr6x-pci-express-graphics-card-gx-329-ea.html
Overclockers.co.uk Preis von 659 Pfund wäre ich mit einverstanden.
Das sollte passen.
Könnte DLSS in VR funzen,oder beisst es sich sowieso mit SS auch wenn auf x1 gestellt ist?
Ich denke die Frage ist eher warum man DLSS in VR nutzen sollte. Schon aktuelle Karten stemmen an VR Games eigentlich alles verfügbare, teils sogar mit dick Downsampling. Mit 40-50% mehr Saft sollte jedes VR Game mit 500% DS rennen. Ganz ohne DLSS.
dargo
2020-09-06, 12:24:14
Die 3080 ist auch keine 8K Karte... Will sie nicht sein und so wurde sie auch nicht positioniert.
Ähm... moment mal, eine Grafikkarte die 13% langsamer (unter der Annahme die 3090 ist 15% schneller als die 3080) als 3090 ist plötzlich keine 8K Karte? Interessante Sichtweise :freak: Oder meinst du nur weil Nvidia zu geizig mal wieder war der Karte 20GB zu spendieren? Technisch ist es jedenfalls kein Hindernis.
bertramfx
2020-09-06, 12:24:45
Bei der Effizienz scheinen die Ampere GPUs anhand einer groben Näherung keinen großen Sprung hingelegt zu haben.
- Man nehme an, die 2080 Ti liefert 100% Performance @ 260W.
- Basierend auf NVIDIAs Doom Eternal Benchmarks liefert die 3080 ca 140% Performance @ 320W.
- Basierend auf Igors Artikel zur Effizienz der 2080 Ti liefert die 2080 Ti ca 89% Performance @ 208W (80% power target, https://www.igorslab.de/nvidia-geforce-rtx-2080-ti-im-grossen-effizienz-test-von-140-bis-340-watt-igorslab/#:~:text=Praxis%20%E2%80%A2%20Testberichte-,Nvidia%20GeForce%20RTX%202080%20Ti%20im%20gro%C3%9Fen%20Effizienz%2DTest,140%20 bis%20340%20Watt%20%7C%20igorsLAB ).
--> Man reduziere das power target der 3080 auf 80%, und würde nun ca. 125% Performance @ 260W bekommen (0.89*140%).
ilibilly
2020-09-06, 12:31:31
Fuer mich ist die 3080 eine 4k60fps karte.
Darauf werden alle regler angepasst.
Das reicht wohl gradmal in aktuelken games mit etwas puffer.
Fuer 8k in neuen spielen braucht's wohl eine rtx 5090.
Also noch 3-4 jahre
MiamiNice
2020-09-06, 12:33:06
Ähm... moment mal, eine Grafikkarte die 13% langsamer (unter der Annahme die 3090 ist 15% schneller als die 3080) als 3090 ist plötzlich keine 8K Karte? Interessante Sichtweise :freak: Oder meinst du nur weil Nvidia zu geizig mal wieder war der Karte 20GB zu spendieren? Technisch ist es jedenfalls kein Hindernis.
Imo läuft 9xDLSS nur auf der 90. Für nativ 8K fehlt der 80 wohl der VRam. Ergo keine 8k Karte.
DrMabuse1963
2020-09-06, 12:34:57
Ich denke die Frage ist eher warum man DLSS in VR nutzen sollte. Schon aktuelle Karten stemmen an VR Games eigentlich alles verfügbare, teils sogar mit dick Downsampling. Mit 40-50% mehr Saft sollte jedes VR Game mit 500% DS rennen. Ganz ohne DLSS.
Ich habe noch nicht mal meine 3070 und fühle mich jetzt schon beschnitten...8GB VRam werden nicht ewig langen,und gerade Texturen finde ich in VR sehr wichtig.Aktuell bei ACC und meiner Index bin ich mir sicher das SSx2-3 gehen sollten,nutze aber auch Motion Smoothness.
Hauwech
2020-09-06, 12:35:02
Was bis jetzt in diesem Thread noch gar nicht angesprochen wurde:
Ein, vom Marketing auf jeden Fall, genialer Schachzug seitens nV ist die Übernahme der Berechnungsmethode der RT-Leistung in RT-TFLOPs von MS. Damit sind sie MS, Sony und letztlich AMD, so ganz nebenbei ohne sie weiter zu erwähnen, rein von den nackten Zahlen her mit beiden Beinen ins Gesicht gesprungen.
2080S:34 RT-TFLOPs
3070 : 40 RT-TFLOPs
3080 : 58 RT-TFLOPs
3090 : 69 RT-TFLOPs
XBox : 13 RT-TFLOPs
Falls AMD die gleiche Technik für RT wie in der XBox bei Navi 2x benutzt, kann sich ja jeder die RT-FLOPs mit den spekulierten 80CUs und seinen Wunschtaktraten selber ausrechnen...
Die vorgestellte Software Omniverse Machinima dürfte, wenn verfügbar und so funktionierend wie dargestellt, bei so manchem Entwickler, Künstler, Irgendwas-mit-Medien-Menschen und Dienstleister in Bezug auf Kosteneinsparung und Möglichkeiten für feuchte Unterwäsche gesorgt haben.
why_me
2020-09-06, 12:51:37
Wie gut kommt die 2080 ti eigentlich mit ihrer Bandbreite aus?
Die 3070 hat bei angeblich gleicher Leistung nur 256 bit GDDR6 und dadurch auch deutlich weniger Bandbreite.
Diese Generation hat Nvidia auch nicht mit Verbesserungen der Kompression geworben, wie bei den letzten Generationen.
Virtual
2020-09-06, 12:54:53
J... Dann lass uns lieber weiter uninformiert auf den VRAM-Used Wert vom Afterburner glotzen. ... .
Die Quelle deiner Information ist u.a. Brandon Bell. Seines Zeichens "Senior Technical Marketing Manager at Nvidia". Sein Marketing schein ja sehr erfolgreich zu sein.
Das ist doch ein alter Hut: Unabhängig von der jeweils zum Zeitpunkt n vorliegenden tatsächlichen VRAM Auslastung gilt allgemein, je mehr VRAM vorhanden ist, desto besser können Spitzen in der tatsächlichen VRAM Auslastung abgefedert werden, desto weniger wird es zu Rucklern und anderen spürbaren Einschränkungen auf Grund von VRAM-Mangel kommen. Das sieht man bei Karten mit wenig VRAM und aktuellen Spielen zur Genüge, es bedarf keines weiteren Beweises. Außerdem haben wir wieder ein Henne/Ei Problem. Wenn es nicht mehr VRAM in der nächsten GraKa Generation vorhanden ist, dann werden die Entwickler auch nicht mehr VRAM einplanen.
Bei NVidias Justin Walker sind hier wohl Pferde durchgegangen (Zitat:) "... The goal of 3080 is to give you great performance at up to 4k resolution with all the settings maxed out at the best possible price. ..." Die Preise werden primär durch NVidias Drang zu großen Margen bestimmt und sekundär durch die Konkurrenz limtiert. Sie könnte die Karte auch mit 20GB zum gleichen Preis anbieten. Der Preis ist eher ein schwaches Argument für 10GB. Ohne die die drohende Konkurrenz mit möglicherweise 16GB hätte NVidia auch problemlos 999 Euro für 10GB einstecken wollen.
Des Artikels Anspruch auf Gültigkeit der Aussagen für die nächsten Jahre ist schon deutlich durch Marketing-relevante Aussagen von NVidia-Mitarbeiter belastet. Viel fragwürdiger sind die Schlussfolgerungen in "Teil 3" mit solchen Annahmen (Zitat:) "... thanks to improvements in the near future like RTX I/O ..."
Soso, RTX I/O in the near future. Ob wir diese Technik noch in Spielen zur Zeit der RTX 3080 als Top-Produkt im High-Performance Segement sehen werden?
robbitop
2020-09-06, 12:59:03
Es ist stark vom Einsatz abhängig. RT kostet viel Bandbreite. In herkömmlichen Rasterspielen ist das etwas entschärft. Man schaue sich mal die Bandbreite der 1070ti relativ zur Rohleistung oder auch zur Performance an. Turing packte (wegen RT) trotz besserer Kompression ordentlich Bandbreite pro Rohleistung drauf.
Der_Korken
2020-09-06, 13:05:22
- Basierend auf Igors Artikel zur Effizienz der 2080 Ti liefert die 2080 Ti ca 89% Performance @ 208W (80% power target, https://www.igorslab.de/nvidia-geforce-rtx-2080-ti-im-grossen-effizienz-test-von-140-bis-340-watt-igorslab/#:~:text=Praxis%20%E2%80%A2%20Testberichte-,Nvidia%20GeForce%20RTX%202080%20Ti%20im%20gro%C3%9Fen%20Effizienz%2DTest,140%20 bis%20340%20Watt%20%7C%20igorsLAB ).
--> Man reduziere das power target der 3080 auf 80%, und würde nun ca. 125% Performance @ 260W bekommen (0.89*140%).
Effizienzbetrachtungen sind auf diese Weise etwas problematisch. Das Grundproblem ist, dass die Effizienz eines Chips oder einer Karte nicht ein fixer Wert ist, den man irgendwie messen kann, sondern eigentlich eine Kurve, die vom Betriebspunkt (=Power Target) abhängt. Wenn du 3080@320W und 2080Ti@260W vergleichst, ist erstere ~15% effizienter, wenn du beide auf 260W begrenzt, dann 25%. Ist Ampere nun 25% oder 15% effizienter? Antwort: Es kommt drauf an. Prinzipiell würde ich sagen, man sollte Karten am ehesten @stock vergleichen, weil Hersteller ihre Karten normalerweise mit ähnlichen Betriebspunkten rausbringen wie die Vorgänger. Du kannst die 2080Ti auch "effizienter rechnen", wenn du sie auf 175W begrenzt und gegen eine 2070 vergleichst. Da ist Turing dann plötzlich 20% (oder wie viel auch immer) effizienter als Turing selbst.
MiamiNice
2020-09-06, 13:08:42
Heisst es aktuell nicht in jedem Techartikel zu Ampere, dass die Bandbreite ein wichtiger Faktor ist aufgrund des Umbaus?
AffenJack
2020-09-06, 13:13:12
Compubench Werte der 3080 hat APISAK gefunden:
https://twitter.com/TUM_APISAK/status/1302437223233499136
Gegenüber 2080
https://pbs.twimg.com/media/EhMvsrGUcAAXvhc?format=png&name=large
Gegenüber 2080Ti
https://pbs.twimg.com/media/EhMz2h5U8AYZoM5?format=png&name=medium
3080 ist 25-60% schneller als die 2080Ti.
Da stellt sich mir gerade so die Fragen, wenn die 3080 in Compute ziemlich gut ist und dazu noch preislich attraktiv, sind Miner noch immer tot oder könnte das nen Run auf die geben?
Hauwech
2020-09-06, 13:20:02
Die Quelle deiner Information ist u.a. Brandon Bell. Seines Zeichens "Senior Technical Marketing Manager at Nvidia". Sein Marketing schein ja sehr erfolgreich zu sein.
Das ist doch ein alter Hut: Unabhängig von der jeweils zum Zeitpunkt n vorliegenden tatsächlichen VRAM Auslastung gilt allgemein, je mehr VRAM vorhanden ist, desto besser können Spitzen in der tatsächlichen VRAM Auslastung abgefedert werden, desto weniger wird es zu Rucklern und anderen spürbaren Einschränkungen auf Grund von VRAM-Mangel kommen. Das sieht man bei Karten mit wenig VRAM und aktuellen Spielen zur Genüge, es bedarf keines weiteren Beweises. Außerdem haben wir wieder ein Henne/Ei Problem. Wenn es nicht mehr VRAM in der nächsten GraKa Generation vorhanden ist, dann werden die Entwickler auch nicht mehr VRAM einplanen.
Bei NVidias Justin Walker sind hier wohl Pferde durchgegangen (Zitat:) "... The goal of 3080 is to give you great performance at up to 4k resolution with all the settings maxed out at the best possible price. ..." Die Preise werden primär durch NVidias Drang zu großen Margen bestimmt und sekundär durch die Konkurrenz limtiert. Sie könnte die Karte auch mit 20GB zum gleichen Preis anbieten. Der Preis ist eher ein schwaches Argument für 10GB. Ohne die die drohende Konkurrenz mit möglicherweise 16GB hätte NVidia auch problemlos 999 Euro für 10GB einstecken wollen.
Des Artikels Anspruch auf Gültigkeit der Aussagen für die nächsten Jahre ist schon deutlich durch Marketing-relevante Aussagen von NVidia-Mitarbeiter belastet. Viel fragwürdiger sind die Schlussfolgerungen in "Teil 3" mit solchen Annahmen (Zitat:) "... thanks to improvements in the near future like RTX I/O ..."
Soso, RTX I/O in the near future. Ob wir diese Technik noch in Spielen zur Zeit der RTX 3080 als Top-Produkt im High-Performance Segement sehen werden?
Die Konsolen kommen doch mit vergleichbarer Technik. Sofern erscheinende Spiele nicht allesamt XBox/PS5 Exklusivtitel werden, warum nicht? Das AMD sehr wahrscheinlich das Konzept von den Konsolen übernimmt und in Navi 2x bringt, ist ja wohl als gesetzt anzunehmen wenn MS das für Windows (irgendwann) rausbringt. Wer weiss schon was hinter den Kulissen abgeht.
Der_Korken
2020-09-06, 13:26:33
Da stellt sich mir gerade so die Fragen, wenn die 3080 in Compute ziemlich gut ist und dazu noch preislich attraktiv, sind Miner noch immer tot oder könnte das nen Run auf die geben?
Die Frage ist halt, was die Mining-Algorithmen brauchen. Ich habe irgendwie im Kopf, dass die meisten Währungen, für die GPUs noch relevant waren, vor allem Speicherbandbreite und Speicherausbau brauchten. Deswegen waren damals die 8GB-Polaris-Karten mit 256GB/s GDDR5 und Vega (vor allem die R7) so beliebt. Die wurden dann massiv undervoltet und der Speicher übertaktet. Vor dem Hintergrund wäre Ampere eher unattraktiver als Turing.
Jupiter
2020-09-06, 13:33:30
Und ja, ich sehe die 52 CUs der Xbone auf einem Level mit ner 3070 - mindestens. Die muss den OS-Krempel / Treiberlast nicht mit sich tragen. Vermutlich ist es eher 3090 Performance
Wohl eher zwischen RTX 3050 und näher bei der RTX 3060. Wenn ein Spiel auf AMD-Hardware ausgelegt ist, läuft es aber vergleichsweise besser. Wenn es mehr auf Ampere ausgelegt ist, sieht es dagegen ganz anders aus.
Virtual
2020-09-06, 13:37:39
Die Konsolen kommen doch mit vergleichbarer Technik. Sofern erscheinende Spiele nicht allesamt XBox/PS5 Exklusivtitel werden, warum nicht? Das AMD sehr wahrscheinlich das Konzept von den Konsolen übernimmt und in Navi 2x bringt, ist ja wohl als gesetzt anzunehmen wenn MS das für Windows (irgendwann) rausbringt. Wer weiss schon was hinter den Kulissen abgeht. Ohne Zweifel, RTX I/O wird kommen. Das ist absolut gesetzt und AMD wird garantiert dabei sein. Nur wird RTX I/O nicht innerhalb der nächsten zwei bis drei Jahre eine relevante Bedeutung erreichen. In genau dieser Periode bedient aber die RTX 3080 (oder auch BN) das High Performance Segment. Deshalb ist das Argument eher eine Marketing-Trostpille als ein ernstzunehmendes Argument hinsichtlich der Frage, ob 10GB wirklich die nächsten drei Jahre wirklich ausreichen werden.
Troyan
2020-09-06, 13:40:33
Ohne Zweifel, RTX I/O wird kommen. Das ist absolut gesetzt und AMD wird garantiert dabei sein. Nur wird RTX I/O nicht innerhalb der nächsten zwei bis drei Jahre eine relevante Bedeutung erreichen. In genau dieser Periode bedient aber die RTX 3080 (oder auch BN) das High Performance Segment. Deshalb ist das Argument eher eine Marketing-Trostpille als ein ernstzunehmendes Argument hinsichtlich der Frage, ob 10GB wirklich die nächsten drei Jahre wirklich ausreichen werden.
Was bloß die XBSX Käufer sagen werden: Nur 10GB für die GPU und schon DoA. ;D
Wohl eher zwischen RTX 3050 und näher bei der RTX 3060. Wenn ein Spiel auf AMD-Hardware ausgelegt ist, läuft es aber vergleichsweise besser. Wenn es mehr auf Ampere ausgelegt ist, sieht es dagegen ganz anders aus.
3070 ist aus dem Stand 30%+ schneller. Hat außerdem 448GB/s Bandbreite für sich selbst. 3060 wird langsamer sein, aber auf dem selben Level wie die PS5. Zeigt eigentlich, wie überbewertet die Konsolen sind. 250€ Grafikkarte genauso schnell wie 400€+ Next-Gen Konsole im Rasterizing. Bei Raytracing brauchen wir dann nicht mehr reden. Da wird Ampere 2x+ liegen.
Screemer
2020-09-06, 13:41:51
schön, dass es nvidia wieder geschafft hat einem kommenden vendorunabhängigen industriestandard ihren namen aufzudrücken. :up:
Jupiter
2020-09-06, 13:52:37
3070 ist aus dem Stand 30%+ schneller. Hat außerdem 448GB/s Bandbreite für sich selbst. 3060 wird langsamer sein, aber auf dem selben Level wie die PS5. Zeigt eigentlich, wie überbewertet die Konsolen sind. 250€ Grafikkarte genauso schnell wie 400€+ Next-Gen Konsole im Rasterizing. Bei Raytracing brauchen wir dann nicht mehr reden. Da wird Ampere 2x+ liegen.
Das die kommende Xbox noch etwas schneller als die RTX 3060 werden kann, ist noch plausibel. Mal sehen, wie gut am Ende die RTX 3060er werden. Die Xbox Series S sollte auch nicht vergessen werden. Da könnte eine mögliche RTX 3050 schneller werden.
Von den Konsolen wird vor allem die Festplatte das Markenzeichen sein. Ohne diese Neuerung wären sie deutlich unspektakulärer.
dargo
2020-09-06, 13:54:14
Hehe... wenn das tatsächlich wahr ist seht ihr ziemlich schnell eine 3070 16GB. ;)
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12415901&postcount=10231
Und dann ist NV auch gezwungen der 3080 (ob die dann TI mit bissel mehr SMs heißt oder nicht ist wurscht) 20GB zu spendieren.
Was bloß die XBSX Käufer sagen werden: Nur 10GB für die GPU und schon DoA. ;D
Die werden dir einen Vogel zeigen. Für den Preis einer 3080 bekommt man die ganze Xbox Series X. ;D Und gemeinsamer Speicher scheint dir immer noch kein Begriff zu sein. :ulol: Hätten wir am PC schnelle APUs mit HBM2 shared Memory würde ich dir da schon eher zustimmen. ;)
Korvaun
2020-09-06, 14:02:05
Was bloß die XBSX Käufer sagen werden: Nur 10GB für die GPU und schon DoA. ;D
3070 ist aus dem Stand 30%+ schneller. Hat außerdem 448GB/s Bandbreite für sich selbst. 3060 wird langsamer sein, aber auf dem selben Level wie die PS5. Zeigt eigentlich, wie überbewertet die Konsolen sind. 250€ Grafikkarte genauso schnell wie 400€+ Next-Gen Konsole im Rasterizing. Bei Raytracing brauchen wir dann nicht mehr reden. Da wird Ampere 2x+ liegen.
In der Theorie sicher.
Aber wenn wir die aktuellen Konsolen anschauen mit Uralt-Technik aus 2012 und wie gut die grafikmäßig noch mithalten bei aktuellen Spielen (RDR2, Sony 1st Party, etc.) dann würde ich da nicht so schwarz sehen für die kommende Gen. Sicher, PC kann oft höhere Auflösungen/mehr Effekte/bessere Texturen und so gut wie immer wesentlich mehr fps, aber das kann bisher gut kaschiert werden mit z.b. variabler Renderauflösung/Upscaling/Motion Blur/usw. Solange die Konsolenhersteller nicht immer auf 4k60 nativ bestehen sehe ich keine Probleme, dann kann die kommende Gen. sehr gut mithalten.
Hauwech
2020-09-06, 14:06:43
Und wie Affenjack schon geschrieben hatte, hat er sich noch nie als Typ mit besonderen Quellen herausgestellt. Ergo: Reine Fantasieannahmen.
aufkrawall
2020-09-06, 14:07:47
schön, dass es nvidia wieder geschafft hat einem kommenden vendorunabhängigen industriestandard ihren namen aufzudrücken. :up:
Von AMD kommt und hört man halt nichts.
DXR? Vulkan-RT? DLSS 2.0-Alternative? Mesh Shader? WDDM GPU-Scheduler?
Alles nicht vorhanden, unvollständig oder ziemlich verspätet. Da reiht sich DirectStorage (zumindest bisher aus PR-Sicht) nur in eine lange Reihe ein.
Wenn dann mit dem BN-Release kein Knall an neuen Features passiert, braucht man sich über das völlige Untergehen in der Wahrnehmung auch nicht zu beschweren...
Digidi
2020-09-06, 14:09:30
Was bis jetzt in diesem Thread noch gar nicht angesprochen wurde:
Ein, vom Marketing auf jeden Fall, genialer Schachzug seitens nV ist die Übernahme der Berechnungsmethode der RT-Leistung in RT-TFLOPs von MS. Damit sind sie MS, Sony und letztlich AMD, so ganz nebenbei ohne sie weiter zu erwähnen, rein von den nackten Zahlen her mit beiden Beinen ins Gesicht gesprungen.
2080S:34 RT-TFLOPs
3070 : 40 RT-TFLOPs
3080 : 58 RT-TFLOPs
3090 : 69 RT-TFLOPs
XBox : 13 RT-TFLOPs
Falls AMD die gleiche Technik für RT wie in der XBox bei Navi 2x benutzt, kann sich ja jeder die RT-FLOPs mit den spekulierten 80CUs und seinen Wunschtaktraten selber ausrechnen...
Die vorgestellte Software Omniverse Machinima dürfte, wenn verfügbar und so funktionierend wie dargestellt, bei so manchem Entwickler, Künstler, Irgendwas-mit-Medien-Menschen und Dienstleister in Bezug auf Kosteneinsparung und Möglichkeiten für feuchte Unterwäsche gesorgt haben.
Woher hast du denn die Zahlen der XSX? Und an den 69 RT-Flops zweifle ich auch. Ich hätte doch da gerne mal die mathematischen Grundlage wie man das berechnet. Die gibts nicht. Also können wir es auch nicht vergleichen. Futter für das Fanboytum at its best!
Troyan
2020-09-06, 14:15:57
In der Theorie sicher.
Aber wenn wir die aktuellen Konsolen anschauen mit Uralt-Technik aus 2012 und wie gut die grafikmäßig noch mithalten bei aktuellen Spielen (RDR2, Sony 1st Party, etc.) dann würde ich da nicht so schwarz sehen für die kommende Gen. Sicher, PC kann oft höhere Auflösungen/mehr Effekte/bessere Texturen und so gut wie immer wesentlich mehr fps, aber das kann bisher gut kaschiert werden mit z.b. variabler Renderauflösung/Upscaling/Motion Blur/usw. Solange die Konsolenhersteller nicht immer auf 4k60 nativ bestehen sehe ich keine Probleme, dann kann die kommende Gen. sehr gut mithalten.
Die PS4 Pro Spiele laufen in Checkerboarding 1440p/30FPS, also 1280x1440p auf 4k skaliert.
Du siehst ja schon, dass ein Ratchet auf der PS5 nur 30FPS in 4K schafft. Da ist nach oben kaum noch Luft.
dargo
2020-09-06, 14:19:08
Du siehst ja schon, dass ein Ratchet auf der PS5 nur 30FPS in 4K schafft. Da ist nach oben kaum noch Luft.
Natürlich ist da noch Luft. Erste Games einer neuen Gen waren noch nie hochoptimiert. Die Entwickler müssen auch erstmal alle Tricks kennenlernen wo noch paar ms rauszuholen sind. Einen 60fps Modus wird es übrigens auch bei Ratchet & Clank geben. Wie genau der realisiert wird ist noch offen.
Hauwech
2020-09-06, 14:26:21
Woher hast du denn die Zahlen der XSX? Und an den 69 RT-Flops zweifle ich auch. Ich hätte doch da gerne mal die mathematischen Grundlage wie man das berechnet. Die gibts nicht. Also können wir es auch nicht vergleichen. Fanboytum at its best.
Die 13 RT-TFLOPs kommen von MS selbst. Edit: Ok, es sind wohl 13,x RT-TFLOPs. Mea culpa.
https://www.eurogamer.net/articles/digitalfoundry-2020-inside-xbox-series-x-full-specs
"Without hardware acceleration, this work could have been done in the shaders, but would have consumed over 13 TFLOPs alone," says Andrew Goossen. "For the Series X, this work is offloaded onto dedicated hardware and the shader can continue to run in parallel with full performance. In other words, Series X can effectively tap the equivalent of well over 25 TFLOPs of performance while ray tracing."
Andrew Goossen: Microsoft technical fellow and Xbox system architect.
Ich muss es auch nicht wissen. Frag MS wie sie es berechnet haben. Wenn du an den Zahlen von nV zweifelst, frag ebenfalls nV wie sie es berechnet haben.
Edit: Die Zahlen für die 2080S / 30er kommen aus dem Präsivideo. Wenn du der Meinung bist das nV gelogen hat, kannst du das ja sicher beweisen. Viel Spaß dabei.
Nazar
2020-09-06, 14:26:29
Nur her damit. Ich hatte weit über 400W mit einer GTX480@900Mhz und das mal 4 als Quad SLI. Das 1600W Netzteil von damals steckt noch immer in meinem PC. Mit einem dedizierten Kreislauf und Triple Radi ist das problemlos zu kühlen.
Ah... Äpfel und Birnen... Obstverkäufer sind unterwegs oder wollen hier Leute ernsthaft 40 nm mit 8 nm vergleichen? :freak:
Ich bin erstaunt, dass die großen "Kühlmeister" vollkommen unterschlagen, dass die "Kotzgrenze" des 8 nm Prozess um ein vielfaches schneller erreicht wird, als bei den größeren Fertigungsprozessen. :eek:
Aber klar, wird sich alles super easy wegkühlen lassen... denn wir wissen ja 400 Watt@40nm = X Kelvin@fixed Zeit entsprechen 500Watt@8nm =X Kelvin@fixed Zeit ;D
Äpfel und Birnen zum Sonderpreis..... :freak:
Digidi
2020-09-06, 14:31:03
Die 13 RT-TFLOPs kommen von MS selbst.
https://www.eurogamer.net/articles/digitalfoundry-2020-inside-xbox-series-x-full-specs
"Without hardware acceleration, this work could have been done in the shaders, but would have consumed over 13 TFLOPs alone," says Andrew Goossen. "For the Series X, this work is offloaded onto dedicated hardware and the shader can continue to run in parallel with full performance. In other words, Series X can effectively tap the equivalent of well over 25 TFLOPs of performance while ray tracing."
Andrew Goossen: Microsoft technical fellow and Xbox system architect.
Ich muss es nicht wissen. Frag MS wie sie es berechnet haben. Wenn du an den Zahlen von nV zweifelst, frag ebenfalls nV wie sie es berechnet haben.
Fanboytum... wohl eher anders rum. :)
Ich habe mich oben korrigert es mus heißten Futter fürs Fanboytum, weil genau solche Zahlen die toal überzogen und nichts aussagen sind den Leuten mit Ihrem BIAS super in den Kram passen.
Nur mal ein Beispiel Nvidia hat gerade mal 82 RTCores amd hat 204 TMUs bei der zu jeder Einheit ein RTCoe gehört der 4 RT Rechenoperationen pro takt ausführen kann. Hört sich auch total als Overrkill an....
Wir brauche verlässliche Zahlen ansonsten ist das alles nur Auslegung der Fanboys.
monstar-x
2020-09-06, 14:32:51
Ändert nix daran, dass DLSS kein Ersatz für Speicher ist.
Doch ist es.
DLSS hat einen Signifikat positiven Effekt auf den VRAM Verbrauch >20% .
Ob man mit der Bildqualität Leben kann, ist Geschmackssache.
Control (alles maxed out + RTX ON)
4K native
VRAM: 8566 MB
https://abload.de/thumb/control_dx12_uy6oapemgcjau.jpg (https://abload.de/image.php?img=control_dx12_uy6oapemgcjau.jpg)
4K DLSS
VRAM: 6153 MB
https://abload.de/thumb/control_dx12_lag00eh2anjmv.jpg (https://abload.de/image.php?img=control_dx12_lag00eh2anjmv.jpg)
WQHD native
VRAM: 6353 MB
https://abload.de/thumb/control_dx12_jifdx84qbkk7y.jpg (https://abload.de/image.php?img=control_dx12_jifdx84qbkk7y.jpg)
WQHD DLSS
VRAM: 5173 MB
https://abload.de/thumb/control_dx12_u3p1yhhjbjjhg.jpg (https://abload.de/image.php?img=control_dx12_u3p1yhhjbjjhg.jpg)
dargo
2020-09-06, 14:36:25
Ah... Äpfel und Birnen... Obstverkäufer sind unterwegs oder wollen hier Leute ernsthaft 40 nm mit 8 nm vergleichen? :freak:
Ich bin erstaunt, dass die großen "Kühlmeister" vollkommen unterschlagen, dass die "Kotzgrenze" des 8 nm Prozess um ein vielfaches schneller erreicht wird, als bei den größeren Fertigungsprozessen. :eek:
Aber klar, wird sich alles super easy wegkühlen lassen... denn wir wissen ja 400 Watt@40nm = X Kelvin@fixed Zeit entsprechen 500Watt@8nm =X Kelvin@fixed Zeit ;D
Äpfel und Birnen zum Sonderpreis..... :freak:
Danke für den heutigen Lacher. ;D ;D ;D
ChaosTM
2020-09-06, 14:36:27
Ich seh immer nur Control ;)
monstar-x
2020-09-06, 14:40:50
Ich seh immer nur Control ;)
Ich habe nun mal kein anderes GAME das DLSS/RTX hat, du kannst mir gerne per Steam ein Spiel nach deiner Wahl schicken, dann Teste ich das gerne für dich.
Vielleicht: Metro Exodus?
Hauwech
2020-09-06, 14:44:04
Ich habe mich oben korrigert es mus heißten Futter fürs Fanboytum, weil genau solche Zahlen die toal überzogen und nichts aussagen sind den Leuten mit Ihrem BIAS super in den Kram passen.
Nur mal ein Beispiel Nvidia hat gerade mal 82 RTCores amd hat 204 TMUs bei der zu jeder Einheit ein RTCoe gehört der 4 RT Rechenoperationen pro takt ausführen kann. Hört sich auch total als Overrkill an....
Wir brauche verlässliche Zahlen ansonsten ist das alles nur Auslegung der Fanboys.
Da es im Moment keine anderen Zahlen gibt, sind sie momentan die einzige Grundlage die es gibt. Es sind zumindest Zahlen die präsentiert wurden. Die ominösen +50% Perf/W von AMD sagen noch weniger aus.
Wie gesagt, die Berechnungsgrundlage stammt von MS und nV hat sie übernommen. Wie sie die berechnet haben? Keine Ahnung aber ohne Grund wird nV das nicht übernommen haben da die Leute mit GigaRays wohl offenbar nicht viel anfangen konnten.
Edit: Ich finde es auf jeden Fall einen sehr cleveren Schachzug von nV das so zu machen. Damit stellen sie quasi im Vorbeigehen eine "Vergleichbarkeit" her. Die 12.1 Shader-TFLOPs der XBox bezweifelt ja anscheinend auch niemand. Ob die nun, aufgeschlüsselt, genauso "kreativ" wie die Shader Flops bei nV berechnet wurden, weiss auch keiner.
Nazar
2020-09-06, 14:50:37
Ist ja nicht gaaaaanz korrekt. Man stellt einfach eine Texturstufe runter und da DLSS ja bekanntlich besser als nativ aussieht - gleicht sich das wieder aus und man spart VRam :freak:
I hope sarcasm incoming? :freak:
Daredevil
2020-09-06, 14:54:13
Ich habe nun mal kein anderes GAME das DLSS/RTX hat, du kannst mir gerne per Steam ein Spiel nach deiner Wahl schicken, dann Teste ich das gerne für dich.
Vielleicht: Metro Exodus?
Kann den Microsoft Gamepass empfehlen, da hast du Metro, Mechwarrior, Deliver us the Moon und Wolfenstein. ^^
why_me
2020-09-06, 14:54:23
"Without hardware acceleration, this work could have been done in the shaders, but would have consumed over 13 TFLOPs alone," says Andrew Goossen. "For the Series X, this work is offloaded onto dedicated hardware and the shader can continue to run in parallel with full performance. In other words, Series X can effectively tap the equivalent of well over 25 TFLOPs of performance while ray tracing."
Bist du dir sicher, dass Nvidia da die gleiche Metrik verwendet?
Wenn man den Wortlaut oben genau nimmt, dann beschreibt Microsoft da nur den grünen Teil im Bild unten, Nvidia spricht aber von der theoretisch maximal möglichen RT Leistung.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=71376&stc=1&d=1599396717
Milchmädchen Rechnung: Im Bild von Nvidia wurde die Frametime um 60% reduziert -> 60% der TFLOPs wurden eingespart. Bei einer 3090 würde dass in diesem Beispiel dann nur 21.6 TFLOPs ensprechen. Hab nicht genau Pixel gezählt, aber der grüne Teil ist weniger als die Hälfte des Frames aktiv, passt also auch grob zu den RT-TFLOPs, die Nvidia für die 3090 angibt.
Virtual
2020-09-06, 15:00:29
... Wie gesagt, die Berechnungsgrundlage stammt von MS und nV hat sie übernommen. Wie sie die berechnet haben? Keine Ahnung aber ohne Grund wird nV das nicht übernommen haben da die Leute mit GigaRays wohl offenbar nicht viel anfangen konnten. ...
Vielleicht doch eher ... der Otto-Normalzocker kann mit RT-TFLOPS genauso viel oder wenig anfangen wie mit GigaRays. Allerdings droht bei GigaRays bald ein Vergleich "Äpfel mit Äpfel"?
Troyan
2020-09-06, 15:00:58
Turing kann FP32 und INT32 gleichzeitig berechnen. Raytracing benutzt für BVH-Travel Pointer, die wohl Integer sind. Ergo ergibt sich bei Turing für Raytracing rein über die Shader die doppelte "TFLOPs" Zahl als bei Pascal. Ergo muss das ganze x2 genommen werden. Daher gilt Pascal als Basis:
https://www.pcgameshardware.de/screenshots/original/2020/09/GeForce-30-Series-Tech-Day_Arch_Hardware_Seite_29-pcgh.jpg
https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Specials/RTX-3090-RTX-3080-RTX-3070-Launch-kaufen-1357443/galerie/3433114/
Hauwech
2020-09-06, 15:02:23
Bist du dir sicher, dass Nvidia da die gleiche Metrik verwendet?
Wenn man den Wortlaut oben genau nimmt, dann beschreibt Microsoft da nur den grünen Teil im Bild unten, Nvidia spricht aber von der theoretisch maximal möglichen RT Leistung.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=71376&stc=1&d=1599396717
Milchmädchen Rechnung: Im Bild von Nvidia wurde die Frametime um 60% reduziert -> 60% der TFLOPs wurden eingespart. Bei einer 3090 würde dass in diesem Beispiel dann nur 21.6 TFLOPs ensprechen. Hab nicht genau Pixel gezählt, aber der grüne Teil ist weniger als die Hälfte des Frames aktiv, passt also auch grob zu den RT-TFLOPs, die Nvidia für die 3090 angibt.
Jensen hat im Video ja gesagt das sie dieselbe Berechnungmethode wie MS bei der XBox angewandt haben. Bei 16:13 oder so.
why_me
2020-09-06, 15:04:15
Genau aus diesem Video ist das Bild:
https://youtu.be/E98hC9e__Xs?t=995
E: Selbst wenn man die 21TFLOPs mal 2 nimmt, dann sind das immer noch deutlich weniger als die 69 der 3090 in der Nvidia Präsentation.
Hauwech
2020-09-06, 15:07:26
Vielleicht doch eher ... der Otto-Normalzocker kann mit RT-TFLOPS genauso viel oder wenig anfangen wie mit GigaRays. Allerdings droht bei GigaRays bald ein Vergleich "Äpfel mit Äpfel"?
Der Otto-Normalzocker guckt auch nur auf Balken. Wenn auf der Verpackung dicke fette Zahlen stehen, ist das für ihn geil und bestätigt ihn, das richtige gekauft zu haben.
Kann durchaus sein, da MS die Leistung in "RT-FLOPs" angibt, das es AMD genauso macht. 13 X-Flops sind halt einfach nach mehr als 11 Gigarays. :wink:
Dural
2020-09-06, 15:08:05
NV kann auch marketing, natürlich ist es ein guter zug.
Bevor die konsolen oder eine grafikkarte auf den markt ist hat nv mit ampere schon alles in den boden gestampft.
AMD hat seit jahren eine ziemlich grosse klappe, liefern aber selten bis nie ab. Auch die lego cpus die überall gehypt werden, hätte intel nicht seit jahren massive probleme in der herstellung würde kein hahn danach krähen und das ist fakt.
dildo4u
2020-09-06, 15:10:09
Ach 8 Core Ryzen und 1TB NVME gibt gratis zur 3070?Die Vergleiche hier sind wie immer lustig.
Digidi
2020-09-06, 15:11:33
Nur weil Jensen was behauptet und das so hinstellt ist es wahr! Ok......
Und mal die Rechnung: Die 3090 hat 30Tflops und braucht 51 ms, wenn du praktisch auf 20ms runter gehst spart du 19 Tflops ein. Also wäre die RT-Core Performance 19 Tflops. Man kann das alles auf so viele arten Berechnen.
Troyan
2020-09-06, 15:11:35
Und zur XBSX gibt es gratis einen 1500€ OLED? Immer wieder lustig, dass bei der GPU ein neuer PC angesetzt wird, bei den Konsolen aber nie der Fernsehr.
Hauwech
2020-09-06, 15:12:16
Genau aus diesem Video ist das Bild:
https://youtu.be/E98hC9e__Xs?t=995
E: Selbst wenn man die 21TFLOPs mal 2 nimmt, dann sind das immer noch deutlich weniger als die 69 der 3090 in der Nvidia Präsentation.
Und genau aus dem Video sind auch die "RT-FLOPs" der 2080S und der 30er. nV wird sich da rechtlich soweit abgesichert haben das so präsentieren zu können, von daher: alles legit. Die Zahlen sind nun mal so wie sie sind.
Ob AMD die RT-Leistung von Navi 2x ggü PS5/XBox noch mal massiv aufgebohrt hat, wissen wir nicht. Falls ja, dann haben sie MS und Sony böse gesagt, RT-Schrott verkauft der nur durch den "Konsolenbonus" was taugt.
Jupiter
2020-09-06, 15:14:02
Und zur XBSX gibt es gratis einen 1500€ OLED? Immer wieder lustig, dass bei der GPU ein neuer PC angesetzt wird, bei den Konsolen aber nie der Fernsehr.
Würde ich auch nicht. Aber diese Online-Gebühren für 50 Euro im Jahr, welche bei 7 Jahren auch 350 Euro sind.
hq-hq
2020-09-06, 15:14:20
Ich habe nun mal kein anderes GAME das DLSS/RTX hat, du kannst mir gerne per Steam ein Spiel nach deiner Wahl schicken, dann Teste ich das gerne für dich.
Vielleicht: Metro Exodus?
Metro Exodus, DLSS AN/OFF bei Raytracing "Hoch"
mit DLSS auf AN braucht es etwas mehr VRAM
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=71377&stc=1&d=1599398029
-------------------
Metro Exodus, DLSS AN/OFF bei Raytracing "Ultra"
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=71378&stc=1&d=1599398866
monstar-x
2020-09-06, 15:15:36
Kann den Microsoft Gamepass empfehlen, da hast du Metro, Mechwarrior, Deliver us the Moon und Wolfenstein. ^^
Danke für den Tipp, habe ich bereits.
aber Metro Exodus ist nicht mir im Pass enthalten.
Troyan
2020-09-06, 15:18:49
Exodus benutzt DLSS 1.0. Das ist nicht vergleichbar zu Control. Wenn man DLSS2.0 testen will, kann man sich Bright Memory für 5€ oder so kaufen.
why_me
2020-09-06, 15:20:09
Und genau aus dem Video sind auch die "RT-FLOPs" der 2080S und der 30er. nV wird sich da rechtlich soweit abgesichert haben das so präsentieren zu können, von daher: alles legit. Die Zahlen sind nun mal so wie sie sind.
Selbst mit einer 2080 Super passen die RT-FLOPs nicht zu diesem Bild.
Die RT-FLOPs, die Nvidia angibt sind 100% Auslastung der RT Cores, das theoretische Maximum. Das wird es in Spielen vorerst nicht geben.
glaubt doch nicht alles, was Nvidia in ihren Folien zeigt, die haben nicht einmal Fußnoten, die erklären, wie diese Zahlen zustande gekommen sind.... In den Folien sind so viele dämliche Vergleiche, eigentlich ein Wunder, dass sich keine Hardwareseite genötigt fühlt, sich kritisch mit den Zahlen der Folien auseinander zu setzen. Angst um die Samples?
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.