PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Launch-Analyse nVidia GeForce RTX 3090


Leonidas
2020-09-27, 19:46:25
Link zum Artikel:
https://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-rtx-3090

Gast
2020-09-27, 20:07:47
Falls jemand mit einer 3080 oder 3090 testen möchte, ob Ampere für Echtzeit-Pathtracing taugt, gibt es hier RTX-Benchmarks vom Brigade-Programmierer.
https://jacco.ompf2.com/lighthouse-2-rtx-path-tracing-benchmark/
https://ompf2.com/viewtopic.php?f=8&t=2158

Brigade2:
https://www.guru3d.com/files-details/brigade-2-demo-real-time-raytracing-engine-download.html
https://web.archive.org/web/20130323204243/http://igad.nhtv.nl/~bikker/files/brigade2_r2017.zip

watugonad00?
2020-09-27, 21:15:03
wie immer eine tolle übersicht :up:

Gast
2020-09-27, 23:29:54
Ich denke die 3090 muss man unter mehreren Gesichtspunkten als der reinen Performance betrachten.

Schon alleine bei der Performance ist eigentlich eine Durchschnittsbildung nicht wirklich zielführend, weil selbst unter UltraHD in einigen Fällen die Skalierung verhaut. Das war schon bei der 2080Ti teilweise, allerdings noch vernachlässigbar gering, bei der 3080 schon deutlicher und jetzt bei der 3090 überdeutlich ersichtlich.

Herausgerechnet der ganz klar CPU-Beeinflussten Benchmarks kommt die 3090 immerhin auf ~15% Mehrleistung gegenüber der 3080, was angesichts der Hardwarevoraussetzungen eigentlich schon ziemlich gut ist.

Dann ist noch der enorme VRAM, wie lange dieser auch immer relevant sein wird. Für Spieler natürlich uninteressant, dafür reichen die 10GB der 3080 vollauf, aber im Worksation-Einsatz, in dem VRAM teilweise einfach unersetzlich ist, ist die 3090 ein sehr gutes Angebot.

Um in vergleichbare Höhen zu kommen muss man da schon zu einer Titan aus der Vorgängergeneration, oder eben zu einer Quadro greifen.

Beide Varianten sind allerdings einerseits deutlich teurer und bieten auch noch weniger Leistung. Gegen eine Titan RTX oder eine Quadro RTX 6000 ist die 3090 einfach ein verdammt gutes Angebot. Und rein auf den Speicher gerechnet ist die 3090 sogar günstiger als die 3080. Für 114% mehr € bekommt man 240% mehr Speicher.

Und dann ist noch der Kühler. Der von der 3080 ist sicher auch nicht schlecht, aber eben nicht überragend, außer man beschränkt sich zwangsweise auf reine 2-Slot-Kühler. Dieser wird auf jeden Fall von guten Partnerkarten übertroffen werden. Der Kühler der 3090 ist dagegen ein ganz anderes Biest, und wohl mit Abstand das beste was man bisher im Grafikkartenbereich unter Luftkühlern jemals gesehen hat.

Dagegen wirkt das Modell der 3080 wie eine Billigvariante, was wohl defakto auch der Fall ist, wenn die 150$ von Igor für das Topmodell stimmen.

Alles in allem, natürlich einge Grafikkarte die aus Spielersicht absoluter Overkill ist, und keinesfalls den ausgerufenen Mehrpreis Wert ist.

Und da die Spieler wohl auch die Hauptsächliche Zielgruppe von 3dCenter sind kann man diese Bewertung auch verstehen. Allerdings ist die 3090 eben keine Karte für diese Zielgruppe sondern für Workstations, und dafür ist sie alles andere als schlecht, ganz im Gegenteil hier ist sie meistens schneller als alles andere, und dabei auch noch günstiger.

Auch beim Generationenvergleich ist das Fazit absolut nicht Nachvollziehbar.
Nachdem man von den enormen DIE-Größen bei Turing mit über 750mm² wieder auf normalere Größen herunterskalieren musste, und man im Endeffekt für grob 50% mehr Transistoren auch grob 50% mehr an Performance bekommt ist das Ergebnis eigentlich sehr gut.

Flusher
2020-09-27, 23:39:27
Danke Leo für die Zusammenfassung.

Erschwerend für die 3090 kommt hinzu, das selbst die Rich-Kids denen der Preis egal ist keine kaufen können, da sie schlichtweg nirgends lieferbar ist

Stretcher
2020-09-28, 00:04:20
Wenn man möchte, bekommt man schon eine.

Ferenzo
2020-09-28, 07:23:45
Danke für den Test und die klaren Worte. :smile:

Gast
2020-09-28, 08:04:29
Um in vergleichbare Höhen zu kommen muss man da schon zu einer Titan aus der Vorgängergeneration, oder eben zu einer Quadro greifen.
Beide Varianten sind allerdings einerseits deutlich teurer und bieten auch noch weniger Leistung. Gegen eine Titan RTX oder eine Quadro RTX 6000 ist die 3090 einfach ein verdammt gutes Angebot.
Ich verstehe, worauf du hinaus willst, aber für den tatsächlichen Workstation einsatz benötigt man dann auch zertifizierte Teiber, welche die 3090 nicht erhalten wird (und ohne diese wird sie dann in diesen Anwendungen auch langsamer sein, da durch den Treiber massiv gedrosselt). Ergo liegt sie irgendwo zwischen Gaming und Profi, allerdings eher richtung Gaming.

Besonders interessant finde ich das Thema Energieeffizienz. Ich bin gespannt, wie die mobilen Beschleuniger von Ampere aussehen. Den GA102 müsste man da schon massiv drosseln, damit der noch kühlbar bleibt, allerdings ist er durch seine Breite natürlich auch mit niedrigen Taktraten noch sehr leistungsstark. Aber vermutlich wird's nur bis zum GA104 gehen (GDDR6X ist ja vermutlich auch aus Effizienzgründen für mobile noch nichts, spricht daher auch für den GA104). Dadurch braucht man auch weniger Speicher-Chips und damit weniger Platz auf dem Mainboard/MXM. Sollte die Effizienz beim GA104 in ähnlichem Maße steigen, könnte man im mobile Bereich ein wirklich knappes Rennen zwischen Ampere und Navi 2x haben. Damit könnte es auch da einen kleinen Preiskampf geben...

Querleser
2020-09-28, 08:32:22
Wow, PCGH muss ja extrem unter der Nvidia-Pantoffel stehen. Komischerweise sind ihre Ergebnisse nicht nur die besten für die 3090, auch deren Text klingt wie von Nvidias Marketing bzw. könnten die das kaum besser machen. Das Fazit .. ich mein wtf .. wie kann das auch der Chef durchlassen?

"Was mit großen Augen beim Öffnen des Kartons anfängt und sich beim Herausheben fortsetzt, gipfelt in purer Freude während des Betriebs. Egal, was man der Geforce RTX 3090 Founders Edition vorsetzt, sie führt es aus. Sie beschwert sich nicht einmal, sondern bleibt stets ruhig. Zugegeben, sie trinkt regelmäßig über den Durst, aber wer viel leistet, dem sei das mal gegönnt. Unter dem Strich ist die RTX 3090 FE mehr als ihre Gaming- oder Rendering-Leistung, sie ist eine Erscheinung - eine, die so manchem Nvidia-Partner vermutlich schlaflose Nächte beschert, denn dieses Design ist in Sachen Kühlleistung und Haptik kaum zu schlagen. "


Nvidia-Fan als Tester ist ja das eine, aber deshalb gibt es doch einen Chefredakteur, um genau so etwas zu verhindern. Dort hat beides versagt.

JVC
2020-09-28, 09:34:56
Prima Übersicht. Danke :up:

Für mich ist Ampere(300Watt+) nix :down:

M.f.G. JVC

Leonidas
2020-09-28, 09:36:34
Wow, PCGH muss ja extrem unter der Nvidia-Pantoffel stehen. Komischerweise sind ihre Ergebnisse nicht nur die besten für die 3090,


Das würde ich aber weniger unter Bias einordnen, als vielmehr der bewußte Suche nach fordernden Benchmark-Szenen. Insofern zeigt die Skalierung der PCGH-Benchmarks eher die Zukunft an. Turing hat ja nun auch beachtbar zugelegt in den letzten 2J.

Raff
2020-09-28, 09:44:37
So ist es, Leo. :up: Das kannst du auch gerne explizit in den Text aufnehmen. Echt traurig. Anstatt, dass die wertvollen Daten geschätzt werden, packen einige direkt wieder die Hasskeule aus. Alles voller Verschwörungstheorien. Armes Deutschland.

Siehe hier: https://extreme.pcgameshardware.de/threads/nvidia-geforce-rtx-3090-alias-bfgpu-im-test-titanischer-alleskoenner-fuer-1-500-euro.591663/page-6#post-10496220

"Wie bereits an diversen Stellen gesagt: Unsere GPU-Tests sind traditionell darauf ausgelegt, GPUs auszulasten. Oft mit wenig Rücksicht auf Verluste, also die Performance älterer/langsamer Grafikkarten. Hinzu kommt die gezielte Optimierung des Systems und der Testszenen auf Grafiklast. Das in Kombination mit dem ordentlichen Aufheizen reicht als Erklärung - am besten garniert mit den Extremtests, welche aufzeigen, dass Ampere viele Pixel braucht, um zu glänzen. Das war im Grunde seit der Enthüllung der verdoppelten FP32-ALUs zu erwarten, nur geht komischerweise fast niemand darauf ein und konzentriert sich stattdessen auf "normale" Auflösungen, für die ein Biest wie die RTX 3090 gar nicht gemacht wurde."

-> Unmaskierte Daten =)

MfG
Raff

Berniyh
2020-09-28, 10:05:50
So ist es, Leo. :up: Das kannst du auch gerne explizit in den Text aufnehmen. Echt traurig. Anstatt, dass die wertvollen Daten geschätzt werden, packen einige direkt wieder die Hasskeule aus. Alles voller Verschwörungstheorien. Armes Deutschland.
Naja, wenn ein Ergebnis deutlich von den anderen abweicht ist es schon richtig, dass man skeptisch wird. In Hass sollte es aber natürlich nicht ausarten, das ist klar.
Abgesehen davon ist halt die Frage wie relevant die Ergebnisse sind, wenn man unter Bedingungen bencht die in der Realität nicht wirklich vorzufinden sind.

Und letztendlich muss ich Querleser zustimmen, der zitierte Abschnitt liest sich schon arg euphorisch ob einer Leistung, welche sicher gut ist, aber auch nicht so herausragend wie der Absatz es glauben lassen mag.

Raff
2020-09-28, 10:35:01
Ihr müsst einfach lernen, "gute" von "schlechten" Benchmarks zu unterscheiden. Ein Test, welcher vorgibt, die Leistung einer Grafikkarte zu messen, aber in Wahrheit hart CPU-limitiert ist, kann schon mal nicht gut sein. Wenn die Mission des Artikels war, eine Grafikkarte unter "praxisnahen" Bedingungen zu testen, dann können die Werte wieder als okay angesehen werden. Allerdings muss dann klar erwähnt werden, dass man eigentlich nicht die Grafikkarte testet. Und die Nähe der Praxis liegt immer im Auge des Betrachters ... :)

Ich verstehe Skepsis. Skepsis ist super. Nur leider richtet sie sich immer gegen die Falschen. Ich bin auch Skeptiker, aber vor allem Perfektionist. Es gibt so viele Unsinnsbenchmarks im Netz, die viral gehen und ernstgenommen werden, obwohl sie einfach falsch sind.

MfG
Raff

Berniyh
2020-09-28, 11:21:01
Ihr müsst einfach lernen, "gute" von "schlechten" Benchmarks zu unterscheiden. Ein Test, welcher vorgibt, die Leistung einer Grafikkarte zu messen, aber in Wahrheit hart CPU-limitiert ist, kann schon mal nicht gut sein. Wenn die Mission des Artikels war, eine Grafikkarte unter "praxisnahen" Bedingungen zu testen, dann können die Werte wieder als okay angesehen werden. Allerdings muss dann klar erwähnt werden, dass man eigentlich nicht die Grafikkarte testet. Und die Nähe der Praxis liegt immer im Auge des Betrachters ... :)
Ich verstehe schon das Prinzip, aber das ist auch das was mich bei CPU Benchmarks immer ärgert.
Denn hier laufen dann wieder die Kandidaten rum die sich einen darauf einbilden, dass man mit CPU X bei 720p dann doch noch 3 fps mehr rausholt, wenn es in der Realität (also heutzutage 1080p oder 1440p) einfach gar keine Rolle spielt.

Mit der gleichen Begründung hätte man auch Vega damals feiern können, denn auch die hatte Disziplinen in denen sie brillierte.
Aber was nutzt denn das, wenn am Ende in der normalen Praxis nichts davon ankommt?
Nicht ohne Grund werden die Ergebnisse von synthetischen Benchmarks im Normalfall weitgehend ignoriert, obwohl diese doch die Fähigkeiten der Hardware meistens sehr gut hervorheben.
Hat aber halt keine sonderlich große Relevanz für die Praxis.

MrSpadge
2020-09-28, 11:42:33
Ich denke, auf dem Preis braucht man gar nicht groß herumzureiten: die Karte ist zum Zocken purer Luxus. Außerdem kann sie sehr attraktiv für Leute sein, die damit Geld verdienen und software-seitig keine Quadro oder Tesla brauchen.

MrS

iamthebear
2020-09-28, 12:11:39
Es ist das Topmodell. Da braucht man keine Preisdiskussion führen. Es gibt immer Leute, wo der Preis keine große Rolle spielt und für Content Creator, die die 24GB VRAM brauchenist es immer noch ein Schnäppchen.

Kulasko
2020-09-28, 14:21:14
Bei dem Einsatz als Workstation-Karte würde ich mir außerdem Gedanken über den GDDR6X Speicher machen. Der scheint ziemlich auf Kante gebaut, auf der 3080 gabs bei Partnerkarten ja schon einige Temperaturprobleme und ECC hat der vermutlich nicht, oder?

Gast
2020-09-28, 19:15:13
Ich verstehe, worauf du hinaus willst, aber für den tatsächlichen Workstation einsatz benötigt man dann auch zertifizierte Teiber, welche die 3090 nicht erhalten wird (und ohne diese wird sie dann in diesen Anwendungen auch langsamer sein, da durch den Treiber massiv gedrosselt). Ergo liegt sie irgendwo zwischen Gaming und Profi, allerdings eher richtung Gaming.


Nicht wirklich, die 3090 ist für jene die Workstation-Performance haben möchten, aber auf den Support und die zertifizierten Treiber verzichten können:
https://www.igorslab.de/nvidia-geforce-rtx-3090-founders-edition-review-zwischen-mehrwert-und-vermeintlicher-dekadenz-wenn-der-preis-nicht-alles-ist/10/

Die 3090 ist eben genau dazwischen, sie ist einerseits ein verdammt günstiger Quadro/Titan Ersatz, andererseits eine viel zu teure Gaming-Karte.

(GDDR6X ist ja vermutlich auch aus Effizienzgründen für mobile noch nichts, spricht daher auch für den GA104).


GDDR6X ist effizienter als bisherige GDDR-Speicher.

Gast
2020-09-28, 19:53:49
Ich verstehe schon das Prinzip, aber das ist auch das was mich bei CPU Benchmarks immer ärgert.
Denn hier laufen dann wieder die Kandidaten rum die sich einen darauf einbilden, dass man mit CPU X bei 720p dann doch noch 3 fps mehr rausholt, wenn es in der Realität (also heutzutage 1080p oder 1440p) einfach gar keine Rolle spielt.

Es ist eben die Frage was man zeigen will.

Will man die Unterschiede zwischen der Hardware zeigen (wie es für ein Launch-Review gehört), oder will man die Spielbarkeit eines bestimmten Spieles zeigen.

Bei ersterem sollte alles unternommen werden, um die zu testende Komponente möglichst 100% limitierend zu machen, auch wenn es unrealistische Einstellungen sind.

Bei zweiterem haben unrealistische Einstellungen natürlich nichts verloren.