PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: GeForce RTX 2080 /Ti Launchreviews: UltraHD/4K-Performan. im Überblick


Leonidas
2018-09-19, 23:14:06
Link zur News:
https://www.3dcenter.org/news/geforce-rtx-2080-ti-launchreviews-die-testresultate-zur-ultrahd4k-performance-im-ueberblick

Gast
2018-09-19, 23:34:52
Die Käufer zahlen mit Ihren Turing Karten im Prinzip die Markteinführung und Performanceoptimierung von Raytracing in kommerziellen Spieletiteln.

Da wird jetzt viel auf breiter Front experiementiert und optimiert werden. Spätestens mit der 7nm Generation wandern die Turing Karten dann jedoch wieder auf den Müll, da die RT-Leistung noch nicht ausreichend ist.
Ab der 7nm Generation kann dann RT richtig Fahrt aufnehmen.

Nvidia kann sich das derzeit leisten, da AMD derzeit abgehängt ist und das Marktrisiko von Nvidia auf den Kunden durch die hohen Preise abwälzen kann sowie der Tatsache, dass die Pascal-Generation weiter im Markt bleibt.

Für AMD ist das eigentlich auch ganz gut, da sie mit ihrer weniger effizienten Technik derzeit noch eine Lücke im Markt finden, d.h. die Kunden die derzeit noch auf RT verzichten können.

Eigentlich ganz gut, dass Nvidia diese aktuelle Ausnahmesituation nutzt um relativ risikofrei Raytracing im Markt zu verankern. Wäre AMD auf Augenhöhe, würde NV dieses Risiko sicherlich nicht eingehen.

Win-Win für alle

Gast
2018-09-20, 01:54:26
P/L ist an der Spitze völlig Banane. Wer unbedingt das Schnellste haben will, muss immer unverhältnismäßig in die Tasche greifen.

Die 2080 kann man wie vorher gesagt nicht empfehlen.
Das mag sich mit DLSS und RT noch ändern.
Von Anpassungen auf den geänderten internen Aufbau erwarte ich nicht viel. Siehe Maxwell.

Leonidas
2018-09-20, 07:04:08
P/L ist an der Spitze völlig Banane. Wer unbedingt das Schnellste haben will, muss immer unverhältnismäßig in die Tasche greifen.



Absolut korrekt. Aber bisher galt auch immer: Selbst wenn das Spitzenprodukt bei P/L gegenüber dem zweitschnellsten Mau war, so gab es doch gegenüber der letzten Generation immer noch ein P/L-Vorteil. Genau dieser Punkt existiert hier nicht mehr.

Gast
2018-09-20, 07:06:50
Hypetrain im nicht fertig gestellten und zu Ende entwickelten Tunnel gegen die Felswand gerasselt.

Warum RT nicht gebracht wird, weil dies die Enthusiasten aus dem 4K Himmel katapultiert. FHD auf einem UHD Display sieht einfach Schei**e aus und das weiss nVidia ganz genau. Da hilft auch kein DLAA oder was auch immer.

30% mehr Leistung für 80% mehr Geld, wer würde sich so ein Auto kaufen? Niemand! Mir ist egal was die Entwicklung kostet, wenn man ein zukunftsträchtiges Langzeitfeature prägen will, muss man auch bei den Kunden in Vorkasse gehen, denn das zahlt sich über den gesamten Zeitraum seiner Existent im Gamingbereich aus. NVidia lässt sich das schon mit der ersten Gen gegenfinanzieren.

NVidia mutiert immer mehr zu Apple, Gimmicks für einen Haufen Kohle ohne wirklich zu liefern was man sollte und verspricht, zu Preisen die nicht gerechtfertigt sind und an Abzocke erinnern. Das wird ihren Anteil im dGPU Bereich weiter schröpfen und AMD Chancen eröffnen gerade die 2080 gezielt anzugreifen. Zu deutlich niedrigerem Preis.

Zum jetzigen Zeitpunkt sind Turingkarten zu einem Statussymbol verkommen - hurra + ich gehöre der Raytracergemeinde an (Spiele weit und breit nicht zu sehen; ob Entwickler auf den Zug aufspringen unklar weil es viel zu viel Leistung kostet und die Reduktion der API unter Spielen dann kaum was übrig lässt was sehenswert wäre und einem ständig ins Auge fällt; als wenn die ganze reale Welt ein Spiegel/Spiegelbild wäre und alles nur noch glänzt; was für ein Schmarren), als sie sich wirklich dafür rechnen den RT Spielern zu begeistern. Jensen hat sie nicht mehr alle. Das ist schlimmer als eine 970.

Raytracinf it's not a bug, Raytracing it's a service for more money...

Über 70 Schrauben an einem FE Kühler, der dünnes Trompeten-Blech wirken lässt wie dickes Alu, mein Gott...natürlich kostet soviel unnütze Künstlichkeit viel Geld.

Turing it's a show, and the show must go on - ever...Lächerlich appvidia!

Korvaun
2018-09-20, 07:53:38
P/L ist ja immer subjektiv, ich für meine Teil finde die Founders Editions trotzdem sehr gelungen. Das einzige Problem was ich sehe ist die *nächste Generation* in 7nm die nicht mehr allzuweit weg ist. Sofern nV dort nicht nur versucht die Chipgrößen über alle Klassen wieder massig zu senken wird das ein sehr großer Sprung werden. Wie gut dann noch die 2080/Ti aussehen wird sich zeigen...

Rsioux
2018-09-20, 07:54:18
Danke für die schnelle Übersicht.

Interessantes Stück Technik zu einem uninteressanten Preis. Das wird sich hoffentlich mit der nächsten Generation in 7nm bessern.

Gruß

P.S. in der 2. Tabelle ist ein Tippfehler. Die 2080TI hat "nur" 11GB Speicher und nicht 12.

Leonidas
2018-09-20, 08:56:59
P.S. in der 2. Tabelle ist ein Tippfehler. Die 2080TI hat "nur" 11GB Speicher und nicht 12.


Gefixt.

Gast
2018-09-20, 12:18:24
Absolut korrekt. Aber bisher galt auch immer: Selbst wenn das Spitzenprodukt bei P/L gegenüber dem zweitschnellsten Mau war, so gab es doch gegenüber der letzten Generation immer noch ein P/L-Vorteil. Genau dieser Punkt existiert hier nicht mehr.
?

Ist günstiger als Titan Xp und gleichzeitig schneller.
Titan V ist noch viel teurer und war (wohl aus gutem Grund) nicht getestet.
Wegen RT & Tensor-Cores ist das nicht vergleichbar mit Generationswechseln der letzten X Jahre. Selbst Maxell war im Vergleich "nur" drastische Optimierung.

JVC
2018-09-20, 12:22:16
@Leonidas

Schöne Zusammenfassung :up:
Ich würde mich freuen wenn auch die Titan V einen platz in dem Vergleich finden würde.
( damit man weis wo eine MAX OC 1080Ti landen kann ;) )
Danke :)

m.f.g. JVC

Gast
2018-09-20, 18:10:13
Für eine dedizierte RT-GPU mit 260 Watt ist die Raytracingleistung enttäuschend gering. Eine 2080 Ti ist nur ~2.5x schneller als eine 980 Ti. (https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/47377-die-geforce-rtx-2080-ti-und-rtx-2080-founders-edition-im-test.html?start=14) Die mehr als 3 Jahre alte RT-GPU von IMG mit nur 2 Watt ist beim Raytracing mehr als 5x so schnell wie eine 980 Ti. Beim nächsten Versuch sollte sich Nvidia vorher von den IMG-Ingenieuren zeigen lassen, wie das geht.

Gast
2018-09-20, 22:04:24
Gute Karten, der Preis passt leider so überhaupt nicht.

Meine Prognose: Anfang nächstes Jahr kommt eine Titan mit vollem TU102 und die jetzt releasten Karten bekommen "normale" Preise.

MrSpadge
2018-09-20, 22:21:30
Einiges an Potential dürfte noch im "variable rate shading" stecken, was wohl recht einfach zu nutzen ist (Karte und Treiber kümmern sich um alles), aber explizit genutzt werden muss. Wenn das in 4k noch mal 10 - 20% ausmacht (link (https://www.youtube.com/watch?v=LCT7pF6HrIg)), wäre das bei diesem knappen Vergleich sehr wichtig. Als Engine-entwickler wäre ich zumindest heiß drauf, es zu testen.

MrS

pixeljetstream
2018-09-21, 00:59:06
Afaik muss der Entwickler VRS selbst einbauen, oder ich hab was verpasst.

Leonidas
2018-09-21, 05:06:28
Ich würde mich freuen wenn auch die Titan V einen platz in dem Vergleich finden würde.



Leider sind nur 2 Testberichte hierzu vorhanden. Genauso wurden Titan X und Vega 64 LC viel zu selten mitgetestet. Eventuell mache ich das alles als eine extra Spalte, mal sehen.

Gast
2018-09-21, 20:55:57
Nachtrag: Ich lese gerade erst, dass es schon Fälle gibt, in welchen eine 2080 der 1080Ti deutlich (15 bzw. 40%) davon zieht. Aber eben nicht Spiele, sondern GPGPU. Und man kann das Potential der RTX z.Z. noch gar nicht voll ausnutzen.

Gast
2018-09-22, 15:14:50
Für eine dedizierte RT-GPU mit 260 Watt ist die Raytracingleistung enttäuschend gering. Eine 2080 Ti ist nur ~2.5x schneller als eine 980 Ti. (https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/47377-die-geforce-rtx-2080-ti-und-rtx-2080-founders-edition-im-test.html?start=14) Die mehr als 3 Jahre alte RT-GPU von IMG mit nur 2 Watt ist beim Raytracing mehr als 5x so schnell wie eine 980 Ti. Beim nächsten Versuch sollte sich Nvidia vorher von den IMG-Ingenieuren zeigen lassen, wie das geht.

Du weißt schon, dass dieser Benchmark die RTX-Funktionen gar nicht nutzt, sondern rein auf Compute setzt?