PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing (Pascal-Erbe) Q3/18, 12 nm, GDDR6


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 [34] 35 36 37 38 39 40 41 42 43 44 45 46 47 48

vinacis_vivids
2018-09-06, 05:27:36
Hab dennoch die min. fps zusammengefasst (für mich sowieso stärker zu gewichten als avg, da kaum CPU-Limit)
Game/GPU|2080Ti | 1080Ti| diff
RB6 |64,3 |54,7|+17,5%
WWII |46,2 |42,1|+9,7%
FC5 |55,6 |32,7|+70%
TC2 |56,7 |42,1|+34,7%
FH |61,3 |42,8|+43,2%
GTAV |58,8 |53,7|+9,5%
MEA |50,3 |33,7|+49,2%
PUBG |47,3 |39,2|+20,6%
W3 |41,2 |29,7|+38,7%
BFV |52,3 |46,5|+12,5%
All~|53,4|41,7|+28%

30% Rohleistung ~ 28% min. fps

Ex3cut3r
2018-09-06, 05:29:09
Ich fand Tflops Zahlen ja noch nie so wirklich aussagekräftig, aber da bin wohl der einzige?!

Ansonsten an dem Youtube "Jokerproductions" Leak ein großes Fragezeichen setzen, ich habe die Vermutung, die hat er mit anderer IP selbst "geleakt" und dann rausposaunt, das er einen Leak gefunden hat. Youtuber machen viele verrückte Sachen um mehr Klicks/Views zu erreichen. Von daher großes Fake Potzenzial mit versuchten "realistischen" Werten.

Zwei Pkt. sind da nämlich Mega Auffällig, erstens es gibt noch keine Treiber außer man Hackt die Nvidia Seite, ist Youtuber oder Tester. Zweitens BF5 ist ja auch in den Benches vertreten, die Alpha 2 war aber zum Zeitpunkt des Leaks schon fast 2 Wochen Offline. Also hatte der "Leaker" eine RTX 2080Ti und Treiber schon im Zeitraum vom 22 bis ca. 25 August? Nie im Leben. Nennt mich einfach Sherlock.

vinacis_vivids
2018-09-06, 05:36:02
Ist schon ziemlich realistisch. CB hat für die Titan V lediglich +19% bei den min. fps. gemessen über mehr Games.
https://abload.de/img/screenshot_2018-09-06rxira.png

Spasstiger
2018-09-06, 07:57:33
2080Ti - 4532SP ~ 1635Mhz ~ 14,82Tflops
1080Ti - 3584SP ~ 1582Mhz ~ 11,34Tflops

Es sind ~ 30% mehr Rohleistung bei ~ 37,5% mehr fps. Kann auch sein, dass der neue Kühler ~1700Mhz@UHD schafft. Das wären dann ~ 36% mehr Rohleistung (15,41Tflops) bei ~ 37,5% mehr fps.
Die 1080 Ti bringt es ohne OC auf einen durchschnittlichen Boost-Takt von 1620-1650 MHZ, in Einzelfällen sogar auf knapp 1900 MHZ: http://m.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-1080-ti
Die 1635 MHZ der 2080 Ti werden nur für die Founders Edition angegeben, die mit ihrem erhöhten Power-Limit eine klassische OC-Karte ist.

Die Basis-Varianten von 1080 Ti und 2080 Ti werden den Herstellerangaben nach wohl sehr ähnlich takten und dann sorgt alleine die größere Anzahl an Recheneinheiten für die höhere Peak-Rechenleistung. Wir reden hier von 21%.

dargo
2018-09-06, 08:28:15
Die 1080 Ti bringt es ohne OC auf einen durchschnittlichen Boost-Takt von 1620-1650 MHZ, in Einzelfällen sogar auf knapp 1900 MHZ: http://m.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-1080-ti

CB spricht von 1597-1647Mhz im Schnitt.
https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-test/#abschnitt_taktraten_nach_20_minuten_last

Die TFLOPs zu bestimmen ist nicht ganz einfach, die Spiele reagieren recht unterschiedlich. Bei Battlefront sind es bsw. nur noch min. 1506Mhz. Wenn man schon Leistung vergleicht muss man explizit auf die Spiele und den dort erreichten Takt von Pascal achten.

GSXR-1000
2018-09-06, 08:31:33
https://www.computerbase.de/2018-09/battlefield-v-weniger-raytracing/
Jaja.. manchmal ist weniger ja mehr...ich weiss.
So lol im kontext der leute, die hier immer wieder posaunt haben, das alles nur noch nicht polished ist und das jetzt aber sowas von zeitnah von allem AAA devs MEHR und SCHNELLERES RT implementiert wird. Ja es wird optimiert. Indem man RT reduziert.
Deutlicher kann das eingestaendnis nicht sein, das der RT part der ersten RTX generation hoffnungslos unterdimensioniert ist, relevant und effektiv kaum nutzbar ist und in der kommenden generation maximal als tech demo taugt.
Da lohnt sich der 50%+ preisaufschlag doch gleich noch mehr.
Aber wer so treue juenger hat, der kommt auch mit sowas durch.

Leonidas
2018-09-06, 08:36:40
Game/GPU|2080Ti | 1080Ti| diff
RB6 |64,3 |54,7|+17,5%
WWII |46,2 |42,1|+9,7%
FC5 |55,6 |32,7|+70%
TC2 |56,7 |42,1|+34,7%
FH |61,3 |42,8|+43,2%
GTAV |58,8 |53,7|+9,5%
MEA |50,3 |33,7|+49,2%
PUBG |47,3 |39,2|+20,6%
W3 |41,2 |29,7|+38,7%
BFV |52,3 |46,5|+12,5%
All~|53,4|41,7|+28%


Klugscheiß-Modus: fps zusammenzuaddieren und dann einen Durchschnitt bilden ist ungleich, wenn man einen Durchschnitt der reinen Differenzen bildet. In diesem Fall kommt sogar ein bemerkbarer Fehler heraus: Das korrekte Ergebnis lautet +30,7% (https://www.3dcenter.org/news/angeblicher-benchmark-leak-zeigt-die-geforce-rtx-2080-ti-um-375-vor-der-geforce-gtx-1080-ti) - und nicht +28%

Linmoum
2018-09-06, 08:39:52
Achso. Es gibt schon seriöse Reviews der RTX 2080 Ti. Wusste ich nicht. :popcorn:
Tom Petersons 35-45% sind für den Anfang seriös genug. Übliches Marketing mit einkalkulieren und et voilà.

SKYNET
2018-09-06, 09:13:27
nachdem BF5 nun wohl kastriert wird, denke ich NV hat druck gemacht, das zum review die frames nicht zu mies aussehen :D

Armaq
2018-09-06, 09:13:47
Damit müsste ich von 1080 auf 2080TI, damit ich das erreiche, was ich mich vorstelle. Das ist mir dann ehrlich einfach ein etwas zu hoher Invest.

Voraussetzung ist, dass die hier genannten Zahlen auch stimmen. Aber das BFV den RT-Faktor reduziert sagt im Prinzip alles.

Dural
2018-09-06, 09:20:16
Die 2080Ti dürfte eine sehr interessante Karte sein wenn man das PT auf sagen wir mal 400W stellen könnten, oder halt ohne PT. Wenn der Chip 2000-2200MHz macht hat die relativ viel Power würde ich mal behaupten ;)

Bei der 2080 bin ich mir nicht so sicher ob dies so ein kluger kauf wäre wenn man Übertakten will. Die dürfte mit ihren 210W so wie so schon recht gut takten zudem dürfte ihr ab einen gewissen takt die Bandbreite etwas sorgen machen. Ich denke die 2070 wäre für solche User die zudem nicht viel ausgeben wollen interessanter, da gleicher Speicher. Und bei der Karte bin ich mir auch relativ sicher das man auch mal 2,2Ghz sehen werden, relativ grosser Die und viel deaktiviert ist immer gut wenn es um OC geht :)

Das einzige interessante bei turing ist ja eigentlich nur die Leistung / Watt fragen, turing wird da sicher einen neuen bestwert vorzeigen, die frage ist nur wie viel besser.

robbitop
2018-09-06, 09:34:45
Fuer ~20% mehr Rohleistung? Finde das ziemlich beachtlich.

Ja das schon. Die mArch ist toll. Ich meinte es aber aus der „hier und jetzt“ Perspektive eines Endverbrauchers zum Produkt, dessen Nutzwert und P/L. Und das ist, wenn das mit den <40% @heutigen Spielen stimmt, wirklich eher unbeeindruckend. Da neigt man darauf, auf die 7nm Gen zu warten, die dann hoffentlich mehr Punch mitbringt...

Dural
2018-09-06, 09:48:28
Ich Wette in 6 Monaten wird Pascal keiner mehr interessieren :biggrin:

Und die neunmal klugen die jetzt noch eine neue Pascal Karte kaufen werden dann auch einsehen das sie einen Fehlkauf gemacht haben.

Pascal ist durch die Bank einfach noch viel zu teuer, das könnte erst interessant werden wenn man eine 1080ti für um die 400.- bekommt.

gnomi
2018-09-06, 09:52:09
Damit müsste ich von 1080 auf 2080TI, damit ich das erreiche, was ich mich vorstelle. Das ist mir dann ehrlich einfach ein etwas zu hoher Invest.

Voraussetzung ist, dass die hier genannten Zahlen auch stimmen. Aber das BFV den RT-Faktor reduziert sagt im Prinzip alles.

Für High End Käufer (680/980) ist das ganze eine Mogelpackung.
Lange gab es 60-70% mehr Leistung ohne Mehrverbrauch plus doppelten Speicher bei maximal 10% Aufpreis um 500 Euro. :up:
Bei der 1080 musste man dann schon auf die Partnerkarten gehen und etwa 25% mehr zahlen. Dafür blieb es bei den Vorzügen (Karte war sogar etwas schneller und kühler als die Referenzlösungen)

Die 2080 ist zwar schnell und mit neuster Technik, aber nicht das Top Produkt zum Release.
Es gibt kein mehr an Speicher und vermutlich lediglich eine Performance etwas über 1080 TI Niveau.
Gemessen an der 1080 Custom zahlt man etwa 30% nochmals drauf.
Von den 500 Euro von früher ist man dann bei 70% Aufschlag angekommen.
Da wurde ganz einfach eine neue Preisklasse aufgemacht.
Ich bin zwar immer noch der Meinung, dass die Karten prinzipiell wegen der hohen Leistung und fortschrittlichen Technik an und für sich top sind, aber, wenn man jetzt nicht die Reißleine zieht, bekommt man High End gar nicht mehr unter 1000 Euro.
Dann lieber in die Mittelklasse oder maximal Performance abwandern, oder mit OLED und Konsole spielen. Die Features bekommt man sowieso rechtzeitig, wenn eine höhere Basis an Spielen mit fortschrittlicheren Grafiken aufwartet.
Man verpasst da imho rein gar nichts mehr. :wink:

uweskw
2018-09-06, 10:00:40
Ich Wette in 6 Monaten wird Pascal keiner mehr interessieren :biggrin:

Und die neunmal klugen die jetzt noch eine neue Pascal Karte kaufen werden dann auch einsehen das sie einen Fehlkauf gemacht haben.

Pascal ist durch die Bank einfach noch viel zu teuer, das könnte erst interessant werden wenn man eine 1080ti für um die 400.- bekommt.




Danke, dass wenigstens ein paar unsere Marketingstrategie unterstützen. Weiter so!



Lederjacke

SKYNET
2018-09-06, 10:05:03
Ich Wette in 6 Monaten wird Pascal keiner mehr interessieren :biggrin:

Und die neunmal klugen die jetzt noch eine neue Pascal Karte kaufen werden dann auch einsehen das sie einen Fehlkauf gemacht haben.

Pascal ist durch die Bank einfach noch viel zu teuer, das könnte erst interessant werden wenn man eine 1080ti für um die 400.- bekommt.

eher umgedreht, alle die unterhalb der 2080Ti gekauft haben, werden sehen das sie nen fehlkauf gemacht haben, weil zwar die rohleistung theoretisch vorhanden wäre, aber in eyecandy titeln der speicher ausgeht.

und ich glaube meine 440€ 1080Ti wird ohne probleme dank 11GB speicher noch lange reichen, auch bei eyecandy titeln wie FFXV wo in FHD schon die 11GB ausgefüllt werden wenn alle regler auf rechts stehen. :tongue:

Menace
2018-09-06, 10:14:27
nachdem BF5 nun wohl kastriert wird, denke ich NV hat druck gemacht, das zum review die frames nicht zu mies aussehen :D

Ja, nVidia hat mal für sich wieder alles richtig gemacht. Tolle Vorstellung der RTX-Karten; alle Medien waren gehypt was Raytracing angeht und wie toll die Reflexionen bei BF5 sind -> daraus schöne Bilder und Filmchen gebastelt.

Nachdem sich das jetzt großteils in den Köpfen verankert hat, Vorbestellungen raus sind, wird das zurückgedreht. Dafür werden dann für den Test die Balken, die man veröffentlicht besser aussehen bei RT (vielleicht schaffen dann sogar die Non-Ti und 2070 30 fps/s).

Bin gespannt, welche Wendungen dann noch kommen. :confused:

SKYNET
2018-09-06, 10:18:59
Ja, nVidia hat mal für sich wieder alles richtig gemacht. Tolle Vorstellung der RTX-Karten; alle Medien waren gehypt was Raytracing angeht und wie toll die Reflexionen bei BF5 sind -> daraus schöne Bilder und Filmchen gebastelt.

Nachdem sich das jetzt großteils in den Köpfen verankert hat, Vorbestellungen raus sind, wird das zurückgedreht. Dafür werden dann für den Test die Balken, die man veröffentlicht besser aussehen bei RT (vielleicht schaffen dann sogar die Non-Ti und 2070 30 fps/s).

Bin gespannt, welche Wendungen dann noch kommen. :confused:

och, wäre doch nicht das erstemal das team grün mit gezinkten karten spielt. ;)

BigKid
2018-09-06, 10:23:45
Ich hoffe immernoch auf DLSS als Joker. WENN es das mit OPTIONALEM Upscaling (oder einem anderen Pixel-Sparer) gibt und dieses Upscaling dank speziell auf das Spiel trainierter AI einen richtig guten Job macht wäre das für mich ein Highlight.
Es würde gleich 2 Handbremsen lösen denn es würde einen ordentlichen Performance Boost bringen UND gleichzeitig den VRAM 2x entlasten (zum einen weil man in einer niedrigeren Auflösung rendert und zum anderen weil es gar keine Ultra-Hochauflösenden-Texturen braucht).
Und richtig cool wäre das IMHO für Gaming-Laptops die ja am meisten an der TDP hängen bzw. die man eigentlich in 2 Modi betreiben will - Stromsparend und Leise oder Full-Power und mit Kopfhörern...
Ausserdem könnte es meiner Ansicht nach die Lebensdauer um (mindestens) ein Jahr verlängern (die ersten 1-2 Jahr ohne Upscaling und dann halt nochmal 1-2 Jahr MIT).

Armaq
2018-09-06, 10:24:40
Gezinkt sind die Karten doch gar nicht. Sie haben ne TombRaider Demo gezeigt, die echt nicht gut lief und haben auch gesagt, dass das krass rechenintensives Zeug ist. Meiner Meinung nach haben sie mit dem Preis der 2080Ti eben auch die Hoffnung geschürt, dass das in 4k gut läuft.

FHD und RT für 1300 € ist da glaube ich einfach ein Problem.
Zusammen mit den Mining Käufern, die haben nvidia und amd keinen gefallen getan, was den Börsenkurs angeht. Diese Sondereffekte versteht doch zur nächsten Bilanzanalyse keiner mehr und nvidia als auch amd machen schlechte Produkte die keiner will...

uweskw
2018-09-06, 10:28:52
Die 2080Ti dürfte eine sehr interessante Karte sein wenn man das PT auf sagen wir mal 400W stellen könnten, oder halt ohne PT. Wenn der Chip 2000-2200MHz macht hat die relativ viel Power würde ich mal behaupten ;)

..............

Das einzige interessante bei turing ist ja eigentlich nur die Leistung / Watt fragen, turing wird da sicher einen neuen bestwert vorzeigen, die frage ist nur wie viel besser.


Kennen wir schon. Dann wird wieder die Performance von Super-OC mit der Effizienz vom Normaltakt in einen Topf geschmissen. Und auf einmal sind wir doppelt so schnell bei halben Stromverbrauch :freak:


greetz
US

Dural
2018-09-06, 10:33:04
Eine effiziente karte hat bei oc auch viel leistung. das liegt in der sache der natur ;)

gbm31
2018-09-06, 10:39:38
Für High End Käufer (680/980) ist das ganze eine Mogelpackung.
Lange gab es 60-70% mehr Leistung ohne Mehrverbrauch plus doppelten Speicher bei maximal 10% Aufpreis um 500 Euro. :up:
Bei der 1080 musste man dann schon auf die Partnerkarten gehen und etwa 25% mehr zahlen. Dafür blieb es bei den Vorzügen (Karte war sogar etwas schneller und kühler als die Referenzlösungen)

Die 2080 ist zwar schnell und mit neuster Technik, aber nicht das Top Produkt zum Release.
Es gibt kein mehr an Speicher und vermutlich lediglich eine Performance etwas über 1080 TI Niveau.
Gemessen an der 1080 Custom zahlt man etwa 30% nochmals drauf.
Von den 500 Euro von früher ist man dann bei 70% Aufschlag angekommen.
Da wurde ganz einfach eine neue Preisklasse aufgemacht.
Ich bin zwar immer noch der Meinung, dass die Karten prinzipiell wegen der hohen Leistung und fortschrittlichen Technik an und für sich top sind, aber, wenn man jetzt nicht die Reißleine zieht, bekommt man High End gar nicht mehr unter 1000 Euro.
Dann lieber in die Mittelklasse oder maximal Performance abwandern, oder mit OLED und Konsole spielen. Die Features bekommt man sowieso rechtzeitig, wenn eine höhere Basis an Spielen mit fortschrittlicheren Grafiken aufwartet.
Man verpasst da imho rein gar nichts mehr. :wink:

This!

Aber gleich kommt wieder wie Neid-Keule...

gbm31
2018-09-06, 10:43:02
Ist doch nurn Hunndi mehr

Und 3GB weniger... also:Kaufen! :rolleyes:

SKYNET
2018-09-06, 10:43:30
Gezinkt sind die Karten doch gar nicht. Sie haben ne TombRaider Demo gezeigt, die echt nicht gut lief und haben auch gesagt, dass das krass rechenintensives Zeug ist. Meiner Meinung nach haben sie mit dem Preis der 2080Ti eben auch die Hoffnung geschürt, dass das in 4k gut läuft.

FHD und RT für 1300 € ist da glaube ich einfach ein Problem.
Zusammen mit den Mining Käufern, die haben nvidia und amd keinen gefallen getan, was den Börsenkurs angeht. Diese Sondereffekte versteht doch zur nächsten Bilanzanalyse keiner mehr und nvidia als auch amd machen schlechte Produkte die keiner will...


bei TR warens nur die schatten die RT waren, denke da haben sich die hälfte der RT cores gelangweilt...

Dural
2018-09-06, 10:43:49
Mogelpackung mit einem 750mm2 Die :freak:

Leute sagt doch einfach das es EUCH zu teuer ist, keiner zwingt euch irgend was zu kaufen :rolleyes:

Menace
2018-09-06, 10:47:35
Mogelpackung mit einem 750mm2 Die :freak:

Leute sagt doch einfach das es EUCH zu teuer ist, keiner zwingt euch irgend was zu kaufen :rolleyes:

:eek:
Sprach ich vom Preis? Es geht darum, dass die RTX mit den Effekten "Raytracing" bei BF5 beworben wurde (die Fotos und Filmchen kann man im Internet sehen) die es so dann aber gar nicht gibt. Da würde ich gerne noch ganz andere Wörter benutzen als "gezinkt".

Welche Framerates eine RTX 2070 (ist doch auch eine RTX, oder?) dann überhaupt mit RT gehen, stehen ja noch gar nicht fest.

Hätte AMD sich das getraut (4 Wochen vorher vorstellen, kein Launch, keine Auslieferung, keine Tests) würden das denen hier einige aber so um die Ohren hauen.

gbm31
2018-09-06, 10:48:08
Mogelpackung mit einem 750mm2 Die :freak:

Leute sagt doch einfach das es EUCH zu teuer ist, keiner zwingt euch irgend was zu kaufen :rolleyes:

Du musst einfach lesen. Das sagt jeder. Das Problem dabei: ohne Konkurrenz müssen wir dank derer die jetzt kaufen später ALLE höhere Preise zahlen. Man kann einen HErsteller auch "erziehen" - indem man einfach mal nicht kauft. Dazu braucht man aber Weitsicht und muss verzichten können, immer der erste, beste, tollste zu sein (oder das zu denken...)

Dural
2018-09-06, 10:49:51
Meinst du die ganze Entwicklung von NV zahlt sich von selbst? Da muss Geld rein kommen, und zwar viel.


@Menace

Ich habe nicht auf dich geantwortet.

Das abspecken von RT finde ich auch nicht gut, lieber volle Quali dafür schlechte FPS, man kann immer zurückdrehen oder neuere Hardware kaufen die es dann besser kann. Aber ich denke da sind mal wider die ganzen User schuld die RTX schon ausgelacht haben weil es halt Leistung braucht, richtig viel Leistung... Das war doch von Anfang an klar das RT was von der Hardware abverlangt.



Dank NV haben wir seit zig Jahren mal wieder was neues, aber nein stattessen wird überall nur rum gemeckert, ich finde es zum kotz... NV hätte auch einfach den einfachen weg gehen können und bei Pascal einfach paar Einheiten dazu stopfen können, da hättet ihr auch die 40% mehr Leistung aber für weniger Geld gehabt. Wärt ihr dann zu frieden gewesen?!?

Menace
2018-09-06, 11:02:41
Danke NV haben wir seit zig Jahren mal wieder was neues, aber nein stattessen wird überall nur rum gemeckert, ich finde es zum kotz...

Ok. Alles klar. :smile: Aber Du musst auch differenzieren (mal abgesehen, dass die AMDler immer bei nVidia rummotzen und nVidianer halt am AMD); RT finden die meisten doch prima.

Ich finde das mit dem Preis auch lächerlich; es wird keiner gezwungen für ein Hobby so viel Geld auszugeben. Wer es sich nicht leisten kann, kauft halt eine Grafikkarte, die für ihn besser passt.

Dummer Autovergleich meinerseits: Ich würde ja auch gerne einen Aston Martin Rapide S fahren; aber ist halt doch zu teuer. So wurde es ein Citroën C6 (immerhin mit V6 Jaguar Motor :freak: ).

gbm31
2018-09-06, 11:09:07
...

Ich finde das mit dem Preis auch lächerlich; es wird keiner gezwungen für ein Hobby so viel Geld auszugeben. Wer es sich nicht leisten kann, kauft halt eine Grafikkarte, die für ihn besser passt.

Dummer Autovergleich meinerseits: Ich würde ja auch gerne einen Aston Martin Rapide S fahren; aber ist halt doch zu teuer. So wurde es ein Citroën C6 (immerhin mit V6 Jaguar Motor :freak: ).

Ach, und wenn Citroen die Preise inAston Regionen anheben würde und es sonst keine HErsteller gibt? Merkst was?

Dural
2018-09-06, 11:12:33
Ganz ehrlich, wer nicht jedes Jahr 1000.- für eine Grafikkarte ausgeben will/kann/möchte dem würde ich auch keine 12nm Turing Karte empfehlen, die 7nm Produkte dürften deutlich runder sein. Den 7nm ist sicherlich auch nicht mehr Meilenweit weg, sonst würde es eventuell etwas anders ausschauen.

pilzsammler2002
2018-09-06, 11:17:30
da hättet ihr auch die 40% mehr Leistung aber für weniger Geld gehabt. Wärt ihr dann zu frieden gewesen?!?
;D;D;D;D;D
Wir wären alle empört... Mehr Leistung für weniger Gled kann nicht im Sinne des Kunden sein!!!!11elf

Dural
2018-09-06, 11:22:26
Wenn du keinen technischen Fortschritt wegen ein paar Euro haben willst, ja dann hat NV definitiv einen Fehler gemacht. :rolleyes:

Screemer
2018-09-06, 11:25:46
Meinst du die ganze Entwicklung von NV zahlt sich von selbst? Da muss Geld rein kommen, und zwar viel.

das tut es und zwar seit jahren. richtig ab gehten tut es seitdem man spielern kleine gpus für einen premium preis verkauft:

https://static.techspot.com/images2/news/bigimage/2017/02/2017-02-10-image.png
https://www.top500.org/static/media/uploads/.thumbnails/nvidia-q1fy18.png/nvidia-q1fy18-800x241.png
https://cdn.wccftech.com/wp-content/uploads/2017/08/Nvidia-Corporation-Quarterly-Revenue-Trend-Q2-FY18.jpg

Fliwatut
2018-09-06, 11:26:58
Ich hoffe immernoch auf DLSS als Joker.
Ich auch. Nur schade, dass das bzw. dieses "AI-Upscaling" in die Spiele eingebaut werden muss, ältere Spiele profitieren davon also nicht. Als Treiberfeature wäre das doppelt so genial.

MartinRiggs
2018-09-06, 11:30:41
Die Mär vom armen Nvidia das die Preise so machen muss damit sie überhaupt halbwegs überleben können
:facepalm:

robbitop
2018-09-06, 11:39:11
Wenn du keinen technischen Fortschritt wegen ein paar Euro haben willst, ja dann hat NV definitiv einen Fehler gemacht. :rolleyes:

Naja technischer Fortschritt erhöht den hier-und-jetzt Nutzwert leider nur eingeschränkt. Mittel/langfristig aber wichtig (siehe SM3 gem dx9 ggü einfachen Register Combinern bei dx7 -falls jmd fragt: dx8 und dx9 sm2 waren zwar auch programmierbar - aber es fehlte einfach noch ein Stück um richtig da zu sein. SM3 erreichte das...).
Die Pioniere sind halt leider immer die den eingeschränkten Nutzwert tragen müssen trotz hoher Preise. Das wird diesmal vermutlich nicht anders sein.
Die 2. und 3. Gen wird dann mit mehr Punch und besserem PL die Früchte ernten.

Muss jeder selbst wissen. Technisch spannend ist es ohne Ende. Und beeindruckend, wie groß der die ist. :)



—————-

@dlaa
Ich bin gespannt, wie gut es sich (insbesondere ggü checkerboarding oder temporalen rekonstruktionsverfahren) schlägt.
Noch bin ich skeptisch- aber gespannt :)

Blöd, dass es nicht universal (wie auch?) funktioniert sondern nur in Spielen, die es explizit unterstützen. Die Frage ist auch, wie wichtig die Implementierung im jeweiligen Spiel für das Ergebnis und seine Konsistenz ist.

nairune
2018-09-06, 11:41:12
Die Mär vom armen Nvidia das die Preise so machen muss damit sie überhaupt halbwegs überleben können
:facepalm:

Da wird nur immer der Nebensatz " und die 60% Marge halten oder steigern" weggelassen...

BigKid
2018-09-06, 11:41:28
Ich auch. Nur schade, dass das bzw. dieses "AI-Upscaling" in die Spiele eingebaut werden muss, ältere Spiele profitieren davon also nicht. Als Treiberfeature wäre das doppelt so genial.
Wenn ich das richtig verstanden habe dann braucht DLSS die Motion-Vektoren in der höheren Ziel-Auflösung während das Bild dann in einer niedrigeren Auflöung gerendert und dann aufgeblasen würde. Ich denke daher benötigt es Ünterstützung in der Engine. Ferner wird das AI-Upscaling dann besser klappen wenn die AI auf den speziellen Artstyle des Spiels trainiert wurde und nicht einfach nur ein "generelles" Training hatte.

robbitop
2018-09-06, 11:43:00
Mein Tip ist übrigens, dass die kleinen Turings (sofern es sie gibt und die nicht gleich ampere oä heissen) in 7nm kommen. Weil 1. später und 2. der RT Anteil dann eher zur die size und dem Fortschritt passt.
TU106 will sicherlich so schnell werden wie gp104. Das inkl RT/TC wäre für eine 2xx€ Karte in 12lp ggf zu groß...

robbitop
2018-09-06, 11:43:54
Wenn ich das richtig verstanden habe dann braucht DLSS die Motion-Vektoren in der höheren Ziel-Auflösung während das Bild dann in einer niedrigeren Auflöung gerendert und dann aufgeblasen würde. Ich denke daher benötigt es Ünterstützung in der Engine. Ferner wird das AI-Upscaling dann besser klappen wenn die AI auf den speziellen Artstyle des Spiels trainiert wurde und nicht einfach nur ein "generelles" Training hatte.
So ist es.Es muss prinzipbedingt explizit unterstützt werden. Selbst simples taa muss es.

Menace
2018-09-06, 11:50:18
Ach, und wenn Citroen die Preise inAston Regionen anheben würde und es sonst keine HErsteller gibt? Merkst was?

Dann kaufe ich ein anderes Auto (zumal Citroën keine HP mehr verbauen und damit die Marke sowieso für mich tot ist). Nochmals: Wenn euch die Preise nerven, dann kauft nicht. Man braucht (a) zum Überleben keine Grafikkarte und (b) gibt es genug günstigere Grafikkarten. Du bist doch ein mündiger Konsument, oder? Ich habe bei der Vega solange gewartet, bis sie unter 500 € zu kaufen gab (meine persönliche Schmerzgrenze für Grafikkarten).

Wobei das Äußern, dass sie zu teuer ist, darf man natürlich schon. Aber dann sollte es sich halt auch im Konsumverhalten widerspiegeln.

Wie gesagt, das zurückfahren der RT-Effekte nach (!) dem Show-Invent finde ich weit aus bedenklicher. Was sagen eigentlich dazu Raff und yehaa?

Screemer
2018-09-06, 12:03:06
Wenn ich das richtig verstanden habe dann braucht DLSS die Motion-Vektoren in der höheren Ziel-Auflösung während das Bild dann in einer niedrigeren Auflöung gerendert und dann aufgeblasen würde. Ich denke daher benötigt es Ünterstützung in der Engine. Ferner wird das AI-Upscaling dann besser klappen wenn die AI auf den speziellen Artstyle des Spiels trainiert wurde und nicht einfach nur ein "generelles" Training hatte.
das ginge wohl unter anderem auch über reshade. hatte pixeljetstream schon mal angesprochen.

gbm31
2018-09-06, 12:35:34
Dann kaufe ich ein anderes Auto (zumal Citroën keine HP mehr verbauen und damit die Marke sowieso für mich tot ist). Nochmals: Wenn euch die Preise nerven, dann kauft nicht. Man braucht (a) zum Überleben keine Grafikkarte und (b) gibt es genug günstigere Grafikkarten.

Du hast es immer noch nicht verstanden. Es gibt in dem Beispiel kein anderes Auto. Oder eben passenden Sprit oder Straßen (=Software).


Und der Punkt ist: wenn man die Preise einmal versaut hat, müssen in Zukunft alle damit leben. (Übrigens in beide Richtungen...) - aber diesen Punkt wollt ihr nicht verstehen...


Ganz ehrlich, wer nicht jedes Jahr 1000.- für eine Grafikkarte ausgeben will/kann/möchte dem würde ich auch keine 12nm Turing Karte empfehlen, die 7nm Produkte dürften deutlich runder sein. Den 7nm ist sicherlich auch nicht mehr Meilenweit weg, sonst würde es eventuell etwas anders ausschauen.


Wow! Es geht tatsächlich! Sachlich und vernünftig. Ich bin wirklich beeindruckt! :-)

Menace
2018-09-06, 12:40:18
Du hast es immer noch nicht verstanden. Es gibt in dem Beispiel kein anderes Auto. Oder eben passenden Sprit oder Straßen (=Software).


Es wird eine neue Technik eingeführt, in der momentan nVidia ohne Konkurrenz dasteht. Es bedeutet, dass Spiele besser aussehen können (man weiß es erst, wenn wohl unabhängige Tests und finale Settings bekannt sind; wobei das noch dauern dürfte). Das bedeutet, dass sie die Preise vorgeben. Ganz ehrlich, bei einigen Beispielen von RT musste ich immer schauen, ob der RT-Schalter an oder aus war; direkt konnte ich es auf den ersten Blick nicht feststellen.

Das heißt um zu spielen, brauchst Du nicht RT-Effekte. Wenn Du sie Dir jetzt noch nicht leisten kannst, dann warte halt einfach 1-2 Jahre ab. Wenn Du findest, dass nVidia zu viel verdient und Du das doof findest, dann kaufe halt AMD oder intel-APUs oder 1080 Ti. Durch RT kann ein Spiel besser aussehen, das ist alles (nicht mehr; nicht weniger).

HOT
2018-09-06, 12:41:27
Mein Tip ist übrigens, dass die kleinen Turings (sofern es sie gibt und die nicht gleich ampere oä heissen) in 7nm kommen. Weil 1. später und 2. der RT Anteil dann eher zur die size und dem Fortschritt passt.
TU106 will sicherlich so schnell werden wie gp104. Das inkl RT/TC wäre für eine 2xx€ Karte in 12lp ggf zu groß...
Das macht einfach 0 Sinn. 7nm ist teuer und grad für die kleinen ist das Gewinnpotenzial bei 16/12nm einfach zu groß. Die haben auch kein RT. Bisher ist ja nicht mal bekannt, ob die 2070 auf einen eigenen Chip (TU106) setzt oder das ein weiter gesalvagter TU104 ist. Wenn da noch was kommt ist das 100%ig 12FFN, wie alle Turings.

robbitop
2018-09-06, 12:45:08
@screemer
Reshade hat afaik bis heute kein simples TAA. Zugriff auf den Z Buffer und auf den letzten Frame (vor Applikation des PP) sind da die Grundvoraussetzungen. DLAA braucht das und noch einiges mehr. Es muss ja noch Interfencing für das spezifische Spiel bei NV auf deren Servern passieren. Dazu braucht das Spiel die Schnittstelle. Ohne Implentierung läuft da imo nichts. Somit ist die Verbreitung dann leider begrenzt.

robbitop
2018-09-06, 12:49:20
Das macht einfach 0 Sinn. 7nm ist teuer und grad für die kleinen ist das Gewinnpotenzial bei 16/12nm einfach zu groß. Die haben auch kein RT. Bisher ist ja nicht mal bekannt, ob die 2070 auf einen eigenen Chip (TU106) setzt oder das ein weiter gesalvagter TU104 ist. Wenn da noch was kommt ist das 100%ig 12FFN, wie alle Turings.
Pro Transistor bzw pro sqmm ist der kleinere Prozess teurer. Aber es werden weniger sqmm da shrink. Am Ende ist der Kern ggf auch noch teurer als in 12nm. Aber durch die kleinere Größe nicht mehr so viel teurer. Dafür wird das Board, das Substrat, die Spannungswandlung und der Kühler massiv günstiger.
Unterm Strich ist das ggf günstiger. Außerdem ist weniger Leistungsaufnahme und höherer Takt möglich was das Produkt attraktiver macht und somit den potenziellen Preis und die Gewinnspanne.

BlacKi
2018-09-06, 12:50:45
ich würde 2019 keine +500mm² chips in 7nm erwarten. eher eine ca 470mm² titan mit aufgestocktem AI mit 20% regulärer gaming performance für 1500€+. runder? naja.

HOT
2018-09-06, 12:53:22
Kleinere Chips sind immer ältere Prozesse, niemals neuere. Es bringt eben kaum was. Ob der jetzt ein paar W weniger braucht ist furzegal für das Design und die Fertigung ist grad bei 7nm deutlich teurer, auch wenn der Chip kleiner wird. Es spricht einfach alles gegen diese Theorie. Man wird 100% der knappen 7nm-Kontingente sowieso für den neuen GA100 nutzen. Wenn man mehr frei hat eben für GA104 und GA102 und erst dann wird man auch für die kleinen auf 7nm umsteigen. Man muss immer das Gewinnpotenzial und die Kosten im Auge behalten und da scheidet diese Theorie einfach vollständig aus. Man verdient einfach mehr, wenn man die großen Chips im kleineren Prozess fertigt und die kleinen Chips im älteren.

robbitop
2018-09-06, 12:56:14
Wenn 2019 der nächste Performancechip von NV kommt (104) oder gar High Emd (102), werden die Turingkäufer sicher verärgert sein. Wäre dann ja ein sehr kurzer Lifecycle für hohe Preise und mittelmäßig em Performancesprung. Und dann auch noch ein kurzer Lifecycle?

Ich tippe bei NV drauf, dass 106, 108 und 107 in 7nm kommen und man ggf einen GV100-Nachfolger bringt. 7nm 102/104 IMO 2020.

Kann natürlich auch völlig anders werden.

HOT
2018-09-06, 12:57:43
Die bringen entweder gar keinen neuen kleinen oder die sind 12nm. 7nm sind erst mal Profiexklusiv und zwar so lange, bis die neue Generation bereit ist.

robbitop
2018-09-06, 12:58:34
Kleinere Chips sind immer ältere Prozesse, niemals neuere. Es bringt eben kaum was. Ob der jetzt ein paar W weniger braucht ist furzegal für das Design und die Fertigung ist grad bei 7nm deutlich teurer, auch wenn der Chip kleiner wird. Es spricht einfach alles gegen diese Theorie. Man wird 100% der knappen 7nm-Kontingente sowieso für den neuen GA100 nutzen. Wenn man mehr frei hat eben für GA104 und GA102 und erst dann wird man auch für die kleinen auf 7nm umsteigen. Man muss immer das Gewinnpotenzial und die Kosten im Auge behalten und da scheidet diese Theorie einfach vollständig aus. Man verdient einfach mehr, wenn man die großen Chips im kleineren Prozess fertigt und die kleinen Chips im älteren.

Selbst in günstigen Mobiltelefonen werden bleeding edge Prozesse genutzt. Man schaue sich die China Smartphones mit Kirin SoCs an. Hisilicon war einer der ersten, die ihre mobile SoCs auf 7 nm vorgestellt haben.
IMO überschätzt du den Kostenanteil eines Chips an der Gesamt BOM bzw dem Gesamtverkaufspreis. Gerade bei <200sqmm sollte der Einkaufspreis bei tsmc jetzt nicht der Killer sein.

.

Dural
2018-09-06, 12:59:37
GT215 vergessen?

HOT
2018-09-06, 13:00:02
Selbst in günstigen Mobiltelefonen werden bleeding edge Prozesse genutzt. Man schaue sich die China Smartphones mit Kirin SoCs an. Hisilicon war einer der ersten, die ihre mobile SoCs auf 7 nm vorgestellt haben.
IMO überschätzt du den Kostenanteil eines Chips an der Gesamt BOM bzw dem Gesamtverkaufspreis. Gerade bei <200sqmm sollte der Einkaufspreis bei tsmc jetzt nicht der Killer sein.

Das stimmt nicht. Für die Topchips wird der Topprozess verwendet, für die "kleineren" Chips wird 12nm verwendet, siehe Kirin 710 beispeilsweise. Außerdem rutschen die älteren Chips oft ne Stufe tiefer.

Dural Pipecleaner sind Ausnahmen. Haben wird hier aber nicht und wenn das ist das immer nur einer.

Dural
2018-09-06, 13:01:39
Ich sehe es auch so wie robbitop, es macht halt einfach sinn.

BigKid
2018-09-06, 13:02:53
Und der Punkt ist: wenn man die Preise einmal versaut hat, müssen in Zukunft alle damit leben. (Übrigens in beide Richtungen...) - aber diesen Punkt wollt ihr nicht verstehen...

Vielleicht greift da ein ähnlicher Effekt wie das Stockholm Syndrom ?

robbitop
2018-09-06, 13:04:29
Für die Topchips wird der Topprozess verwendet, für die "kleineren" Chips wird 12nm verwendet, siehe Kirin 710 beispeilsweise.

Dural Pipecleaner sind Ausnahmen.

Auch GP107/8 waren sofort auf dem damals neuen 16ff Prozess. Wenn deine Logik so viel Gewicht hätte, hätte man diese ja auf 20nm oder 28nm bringen können.

Die 4770 war der erste 40 nm Chip.

Es stimmt zwar dass die noch billigeren Smartphone SoCs die älteren Prozesse nutzen - aber selbst die Top SoCs sind in relativ billigen China Smartphones. Bei den noch billigeren Smartphones liegt es auch ein wenig daran, dass die weniger Performance bekommen sollen - also braucht man weniger Transistoren und dann kann man auch den alten Prozess nehmen. Und ja der ist billiger. Aber es sind eben oftmals viele Teilursachen verantwortlich und nicht nur eine singulare.


Wie gesagt: IMO überschätzt du den Anteil des Prozesses an dem Gesamtpreis des Produktes bei so kleinen Chips.
Bei gleicher Transistoranzahl ist ein 7 nm Chip 2.5x so klein wie ein 14/16nm Chip. Der Wafer wird aber nicht sooo viel mehr als Faktor 2.5 kosten. Dafür ist der Rest billiger da weniger Leistungsaufnahme.

dildo4u
2018-09-06, 13:06:03
7nm in 2019 für Enduser wäre realistisch wenn wir bis jetzt die 7nm HPC Karten gesehen hätten,es gibt nicht mal Gerüchte wie die nätsen Tesla Karten aussehen.Volta in 12nm hatte über 1 Jahr Vorsprung vor Turing.

https://www.heise.de/newsticker/meldung/Tesla-V100-Nvidia-uebergibt-erste-Volta-Rechenkarten-an-Deep-Learning-Forscher-3781130.html

Dural
2018-09-06, 13:07:56
Ich habe zwei gt215 da, dazu gab es noch ein gt216 und gt218. Alle in 40nm anstelle 55nm.

Maxwell kam, zwar in der selben fertigung ja auch zuerst in klein. Gerade bei turing macht es einfach sinn, da sehr gross.

Fliwatut
2018-09-06, 13:08:26
Somit ist die Verbreitung dann leider begrenzt.
Echt schade, aber danke für deine Erläuterungen, das macht alles ja auch Sinn. Aber wieder ein Grund mehr, eine 1080 ti zu kaufen, leider sind die guten Modell immer noch ziemlich teuer.

robbitop
2018-09-06, 13:10:00
Wobei AFAIK GV100 für die Öffentlichkeit aus dem nichts kam. IIRC gab es da kaum schlüssige Gerüchte über gv100 mit Substanz.

Kann also gut sein, dass NV GA100 (oder wie auch immer er heissen wird) in 2019 bringt. Vieleicht kleiner als 500sqmm, damit man nochmal nachlegen kann (7nm wird ja auch ein langlebiger Prozess).
Wobei GP100 auch schon ziemlich riesig war.

Ggf kommen mit Ampere sehr ähnliche Größen wie bei Pascal.
Also GA100 mit >600sqmm, GA102 mit <500 sqmm und GA104 mit >300 sqmm.
Dank 7 nm kann man die Anzahl der Einheiten ggü Pascal mindestens verdoppeln.

IMO:
GA100 ggf 2019, 102-108 dann ggf eher 2020

TU106,07,08 in 7nm in Q4 2018-Q1 2019

gbm31
2018-09-06, 13:21:28
Es wird eine neue Technik eingeführt, in der momentan nVidia ohne Konkurrenz dasteht. .. blablubb

Sorry, sonst nicht meine Art Zitate so zu verhunzen, aber du begreifst es nicht. Ich bin raus.

Denk dir weiter dass ich mimimi...

Mancko
2018-09-06, 13:25:28
Ich tippe wie robbitop auf GV100 Nachfolger für HPC auf 7nm in 2019 und dann kleinere Turings für den Konsumenten.

7nm Gaming High End erwarte ich maximal für eine Titan wieder als Volta Nachfolger Abfall. GT102 und 104 werden m.E. erst mit dem Wechsel 2019/2020 ersetzt. Bis dahin hat Nvidia eh Ruhe an der Front.

PHuV
2018-09-06, 13:33:13
Sorry, sonst nicht meine Art Zitate so zu verhunzen, aber du begreifst es nicht.
Du bist es, der es nicht begreift. Du mußt einfach nur warten! Der Markt regelt den Rest. laß die Leute, die das anfangs haben wollen, doch kaufen und bezahlen, wie sie es wollen. Sie werden als erstes bedient, bis hier ein Marktsättigung eintritt. Dann werden die Karten günstiger, und dann können die anderen kaufen. Was ist daran so schwer zu verstehen? :rolleyes:
Du willst aber nicht in Deiner Gier warten, und machst es mit Pseudoargumenten allen madig. Und Du wärst garantiert einer der ersten als Unternehmer, die bei gut laufenden Geschäften mit Fastmonopolstellung die Preise erhöhen würde.
Ich bin raus.
Na hoffentlich endlich endgültig. :rolleyes:

Topic: Nochmals nachgefragt, ist das VRAM Problem wirklich schon so dramatisch, so daß man mit 8 GB für den Hauptmarkt nicht mehr hinkommt? Laut Steam Survey (https://store.steampowered.com/hwsurvey/)sind gerade mal über 1,33% mit einem UHD-Monitor unterwegs, 0,42 % mit 3440x1440, 60% sind noch bei FHD. Da könnte man ja fast sagen, daß alle UHD-Spieler eh mit einer 1080TI/2080TI und mehr kalkulieren müssen. UHD ist noch lange kein Mainstream, sondern schlichtweg eine Randerscheinung.

basix
2018-09-06, 13:36:02
Ggf kommen mit Ampere sehr ähnliche Größen wie bei Pascal.
Also GA100 mit >600sqmm, GA102 mit <500 sqmm und GA104 mit >300 sqmm.
Dank 7 nm kann man die Anzahl der Einheiten ggü Pascal mindestens verdoppeln.

Ich sage das kommt alles noch vor Ende 2019. Die DIE Grössen werden vermutlich aber eher noch einen Tick kleiner als bei Pascal. Deswegen schätze ich ca. +50-66% Einheiten gegenüber Turing, bei dafür +20-30% Takt. Das ergibt +100% Performance, was im Rahmen von 7nm sehr realistisch klingt.

Wieso +50-66%: Jeder GPC hat 6 SM-Cluster à 128 Einheiten. Die auf 9-10 SM-Cluster aufbohren.

Oder andere Alternative: Takt steigt wieder deutlich an, sagen wir mal auf 2.5 GHz average Boost. Dann dafür nur +33% SM-Cluster (von 6 auf 8)

HOT
2018-09-06, 13:39:08
Auch GP107/8 waren sofort auf dem damals neuen 16ff Prozess. Wenn deine Logik so viel Gewicht hätte, hätte man diese ja auf 20nm oder 28nm bringen können.

Die 4770 war der erste 40 nm Chip.

Es stimmt zwar dass die noch billigeren Smartphone SoCs die älteren Prozesse nutzen - aber selbst die Top SoCs sind in relativ billigen China Smartphones. Bei den noch billigeren Smartphones liegt es auch ein wenig daran, dass die weniger Performance bekommen sollen - also braucht man weniger Transistoren und dann kann man auch den alten Prozess nehmen. Und ja der ist billiger. Aber es sind eben oftmals viele Teilursachen verantwortlich und nicht nur eine singulare.


Wie gesagt: IMO überschätzt du den Anteil des Prozesses an dem Gesamtpreis des Produktes bei so kleinen Chips.
Bei gleicher Transistoranzahl ist ein 7 nm Chip 2.5x so klein wie ein 14/16nm Chip. Der Wafer wird aber nicht sooo viel mehr als Faktor 2.5 kosten. Dafür ist der Rest billiger da weniger Leistungsaufnahme.
GP107 und 108 sind bei Samsung gefertigt in 14LPP und kamen erst 2017... mehr als 1 Jahr nach GP104.

Das einzige, was man an NVs Stelle machen könnte, wäre, TU107 in 7nm als Pipecleaner zu fertigen. Das wars dann aber auch mit der Sinnhaftigkeit. Ich denke auch nicht, dass das nötig ist, da GA100 sicherlich noch dieses Jahr in 7nm zumindests vorgestellt werden wird.

Edit: GF117 war ein klassischer Pipecleaner nach dem Fermi Desaster übrigens.

Bambuslooter
2018-09-06, 13:47:58
Also vor Ende 2019/Anfang 2020 rechne ich auch nicht mit 7nm.
Vega 20 macht grad den Anfang und von Navi hört man auch noch gar nix.
Daran kann man es grob vergleichen. nvidia wird sich da auch Zeit lassen um wenigstens 1 Jahr Turing zu feiern.
Die kleinen Chips von nvidia laufen ja super. Insbesondere im Laptopbereich.

vinacis_vivids
2018-09-06, 14:05:14
@robbitop
Deine Träumereien von zeitnaher 7nm Gaming-GPU von Nvidia sind so realistisch wie die 10nm bei Gaming-Volta ala Turing.

Für Nvidia ist 12nm top of the edge:

16nm - 610mm² - 471mm² - 314mm² - 200mm²
GP100-890-A1 05.04.2016
GP104-400-A1 27.05.2016

12nm - 815mm² - 754mm² - 538mm²
GV100 Testla - 21.06.2017
GV100-400-A1 - 07.12.2017
GV100 Quadro - 27.03.2018
GV100 CEO - 21.06.2018
TU102/104 Quadro - 13.08.2018
TU102/104 RTX - 20.09.2018
TU106? - 2018?

Es hat also über ein Jahr gedauert, bis 12nm Produkte vom Profisegment zum Desktop wandern. Sollte ein hypotetischer 7nm Chip ala Ampere GA100 kommen, muss dieser den 815mm² 12nm deutlich übertreffen und mehr als 21,1Mrd. Tr. packen, ca. 30Mrd Transistoren. Und die muss man erstmal auf ne die bekommen, was nach aktueller Technik anno 2019 sehr sehr unwahrscheinlich wird.

Vega20 als größter 7nm Chip ist bei ~290-310mm² was 21Mrd-23Mrd Transistoren entsprechen. Ein hypotetischer 30Mrd. Tr. Chip braucht ~ 400mm² was bei 7nm gigantisch ist und vor 2020 eher unmöglich sein wird. TSMC hat auch andere Kunden, die schon vorher/jetzt das Geld denen in den Rachen werfen, damit 7nm vom Band laufen werden.

Gaming Karte von Nvidia mit 7nm und HBM Technologie gibs vllt. Ende 2020 eher 2021, bis dahin fließt viel Wasser den Bach runter.

PHuV
2018-09-06, 14:26:58
Ich würde Dir zustimmen. Solange AMD nichts entgegenzusetzen hat, wird Nvidia gemütlich 2-3 Jahren ins Land gehen lassen, um die Fertigungsprozesse für die neue Generation zu stabilisieren und etablieren. Bis auf ein Refresh von Turing wird es vor 2020 nichts neues geben.

robbitop
2018-09-06, 14:29:41
Ich sage das kommt alles noch vor Ende 2019. Die DIE Grössen werden vermutlich aber eher noch einen Tick kleiner als bei Pascal. Deswegen schätze ich ca. +50-66% Einheiten gegenüber Turing, bei dafür +20-30% Takt. Das ergibt +100% Performance, was im Rahmen von 7nm sehr realistisch klingt.

Wieso +50-66%: Jeder GPC hat 6 SM-Cluster à 128 Einheiten. Die auf 9-10 SM-Cluster aufbohren.

Oder andere Alternative: Takt steigt wieder deutlich an, sagen wir mal auf 2.5 GHz average Boost. Dann dafür nur +33% SM-Cluster (von 6 auf 8)
Schön wäre es. Aber nv hat keine Not. AMD hat nichts, was Turing gefärden könnte in dem Zeitrahmen. Auch wäre es ein sehr kurzer Lifecycle (Abschreibung von FuE und Invest etc) und das Gejammer der Turingkäufer wäre groß.

robbitop
2018-09-06, 14:31:41
GP107 und 108 sind bei Samsung gefertigt in 14LPP und kamen erst 2017... mehr als 1 Jahr nach GP104.

Das einzige, was man an NVs Stelle machen könnte, wäre, TU107 in 7nm als Pipecleaner zu fertigen. Das wars dann aber auch mit der Sinnhaftigkeit. Ich denke auch nicht, dass das nötig ist, da GA100 sicherlich noch dieses Jahr in 7nm zumindests vorgestellt werden wird.

Edit: GF117 war ein klassischer Pipecleaner nach dem Fermi Desaster übrigens.

GP107 kam 10/2016. :)
Ansonsten: We agree to disagree? :)

außerdem @hot+vivances:
Navi10 soll auch in 7nm kommen und nur in etwa so groß sein wie Polaris10.
Und das H1 2019
Das wäre wohl der Kontrahent für TU106. Also 2xx€ Grafikkarte.

Und das ist dann plötzlich nicht mehr unrealistisch und zu teuer? ;)

Wie gesagt: jedem seine Meinung und seine Einschätzung.

SKYNET
2018-09-06, 14:53:12
Schön wäre es. Aber nv hat keine Not. AMD hat nichts, was Turing gefärden könnte in dem Zeitrahmen. Auch wäre es ein sehr kurzer Lifecycle (Abschreibung von FuE und Invest etc) und das Gejammer der Turingkäufer wäre groß.

ganz ehrlich: ich würd mir derbe wünschen AMD würde ein paar Vega 7nm ES karten an die redaktionen schicken... so ganz kurz nach den turing reviews ;D

robbitop
2018-09-06, 14:59:04
Ich erwarte aus Gamingsicht wenig von Vega20. Ggf 1080ti Performance. Ist halt kein Gamingchip.

basix
2018-09-06, 14:59:44
Schön wäre es. Aber nv hat keine Not. AMD hat nichts, was Turing gefärden könnte in dem Zeitrahmen. Auch wäre es ein sehr kurzer Lifecycle (Abschreibung von FuE und Invest etc) und das Gejammer der Turingkäufer wäre groß.

Ich sehe das so: Nvidia will das Weihnachtsgeschäft 2019 mitnehmen, Release evtl. im September-Oktober 2019. Man kann ja das Spiel wie bei Pascal wiederholen. GA104 als neue High-End Karte mit ca. 300mm2 und ca. +30-50% Performance gegenüber TU102. Zusammen mit gesalzenen Preisen eine Cash-Cow bei hohen Margen. Bei etwas niedrigerer MSRP irgendwo zwischen 2080 und 2080 Ti auch breitere Konsumentenbasis und damit mehr Kohle für die Grünen ;)

Ich nehme an die Produktionskosten für einen 300mm2 Chip in 7nm sind tiefer als bei einem 550mm2 Chip wie bei TU104. Ergo über das gesamte Portfolio gesehen inkl. GA106 nochmals höhere Margen. Eine 3080 Ti kommt dann wieder später irgendwo Q2 / 2020. Den Turing R&D Invest wird man bis Ende 2019 schon längstens reingeholt haben. Turing ist für mich einfach ein RT + AI Pipecleaner im Gaming-Bereich.

SKYNET
2018-09-06, 15:00:30
Ich erwarte aus Gamingsicht wenig von Vega20. Ggf 1080ti Performance. Ist halt kein Gamingchip.

ich würde eher richtung 1080Ti +10% sagen, aber das langt ja schon, damit die leute wissen "hey, geil ich bekomme von AMD 2019 etwas das so schnell ist wie die 2080 aber es hat 16GB GDDR6 und nicht nur 8GB" :)

Dural
2018-09-06, 15:08:46
@vinacis_vivids

wollen wir wetten das ein GV100 Nachfolger in 2019 in 7nm kommt?

unglaublich was du alles für sachen zusammen schreibst, aber geh du lieber mit deinem V20 mit 6000SP @ 2Ghz spielen, in deiner traumwelt ;D

Leonidas
2018-09-06, 15:16:44
Ansonsten: We agree to disagree? :)


:up:
So was würde ich hier gern mehr hier im Forum sehen.



BTT:
Turing-Midrangechip "TU106" für die GeForce RTX 2060 deutet sich an
https://www.3dcenter.org/news/turing-midrangechip-tu106-fuer-die-geforce-rtx-2060-deutet-sich

https://www.3dcenter.org/dateien/abbildungen/HWinfo-5.88-Release-Notes-Auszug.png

SKYNET
2018-09-06, 15:22:04
:up:
So was würde ich hier gern mehr hier im Forum sehen.



BTT:
Turing-Midrangechip "TU106" für die GeForce RTX 2060 deutet sich an
https://www.3dcenter.org/news/turing-midrangechip-tu106-fuer-die-geforce-rtx-2060-deutet-sich

https://www.3dcenter.org/dateien/abbildungen/HWinfo-5.88-Release-Notes-Auszug.png

nun, ist die frage ob das ding als RTX oder GTX kommt... weil für RT dürfte die performance eindeutig zu schlecht sein.

Linmoum
2018-09-06, 15:30:54
Jetzt muss man sich scheinbar (vorerst) auch noch mit Micron-Speicher begnügen und bekommt nicht mal mit dem Flaggschiff Samsung. :D

https://www.computerbase.de/2018-09/geforce-rtx-gddr6-micron/

Leonidas
2018-09-06, 15:37:19
nun, ist die frage ob das ding als RTX oder GTX kommt... weil für RT dürfte die performance eindeutig zu schlecht sein.


GTX kann sich NV kaum noch leisten. Außerdem würde es dafür auch der existierende GP104-Chip (besser) machen, da braucht es keinen neuen Chip.

vinacis_vivids
2018-09-06, 16:04:17
@Dural
Vega20 hätte locker Kapazität/Transistoren für 6144SP, die aber woanders, spricht fp64 double precision besser gebraucht werden. Da im Gaming Bereich mit Turing eh nichts passiert, kann AMD weiter auf Vega10/Polaris20 bauen und in Ruhe Navi10 entwickeln, hoffentlich nur mit adaptierten pseudo RT-Fähigkeiten.

Die ganze RT Geschichte, insbesondere inszeniert von der Lederjacke, sieht aus wie ein fake-showcase, da die RT-Rays nun drastisch reduziert werden um BFV@DXR lauffähig zu machen. Der Optische Gewinn steht in keinem Verhältnis zum Performanceverlust. Diese Resteverwertung der Profichips mit erheblicher Verspätung scheint auch hardgesottenen Fans schwer im Magen zu liegen. Ja, mit marketing kann man eine ganze Truppe für eine gewisse Zeit veralbern, aber nicht die ganze Zeit und vor allem, nicht bei allen.

Ich nehme an die Produktionskosten für einen 300mm2 Chip in 7nm sind tiefer als bei einem 550mm2 Chip wie bei TU104.

Glaube ich nicht.

ChaosTM
2018-09-06, 16:04:54
Ich glaube auch eher, dass man den 1060er rebranden wird. Macht imho mehr Sinn.



Die ganze RT Geschichte, insbesondere inszeniert von der Lederjacke, sieht aus wie ein fake-showcase, da die RT-Rays nun drastisch reduziert werden um BFV@DXR lauffähig zu machen. Der Optische Gewinn steht in keinem Verhältnis zum Performanceverlust. Diese Resteverwertung der Profichips mit erheblicher Verspätung scheint auch hardgesottenen Fans schwer im Magen zu liegen. Ja, mit marketing kann man eine ganze Truppe für eine gewisse Zeit veralbern, aber nicht die ganze Zeit und vor allem, nicht bei allen.

Das war leider schon am Ende der Präsentation ziemlich klar. Jensen ohne Balken ist sehr verdächtig -> tarnen und täuschen ;)

Thunderburne
2018-09-06, 16:06:28
Da sag mal einer man kann alles in 4K zocken mit der 1080Ti selbst die 2080Ti wird das nicht rocken und dann zu dem Kurs.
Scum
https://youtu.be/dSyorFGVIa8

ChaosTM
2018-09-06, 16:09:38
Da sag mal einer man kann alles in 4K zocken mit der 1080Ti selbst die 2080Ti wird das nicht rocken und dann zu dem Kurs.
Scum
https://youtu.be/dSyorFGVIa8


Ich würde ca + 80% brauchen um wirklich alles in 4K /60 spielen zu können..

Swissr
2018-09-06, 16:14:59
Da sag mal einer man kann alles in 4K zocken mit der 1080Ti selbst die 2080Ti wird das nicht rocken und dann zu dem Kurs.
Scum
https://youtu.be/dSyorFGVIa8

Du wirst schon selber wissen, dass man die Regler im Optionsmenü verschieben kann, oder?
Oder war das nur wieder ein Versuch, sich künstlich über den Preis aufzuregen?

ChaosTM
2018-09-06, 16:18:38
Du wirst schon selber wissen, dass man die Regler im Optionsmenü verschieben kann, oder?
Oder war das nur wieder ein Versuch, sich künstlich über den Preis aufzuregen?


Manche Leute, wie leider auch ich, sind einfach nicht in der Lage, den Regler nach links zu verschieben. Irgendwas im Gehirn lässt das einfach nicht zu :)

Da reduziere ich lieber vorher die Auflösung...

Adam D.
2018-09-06, 16:19:56
GTX kann sich NV kaum noch leisten. Außerdem würde es dafür auch der existierende GP104-Chip (besser) machen, da braucht es keinen neuen Chip.
Aber was sollen RTX-Fähigkeiten auf einem TU106 bringen? Wenn wir selbst mit der 2080Ti nur spielbare FPS in 1080p bekommen, wird es für die 2070 schon brutal eng, von einer 2060 ganz zu sprechen. Das wär doch verschwendetes Silizium.

Thunderburne
2018-09-06, 16:20:37
Du wirst schon selber wissen, dass man die Regler im Optionsmenü verschieben kann, oder?
Oder war das nur wieder ein Versuch, sich künstlich über den Preis aufzuregen?
Hat er doch schon gemacht in dem Video von der 1080Ti.
Ist nicht alles auf Epic. :biggrin:
Aber hey gleich mal die Leute von der Seite anpissen.

RLZ
2018-09-06, 16:36:42
Der Optische Gewinn steht in keinem Verhältnis zum Performanceverlust.
Da hat es ja was gemeinsam mit 4K. :freak:

crux2005
2018-09-06, 16:42:04
Da sag mal einer man kann alles in 4K zocken mit der 1080Ti selbst die 2080Ti wird das nicht rocken und dann zu dem Kurs.
Scum
https://youtu.be/dSyorFGVIa8

EA Spiel von einem no-name Kroatischen Entwickler.

:weg:

Swissr
2018-09-06, 16:42:47
Hat er doch schon gemacht in dem Video von der 1080Ti.
Ist nicht alles auf Epic. :biggrin:
Aber hey gleich mal die Leute von der Seite anpissen.

8 von 12 Schaltern auf Epic, Rest auf High, Shadow Resolution auf 4096 (lol)
Stimmt, er spielt quasi mit Minimum Settings, tut mir leid fürs "Anpissen" ;D;D;D

Thunderburne
2018-09-06, 16:47:19
8 von 12 Schaltern auf Epic, Rest auf High, Shadow Resolution auf 4096 (lol)
Stimmt, er spielt quasi mit Minimum Settings, tut mir leid fürs "Anpissen" ;D;D;D
Jo lol nutze einen 4K Oled um alles auf minimum zu stellen das kann man bei einer 1060-1070 vielleicht stehen lassen.

Kriton
2018-09-06, 16:48:48
EA Spiel von einem no-name Kroatischen Entwickler. :weg:

Genau, Croteam ist ein no-name...:rolleyes:

http://www.croteam.com/games/

crux2005
2018-09-06, 16:52:54
Genau, Croteam ist ein no-name...:rolleyes:

http://www.croteam.com/games/

1. Scum is an upcoming multiplayer online survival game, developed by Croatian studio Gamepires, produced by Croteam and published by Devolver Digital.[1]
https://en.wikipedia.org/wiki/Scum_(video_game)

2. Ist da ein Smiley hinten dran für Leute wie dich. :frown:

3. Hat er eine Antwort bekommen die genau so ist wie sein Provokanter Beitrag.

Swissr
2018-09-06, 16:54:26
Du wirst schon selber wissen, dass man die Regler im Optionsmenü verschieben kann, oder?
Oder war das nur wieder ein Versuch, sich künstlich über den Preis aufzuregen?



Jo lol nutze einen 4K Oled um alles auf minimum zu stellen das kann man bei einer 1060-1070 vielleicht stehen lassen.
:rolleyes:

Ok, du scheinst wirklich nicht zu verstehen, wie Regler funktionieren..Kleiner Tipp: Es ist kein Lichtschalter

Kriton
2018-09-06, 16:59:55
1.
https://en.wikipedia.org/wiki/Scum_(video_game)

2. Ist da ein Smiley hinten dran für Leute wie dich. :frown:


Du hast (insoweit) recht.

Thunderburne
2018-09-06, 17:03:49
:rolleyes:

Ok, du scheinst wirklich nicht zu verstehen, wie Regler funktionieren..Kleiner Tipp: Es ist kein Lichtschalter
:comfort:

PHuV
2018-09-06, 17:24:52
Ich sag nur mal Crysis-Reihe. Ging erst mit der 2-3 Generation richtig gut. Ebenso FC3 und FC4.

Mancko
2018-09-06, 17:46:40
ganz ehrlich: ich würd mir derbe wünschen AMD würde ein paar Vega 7nm ES karten an die redaktionen schicken... so ganz kurz nach den turing reviews ;D

Wenn sie diese dann auch in entsprechenden Zahlen ausliefern können samt Treibersupport an Gamer können sie das ja machen. Aber einfach nur irgendwas an Reviewer schicken aber dann nicht liefern können gehört auf jeden Fall massiv durch die Presse abgestraft.

SKYNET
2018-09-06, 17:52:12
Wenn sie diese dann auch in entsprechenden Zahlen ausliefern können samt Treibersupport an Gamer können sie das ja machen. Aber einfach nur irgendwas an Reviewer schicken aber dann nicht liefern können gehört auf jeden Fall massiv durch die Presse abgestraft.


müssen ja nur 2000-3000 karten für den weltmarkt sein... mehr brauchs garnicht um die gierigen mäuler zu stopfen, weil der grossteil hat sich den rachen jetzt eh mit turingknödeln vollgestopft :freak:

Armaq
2018-09-06, 20:27:06
Ich sag nur mal Crysis-Reihe. Ging erst mit der 2-3 Generation richtig gut. Ebenso FC3 und FC4.
Aber sowas ist zur Zeit nicht in Sicht, oder?

Crysis war damals 2x der Grund aufzurüsten und es sieht halt immernoch gut aus.

Fragman
2018-09-06, 21:20:10
Aber sowas ist zur Zeit nicht in Sicht, oder?

Crysis war damals 2x der Grund aufzurüsten und es sieht halt immernoch gut aus.

metro und battlefield mit rt halt, das waere genau das. aber sieht man ja, fangen die leute an zu heulen, weil man sich herab lassen muss und wieder nur fhd spielen kann mit max details. verkehrte welt mittlerweile, haette nie gedacht, das sowas mal passiert und ich bin seit anfang der 90ziger dabei. :D

Slipknot79
2018-09-06, 22:20:34
Wie ist das jetzt, gibts überhaupt ein RT-Spiel am 20 September?

Afaik hat Nvidia ja nur 30 Tage Rückgabefrist eingeräumt, oder? Das heißt, es muss vom 27 Sept (Angenommene Versandankuft der vorbestellten Grakas) bis 7 Okt ein Spiel (z.B.: BFV) mit RT erscheinen um als Gamer RT beurteilen zu können. Und ab dem 7 Okt. ist man der Gearschte wenn das Spiel, das erst nach dem 7 Okt erscheint, nur in FHD+RTon @60fps rennt und das LOD in BFV maximal 10m beträgt, oder? lol Dann ist nix mehr mit Rückgabe? ;)

BFV verschoben damit man zum Ende der Rückgabefrist genug Abstand gewinnt? ;)

wolik
2018-09-06, 22:21:18
Ich habe grade Demo BFV ausprobiert. Bei solche Spiele den Grafikporn zu puschen ist schon ganz erbärmlich. Bei BFV man ist voll angewiesen auf höchste Auflösung und FPS. OMG NV :facepalm:

mkh79
2018-09-06, 22:34:53
metro und battlefield mit rt halt, das waere genau das. aber sieht man ja, fangen die leute an zu heulen, weil man sich herab lassen muss und wieder nur fhd spielen kann mit max details. verkehrte welt mittlerweile, haette nie gedacht, das sowas mal passiert und ich bin seit anfang der 90ziger dabei. :D
Ok, dann mach mir mal bitte verständlich, wie ich in meiner Situation deiner Meinung nach handeln soll.

Ich habe mir vorletztes Jahr einen schönen 27 Zoll WQHD geholt. Hatte es bei einem Freund gesehen, wie schön das Bild im Vgl. zu FullHD ist.
Soll ich jetzt wieder einen FHD Monitor kaufen?
Soll ich die Auflösung runter setzen, damit ich RT habe, aber ein vermatschtes Bild?
Oder soll ich mir lieber einen 2. Monitor in FHD dazu stellen, um die RT Titel darauf zu spielen, die anderen dann auf dem WQHD?
Den FullHD dann in 24 Zoll, damit ich wieder ein kleineres Kästchen vor mir habe, oder in 27 Zoll, damit das Bild schön grob ist?

Und dann bleche ich 1300 Euro dafür, dass befeuern zu können?
Ich empfinde deine Aussage als sehr kurz gegriffen.

Daredevil
2018-09-06, 22:40:08
mkh79

Häh, was ist dein Problem?
Wenn Nvidia kein RT vorgestellt hätte, sondern einen 64xSSAA Modus, hättest du dich nun auch dazu zwingen müssen, diesen Modus konstant zu benutzen, oder wie?

Wenn du einen WQHD Monitor hast, dann spielst du eben halt in WQHD.
Du limitierst den RT Kram auf das Level, so das du genug FPS hast, fertig.
Wenn dir das nicht reicht, schaltest du RT einfach komplett aus, fertig.
Wenn dir die Karte egal ist, spielst du einfach mit deiner jetzigen 1080ti, fertig.

Also da muss man nun wirklich keinen Stress machen, wo keiner ist.
Zudem ist überhaupt noch nicht bekannt, wie Raytracing überhaupt mit der Auflösung skaliert.

woodsdog
2018-09-06, 22:48:44
mkh79

Häh, was ist dein Problem?
Wenn Nvidia kein RT vorgestellt hätte, sondern einen 64xSSAA Modus, hättest du dich nun auch dazu zwingen müssen, diesen Modus konstant zu benutzen, oder wie?

Wenn du einen WQHD Monitor hast, dann spielst du eben halt in WQHD.
Du limitierst den RT Kram auf das Level, so das du genug FPS hast, fertig.
Wenn dir das nicht reicht, schaltest du RT einfach komplett aus, fertig.
Wenn dir die Karte egal ist, spielst du einfach mit deiner jetzigen 1080ti, fertig.

Also da muss man nun wirklich keinen Stress machen, wo keiner ist.
Zudem ist überhaupt noch nicht bekannt, wie Raytracing überhaupt mit der Auflösung skaliert.

offensichtlich kann die 2080ti keine zeitgemäßen Auflösungen mit RDX leisten. >= 1440p bei >= 60fps sind nun mal nix ungewöhnliches für 1080Ti Besitzer.
Selbige lockst du mit FHD@30 nicht wirklich aus der Reserve.

tEd
2018-09-06, 22:49:38
wie Raytracing überhaupt mit der Auflösung skaliert.

Die BFV Demo lief mit 1080p um die 60FPS mit 4K um die 30FPS mit einer 2080ti

Daredevil
2018-09-06, 22:59:57
Die BFV Demo lief mit 1080p um die 60FPS mit 4K um die 30FPS mit einer 2080ti
Ich schreibe, man weiß nicht wie Raytracing mit Auflösung skaliert und du schreibst, dass man in FullHD 60fps hat und bei vierfacher Menge an Pixeln 30fps, bei einer Alpha Version eines Spiels.
Und wie skaliert Raytracing nun deiner Meinung nach? :D

mkh79
2018-09-06, 23:06:47
woodsdog hat es sehr schön auf den Punkt gebracht.
Danke.

Ich will ja auch keinen Stress machen. Nur näher bringen, dass manche eben ihre Gründe haben und nicht "heulen" wollen.
Ich gönne jedem seinen Spass, wenns für ihn passt.

Daredevil
2018-09-06, 23:09:58
Du mutmaßt die Performance einer Karte ausgehend von ungenauen Werten bei ungenauen ( unbekannten ) Settings in einem fordernden Spiel im Alpha Stadium und wertest es als schlecht ab.

Abwarten und Tii trinken wäre wohl eine bessere Version, um mit der Lage umzugehen. ^^

tEd
2018-09-06, 23:11:44
Das war auch nicht eine Antwort für Raytracing insgesamt sondern nur für die BFV Demo spezifisch.
Generell kannst du das nicht sagen und wird von Anwendung zu Anwendung unterschiedlich sein.

HOT
2018-09-06, 23:27:36
:up:
So was würde ich hier gern mehr hier im Forum sehen.



BTT:
Turing-Midrangechip "TU106" für die GeForce RTX 2060 deutet sich an
https://www.3dcenter.org/news/turing-midrangechip-tu106-fuer-die-geforce-rtx-2060-deutet-sich

https://www.3dcenter.org/dateien/abbildungen/HWinfo-5.88-Release-Notes-Auszug.png
Muss nicht sein. Ich denke eher, dass TU106 tatsächlich auf der 2070 sitzt, da das zeitlich gut zusammenpasst und kein weiteres Produkt seither geleakt ist.

Dural
2018-09-07, 01:11:18
Habe ich mir auch schon überlegt, gerade bei den grosen turing macht es am meisten sinn.
aber die hardware daten wären schon sehr eng beinander für die zwei chips.

3000sp / 256bit
2300sp / 256bit

So gesehen finde ich es ja schon unglaubwürdig.

dildo4u
2018-09-07, 01:13:15
Sie könnten so viel Platz zwischen 2070 und 2080 lassen für eine Navi Kontert vergleichbar mit der 1070 Ti.

=Floi=
2018-09-07, 04:31:41
@Dural
Vega20 hätte locker Kapazität/Transistoren für 6144SP, die aber woanders, spricht fp64 double precision besser gebraucht werden.

Das mag ja vieleicht noch sein, aber die müsste man erstmal alle zum arbeiten bringen. NV zeigt doch, wie extrem das ganze nach unten skaliert, wenn man die auslastung der einheiten erhöht.
Hätte man eine anzeige für die live auslastung der shader, so käme bei vega wahrscheinlich nur 50% heraus. Bei NV hatte die 780er 2880 sps und mit turing sollte die dreifache (!) leistung in games umgesetzt werden können.

Fürs reine rechnen stellt sich auch die frage wie gut das ganze skaliert, wenn neuere karten teilweise erheblich schneller rechen. Deshalb bleibe ich dabei, dass die reine SP zahl an sich nichts aussagt. Auf dem papier habe ich auch 7gflop und nützen kann ich davon erheblich weniger.

Tobalt
2018-09-07, 07:54:36
hier mal ein video zu AI based upscaling.
die Qualität ist wirklich super.

aber selbst wenn man bei Real time noch nicht an die Qualität da rankommen wird, ist das ein guter weg und immer besser als ein simpler algo filter fürs upscaling.

https://youtu.be/HvH0b9K_Iro

robbitop
2018-09-07, 08:12:29
An einem komprimierten yt video ist sowas schlecht zu beurteilen. Das video müsste unkomprimiert oder verlustfrei komprimiert sein nd in nativer Auflösung vorliegen.

@raytracingskalierung: je höher die Auflösung, desto mehr Rays. Also skaliert diese proportional zur Auflösung, sofern die RT/TC Leistung der Flaschenhals ist.
Allerdings kann der Entwckler festlegen, wie viele rays pro Pixel - bedeutet die rt Auflösung kann von der Rasterisierungsaufllösung entkoppelt werden.
BFV hatte in 4K laut df iirc nur 0,25 rays pro Pixel (also fhd rt Auflösung).

AffenJack
2018-09-07, 08:24:04
@raytracingskalierung: je höher die Auflösung, desto mehr Rays. Also skaliert diese proportional zur Auflösung, sofern die RT/TC Leistung der Flaschenhals ist.
Allerdings kann der Entwckler festlegen, wie viele rays pro Pixel - bedeutet die rt Auflösung kann von der Rasterisierungsaufllösung entkoppelt werden.
BFV hatte in 4K laut df iirc nur 0,25 rays pro Pixel (also fhd rt Auflösung).

Wie kommst du auf fhd bei 4k? Das wurde nur als Möglichkeit diskutiert, die genutzt werden könnte. 4k war 4k laut df. Deswegen auch die Aussagen, dass die Entwickler überrascht waren, dass es überhaupt sogut lief in 4k. Insofern sollte fhd rt bei 4k gut möglich sein

robbitop
2018-09-07, 09:17:32
Stimmt - wurde nur als Möglichkeit genannt. Ist aber imo sehr konkludent. Dank denoising sicherlich machbar und sinnvoll.

SKYNET
2018-09-07, 09:21:10
Wenn Nvidia kein RT vorgestellt hätte, sondern einen 64xSSAA


16xSSAA für alle karten wäre mal was feines und 32xAF :cool:

Hakim
2018-09-07, 09:32:40
Kann man eigentlich safe davon ausgehen das 2060 und natürlich alles darunter ohne RTX einheiten auf dem Chip raus kommen werden? Wenn man sich das so durchliest würde es wohl wenig sinn machen.

HOT
2018-09-07, 09:51:14
Wenn es überhaupt eine 2060 gibt. NV will ja die Pascal-Serie parallel weiterlaufen lassen AFAIK. Ich würde mal ganz schwer darauf tippen, dass man 3 Turings gemacht hat, deren Salvage-Varianten in den Mainstream fließen: TU102 (2080ti), TU104 (2080) und TU106 (2070) und nur die 1080 und 1080Ti aus dem Programm genommen werden (wegen GDDR5X primär). Deine 2060 wär dann also die 1070ti. Könnte in bisschen wie bei Maxwell sein damals.

VooDoo7mx
2018-09-07, 09:51:39
Bei Battlefield V war bei der ersten Raytracing Demo immer Raytraycing Auflösung = Renderingauflösung, deswegen bricht ja die Performance so bei 1440p und 2160p. Wie das in der finalen Version dann aussieht werden wir ja sehen.

Von meinen Verständnis könnte man in Battlefield V auch mit Raytracing mit einer 2080Ti in UHD 60 fps erreichen, wenn die RT Auflöung bei FHD bleibt, weitere Optimierung durchführt und z.B. noch die Tensor Cores für das Denoising nutzt.

Viele tun ja gerade so dass Raytracing mit der RTX mehr oder weniger noch gar nicht praktikabel nutzbar ist. Meiner Meinung nach, wird man mit guter Implementierung auch schon mit der 1. Generation gute Ergebnisse erzielen können.

Kann man eigentlich safe davon ausgehen das 2060 und natürlich alles darunter ohne RTX einheiten auf dem Chip raus kommen werden? Wenn man sich das so durchliest würde es wohl wenig sinn machen.

Dies ist annehmbar, man kann jedoch nicht davon ausgehen.

Ich spekuliere dahingehend, dass wird erst mit 7nm Chips Raytracing Hardware Einheiten bei kleineren GPU Stufen sehen werden.

cR@b
2018-09-07, 10:05:41
Wäre halt gut, wenn nV erstmal einen Parameter Standard an die Spieleentwickler vorgeben würde. Ansonsten wird das eine Game ne gute RT Performance haben und das andere eine schlechte. Im Moment ist das ganze RT noch zu schwammig und sie sollten sich schnell etwas einfallen lassen oder einfach den Preis angemessen anpassen :D

BigKid
2018-09-07, 10:06:35
Muss nicht sein. Ich denke eher, dass TU106 tatsächlich auf der 2070 sitzt, da das zeitlich gut zusammenpasst und kein weiteres Produkt seither geleakt ist.
Es passt doch noch aus nem ganz anderen Grund - würde nicht schon bei Pascal beanstandet, dass hier ein midrange chip als highend verkauft wird ? Nu isses halt amtlich so...
Die 2070 ist nur noch midrange zumindest vom Chip her... Aber sowas passiert wenn keine Konkurrenz da ist und die Kunden brav weiter kaufen... Und rein Marktwirtschaftlich macht es für NV absolut Sinn midrange als highend zu verkaufen (solange bis zu viele Kunden kotzen... aber da werden sie den Sweetspot schon finden...)

BlacKi
2018-09-07, 10:08:24
:rolleyes:

Ok, du scheinst wirklich nicht zu verstehen, wie Regler funktionieren..Kleiner Tipp: Es ist kein Lichtschalter
ich hab mich schon im scum fred darüber beklagt wie schlecht die performance selbst in wqhd mit ner 2ghz ti ist. da gehts direkt auf die 60fps mancherorts. liegt halt daran, das es ein early access spiel ist.

die regler bringen kaum performance, einzig der screenscale regler bringt performance. aber genau deshalb kauft man einen 4k monitor^^

SKYNET
2018-09-07, 10:09:14
Ich spekuliere dahingehend, dass wird erst mit 7nm Chips Raytracing Hardware Einheiten bei kleineren GPU Stufen sehen werden.


wenn überhaupt, denke die kommenden 2-3 generationen wird das ein "luxus" der teuren karten bleiben, NV will ja kohle machen :smile:

basix
2018-09-07, 10:10:56
Ich spekuliere dahingehend, dass wird erst mit 7nm Chips Raytracing Hardware Einheiten bei kleineren GPU Stufen sehen werden.

Naja, ein TU106 wäre mit 350mm2 nicht wirklich "klein". Es wird eher so sein, dass es keinen TU107 geben wird.

Wobei: Eigentlich wäre gerade für Notebooks DLSS etc. sehr hilfreich was Speicherbedarf und Performance angeht. Dann kann man in 720p zocken und trotzdem native 1080p geniessen.

Deswegen: Evtl. kommen die kleinen Chips recht früh schon in 7nm. Sagen wir mal TU107 in Q1 / 2019 als 7nm Pipecleaner.

@ Skynet:
Das glaube ich nicht. Das RTX Label + RT soll sich durchsetzen und das kann man nur mittels Marktdurchdringung. Das erreicht man mit Low-End bis Mainstream GPUs in Notebooks sowie Desktop.

BigKid
2018-09-07, 10:12:24
Bei Battlefield V war bei der ersten Raytracing Demo immer Raytraycing Auflösung = Renderingauflösung, deswegen bricht ja die Performance so bei 1440p und 2160p. Wie das in der finalen Version dann aussieht werden wir ja sehen.

Von meinen Verständnis könnte man in Battlefield V auch mit Raytracing mit einer 2080Ti in UHD 60 fps erreichen, wenn die RT Auflöung bei FHD bleibt, weitere Optimierung durchführt und z.B. noch die Tensor Cores für das Denoising nutzt.

Viele tun ja gerade so dass Raytracing mit der RTX mehr oder weniger noch gar nicht praktikabel nutzbar ist. Meiner Meinung nach, wird man mit guter Implementierung auch schon mit der 1. Generation gute Ergebnisse erzielen können.



Dies ist annehmbar, man kann jedoch nicht davon ausgehen.

Ich spekuliere dahingehend, dass wird erst mit 7nm Chips Raytracing Hardware Einheiten bei kleineren GPU Stufen sehen werden.
Ich sags nochmal: Genau dafür wurde IMHO DLSS erfunden - und dann stellt sich natürlich die Frage - warum nicht auch für herkömmliche Engines nutzen wenn man damit +30-40% Performance anbieten kann...
Ich meine auf der Siggraph Präsentation wurde doch gezeigt dass man gerade mit RT und DLSS unglaubeliche Performance Gewinne bei wenig Verlust an Bildquali rausholen kann..

Dural
2018-09-07, 10:14:33
In der Regel sind die NV chips ja immer + 50%

TU104 und TU102 kennen wir ja, somit müsste ein TU106 2048SP haben:

2048
3072
4608


Die 2070 hat laut NV aber 2300, und wäre somit extrem nahe des theoretischen TU106. NV könnte wirklich auf die Idee gekommen sein das die den TU106 etwas breiter machen als üblich, wenn man damit etwas Die Fläche gegenüber TU104 spart könnte das für NV schon rentabel sein.

Beim TU106 könnte NV zb. auch NVLink komplett streichen. :rolleyes:

Edgecrusher86
2018-09-07, 10:22:31
Bei Pascal war es ja so:
GP106 (https://videocardz.net/gpu/nvidia-gp106/) = 1280 SP full, GP104 (https://videocardz.net/gpu/nvidia-gp104/) = 2560 SP full. ;)

Insofern würde ich maximal 1536 SP für eine 2060er erwarten mit Performance GTX 1070+.

E: Maxwell hatte zwar auch schon bis zu 1280 SPs (https://videocardz.net/gpu/nvidia-gm206/) - kam, aber nur in einer GTX 960 OEM zum Einsatz. Die normale GTX 960 hatte 1024 SPs, also die Hälfte der GTX 980.
Wäre das auch bei Turing der Fall, hätte der Chip theor. bis zu 1920 SPs. TU102 das 2,4 fache, wie auch GM200 zu GM206. Bei Pascal war es das 3 fache für GP102 (3840 zu 1280). 1536 x 3 = 4608. Mal schauen. :)

Dural
2018-09-07, 10:27:30
hmm stimmt auch wider, da waren es 100%

robbitop
2018-09-07, 10:28:37
Die 2060 wird IMO kommen. Aber ich denke nicht dass die 2070 auf tu106 basiert. War bisher ja immer so dass 104 = 2x 106 war (seitens sm). edit: wurde ja von den Vorrednern bereits gepostet :)
TU106 könnte bei 16/12nm, wenn er schneller sein soll als GP106, durch den „ballast“ (was kein Ballast ist - ich vereinfache hier) mehr TDP brauchen kann als sein Vorgänger. Das wäre für eine mobile Variante eher ungut.
Insofern erscheint ein 7nm TU106 in 2019 nicht so unwahrscheinlich. Navi10 (der ja ähnlich groß und schnell sein könnte) wird wohl auch in 7nm hergestellt. Weit hergeholt ist es nicht unbedingt wenn man h1 2019 als Zeitrahmen setzt.

BlacKi
2018-09-07, 10:48:04
wenn überhaupt, denke die kommenden 2-3 generationen wird das ein "luxus" der teuren karten bleiben, NV will ja kohle machen :smile:
und wenn RT reflectionen auf "low" max 10% kosten aber trotzdem gut aussieht?

ich frag mich schon die ganze zeit wie ihr das jetzt schon festlegt das rt nix wird. das ist komplett unrational.

erst mal sehen was kommt.

Schnoesel
2018-09-07, 10:54:36
Ich würde ja damit beginnen DX12 in BF zu fixen sonst wird das nix.

w0mbat
2018-09-07, 10:56:37
und wenn RT reflectionen auf "low" max 10% kosten aber trotzdem gut aussieht?

ich frag mich schon die ganze zeit wie ihr das jetzt schon festlegt das rt nix wird. das ist komplett unrational.

erst mal sehen was kommt.
Nein, es ist nicht unrational. Wir wissen, dass eine 2080er @1080p mit RTX nichtmal 60 FPS halten kann. Das ist die einzige Info die wir aktuell haben und auf Basis dieser Kenntnisse sieht es eben nicht danach aus, dass RTX in der ersten Generation etwas wird.

Ist ja auch nicht schlimm, aber bestimmt nicht unrational. Was wäre wenn ist ja dein Ansatz hier.

SKYNET
2018-09-07, 11:06:06
Nein, es ist nicht unrational. Wir wissen, dass eine 2080 Ti @1080p mit RTX nichtmal 60 FPS halten kann. Das ist die einzige Info die wir aktuell haben und auf Basis dieser Kenntnisse sieht es eben nicht danach aus, dass RTX in der ersten Generation etwas wird.

Ist ja auch nicht schlimm, aber bestimmt nicht unrational. Was wäre wenn ist ja dein Ansatz hier.

mal ergänzt :)

unterhalb ner Ti wird RT einfach nicht zu gebrauchen sein, obwohl bei BF5 wird ja grad zurück gerudert, evtl. soweit das die normale 2080 dann in dem bereich ist, wo jetzt die Ti war... :smile:

Edgecrusher86
2018-09-07, 11:14:39
Achtung: Milchmädchen-Rechnungen incoming :D:

TU102 hat bei 20% mehr Einheiten 55% mehr Transistoren im Vergleich zu GP102 - gerade auch durch die vergrößerten Caches sowie die RT/TC.
Käme der TU106 hypothetisch also auch damit, dann wären es bei ebenfalls +20% SPs (1536), grob 6,82 Mrd. Transistoren (4,4 Mrd. hat GP106 bei 200m²) und der Chip wäre nicht weit entfernt von den 7,2 Mrd. Transistoren des GP104 (314mm²).
In 12FF wäre man wohl ganz grob bei 280mm². RT/TC dürften aber wenig Sinn machen bei der Rohleistung - evtl. wären es dann nur um das 1,35 fache an Fläche, wenn man diese weg lässt (~ 5,94 Mrd. Transistoren; ~ 257mm² in 12FF).
Möglich wäre das natürlich auch für Laptops bei niedrigen Taktraten und Spannungen, wenn sogar der riesige TU104 Verwendung im Enthusiasten-Markt finden sollte. 7nm in 2019 wäre natürlich gerade für den Verbrauch ein Volltreffer,
aber ich behaupte mal, dass ein ~ 1xx mm² Chip in der Herstellung ähnlich viel kosten dürfte, wie ein 2xx mm² Adäquat in 12FF, wenn die Yields noch nicht so gut wären. Die Gerüchte aus China besagen ja, dass eine 2060 noch zum Ende des Jahres
kommen soll - das wäre dann nur im altbewährten Prozess möglich.

E: Also eine GTX 1060 Mobile kommt im Vollausbau bei 1404/1670 MHz Base/Boost statt 1506/1708 MHz wie die große Desktop-Variante mit der gleichen Bandbreite und VRAM-Bestückung nur auf 80W und ist dabei grob 20% im GPU-Limit hinter einer
Desktop GTX 1060. Vermutlich dürfte eine 2060 Mobile bei maximal 110W inkl. VirtualLink also möglich sein, die auch wieder grob 20% hinter der Desktop-Variante liegt. Lässt man VL weg, dann ist natürlich wieder deutlich unter 100W drin.

Da noch keine Quelle von einem TU106 Mobile sprach, kann es durchaus sein, dass hier nur der TU104 als Highend aufgelegt wird und dann die kleineren Varianten nächstes Jahr in 7nm kommen.

RLZ
2018-09-07, 11:40:31
Nein, es ist nicht unrational. Wir wissen, dass eine 2080er @1080p mit RTX nichtmal 60 FPS halten kann.
Wissen wir das? Wir haben ein paar zusammengekloppte Implementierungen für die Messe gesehen. Gebt den Entwicklern mal Zeit, um mit der Hardware zu arbeiten und zu lernen.

vinacis_vivids
2018-09-07, 11:43:33
Ich würde ja damit beginnen DX12 in BF zu fixen sonst wird das nix.

DX12 ist bei NV ohne RT ohnehin nicht zu gebrauchen. Es hängt also am RT und DLSS und damit an der DX12-DXR API Erweiterung. Vor 2019 wirds glaube ich nichts und eh es läuft haben wir vllt. Mitte 2019 wo BFV dann mit reduzierten RT auf ner 2080Ti in HD läuft.
Der Aufwand ist Gigantisch, möglicherweise muss die Engine für DXR deutlich stärker umgeschrieben werden als gedacht, mal schauen wie DICE damit umgeht.

BlacKi
2018-09-07, 11:47:51
Nein, es ist nicht unrational. Wir wissen, dass eine 2080er @1080p mit RTX nichtmal 60 FPS halten kann. Das ist die einzige Info die wir aktuell haben und auf Basis dieser Kenntnisse sieht es eben nicht danach aus, dass RTX in der ersten Generation etwas wird.

Ist ja auch nicht schlimm, aber bestimmt nicht unrational. Was wäre wenn ist ja dein Ansatz hier.
ja lol, du hast oder willst meinen gedanken nicht verstehen.

wie performt die rtx 2080ti mit rtx auf low? weißt du das? nein, also lasst doch die vermutungen, das man rt garnicht gebrauchen kann. das ist es was ihr die ganze zeit hoch und runter schreibt, aber noch garnicht fest steht.

im gegenteil, die andeutung der rt details runterschrauben zu können deutet doch eigentlich sicher darauf hin das man die rt performance deutlich steigern werden kann.

aber wie schnoesel schon sagte, dazu muss DX12 erstmal gefixt werden. daher ist RTX schonmal ein voller erfolg für die spieler, ob sie RT nun einschalten oder nicht, da nv jetzt etwas druck machen wird auf die entwickler ihr dx12 zu fixen.

HOT
2018-09-07, 11:53:58
Vielleicht ist es ja auch ganz anders:

2080Ti -> TU102 salvage
2080 -> TU104 salvage
2070 -> TU106 full, auch weiter gesalvagte TU104 werden verbaut (deshalb das kleine Package)
2060 -> TU106 salvage (nur 192 Bit), aber volles RT
2050 (Ti) -> TU107 7nm Pipecleaner wie GF117 damals
Rest GP107/8 (14LPP Samsung)

- kein 16nm mehr
- kein GDDR5X mehr
- 7nm-Problematik gelöst
- volles Lineup

vinacis_vivids Turing hat mit Sicherheit Paxwells LL-Schwächen ausgebügelt.

Rancor
2018-09-07, 11:57:43
DX12 ist bei NV ohne RT ohnehin nicht zu gebrauchen. Es hängt also am RT und DLSS und damit an der DX12-DXR API Erweiterung. Vor 2019 wirds glaube ich nichts und eh es läuft haben wir vllt. Mitte 2019 wo BFV dann mit reduzierten RT auf ner 2080Ti in HD läuft.
Der Aufwand ist Gigantisch, möglicherweise muss die Engine für DXR deutlich stärker umgeschrieben werden als gedacht, mal schauen wie DICE damit umgeht.

Woher willst du wissen das sich Turing unter DX 12 wie Pascal verhält?
Schon Volta lief deutlich besser unter LL APIs als Pascal.

DX 12 ist übrigens in BF V selbst mit VEGA Karten kaputt. Es stottert und ruckelt egal bei welchem IHV.

95vSoNZPWx0

TobiWahnKenobi
2018-09-07, 12:31:05
dieses unspielbare geruckel unter DX12 scheinen ja nun tatsächlich mehrere user zu haben. und das kenne ich ja nicht nur jetzt aktuell in BFV, das war auch schon in BF1 und in battlefront2. das war mit jeder graka unbrauchbar (TXP, TXP-SLi, TXp, TV) warum wird das nicht gefixt - müsste das beim entwickler nicht genauso unspielbar sein?
diese workarounds mit ner älteren windowsversion kann doch nicht die lösung sein. verstehe ich nicht. wenn man einen renderpfad nicht nutzen kann, warum wird er implementiert?


(..)

mfg
tobi

MartinRiggs
2018-09-07, 12:47:24
Komisch ist es schon das die es jetzt solange nicht hinbekommen, wenigstens läuft DX11 butterweich.

Zuviel sollte man sich von RTX in der ersten Generation nicht versprechen, die 2080 und 2080Ti sind Wegbereiter, die 7nm Nvidias werden da wohl ne ganze schippe drauflegen.

dargo
2018-09-07, 12:59:38
Ich würde ja damit beginnen DX12 in BF zu fixen sonst wird das nix.
Jupp... hier muss DICE erstmal anfangen anzusetzen. Der aktuelle DX12 Renderer ist absoluter Müll und einfach nur noch peinlich für so einen Laden. Auch mit Radeon, hier mit Vega Stuttering aus der Hölle... komplett unspielbar!

Kartenlehrling
2018-09-07, 13:02:56
Der Aufwand ist Gigantisch, möglicherweise muss die Engine für DXR deutlich stärker umgeschrieben werden als gedacht, mal schauen wie DICE damit umgeht.

Es wird kein update geben.

vinacis_vivids
2018-09-07, 13:06:35
"In diesem Jahr wird NVIDIA Pascal den Markt nicht verlassen"
https://overclockers.ru/hardnews/show/93347/v-etom-godu-nvidia-pascal-s-rynka-ne-ujdet
"In Bezug auf die Preise für die Turing-Grafikkarten sagte der CFO von NVIDIA, dass der Nutzer eine deutlich höhere Leistung erhält, so dass das Preis-Leistungs-Verhältnis neuer Grafikkarten immer noch profitabler ist als bei seinen Vorgängern."

Es liegen anscheinend noch genügend Pascal-Chips auf Lager. Turing soll das Weihnachtsgeschäft ankurbeln.

Jupp... hier muss DICE erstmal anfangen anzusetzen. Der aktuelle DX12 Renderer ist absoluter Müll und einfach nur noch peinlich für so einen Laden. Auch mit Radeon, hier mit Vega Stuttering aus der Hölle... komplett unspielbar!

Von welcher Iteration redest du, die DX12-beta-iteration von bfv ist natürlich noch nicht reif? bf1 und swbf2 sind (final) sehr gut auf DX12(~CGN) optimiert.

Daredevil
2018-09-07, 13:07:35
Es ist auf jeden Fall sehr beruhigend, das niemand hier völlig überzogene Erwartungen an ein Next-First-Gen Produkt hat in Verbindung mit einer Beta Version eines riesen AAA Shooters, wo mehrere hundert Leute mit dran arbeiten müssen. :D

Edgecrusher86
2018-09-07, 13:15:18
Mit RTX wird es dann noch schlimmer in DX12 @ BF V. Also die nicht so repräsentative Gamescom-Demo hatte ja laut GameStar schon bei jedem Gegnerkontakt Einbrüche auf deutlich unter 20 fps mit der RTX 2080 Ti @ FHD. :freak:
Auch wenn die Performance unter anderem durch Herunterfahren der Effekte verbessert wird, wenn es dann reingepatcht wird: Der praktische Nutzen wird gleich Null sein - bei BF V wird RTX eine interaktive Techdemo bleiben, nicht mehr und nicht weniger.
Mehr kann man auch nicht erwarten, wenn ein flüssiges Spielen unabhängig des IHVs nicht unter DX12 gegeben ist.


Auf AMD sieht es natürlich auch nicht gut aus bei der Frostbite3 @ DX12.

https://www.youtube.com/watch?v=o5tQp0k5Wv0
https://www.youtube.com/watch?v=gWe4F_bD8S0
https://www.youtube.com/watch?v=yvc82bKvqAI

Gerade die Frametimes in BF V fallen sofort ins Auge.

Sehr schade, dass ein gerade das vermeintliche Vorzeige-Studio DICE es nicht schafft, eine anständige DX12 Umsetzung wie etwa Rebellion (Sniper Elite, Strange Brigade) oder Crystal Dynamics (TR) hinzubekommen.

nairune
2018-09-07, 13:34:40
Sowas ist doch immer eine Kosten-Nutzen-Entscheidung.
Offensichtlich ist der DX12-Fix in Frostbite ziemlich aufwendig. Da alle einwandfrei mit DX11 zocken können, lässt man´s halt dabei. Jetzt haben sie einen Vertrag bei NV unterschrieben, den Raytracing-Kram für X € einzubauen. Benutzen tun es nachher 0-1% der Leute. Der einzige Grund das umzukrempeln ist Prestige bzw. Druck von NV (sofern sie da was machen können) - ob das reicht, wird sich zeigen.

Timbaloo
2018-09-07, 13:56:45
BFV, BFV, BFV, BFV, ...

Es nervt.

robbitop
2018-09-07, 14:26:46
12nm hat iirc keine höhere Packsichte als 16nm. GV100 hat iirc keine höhere Transistordichte als die höchste innerhalb der 16nm Pascal Familie

Linmoum
2018-09-07, 14:26:58
RT, Turing, RT, Turing, RT, Turing, RT. Vorzeigetitel aktuell für RT ist BFV.

Weiß nicht, was da nervt.

Menace
2018-09-07, 14:34:01
Wieso nervt BF V? Hat man nicht gesagt, dass bei Tomb Raider das RT so lala wäre, aber BF V würde richtig Hammer aussehen? Aber da hast Du doch bestimmt auch schon gesagt, BF V, BF V, BF V, ... Es nervt. :confused:

Timbaloo
2018-09-07, 15:59:12
1. Weil es mehr gibt als BFV.
2. Weil es falsch ist von BFV auf den Rest zu schliessen und zu postulieren, dass erste Gen RTX nichts bringt.

MartinRiggs
2018-09-07, 16:43:58
Die Zeit wird es zeigen was es bringt, man sollte aber wenig erwarten.

Viele hier spielen in WQHD, UWQHD oder sogar UHD, wer glaubt ernsthaft das da noch ein flüssiges Gameplay rauskommt wenn man RTX aktiviert?
Erste Generationen waren immer der Wegbereiter der Technik und die Nachfolgegenerationen haben draufgelegt.
Klar macht Nvidia jetzt nen schönen Hype um abzukassieren, Leistung haben die Karten ja auch ohne RTX genug, aber wenn dann die 7nm kommen sieht die erste Generation vermutlich sehr alt aus.

und bevor ich gebasht werden, das ist nur meine Meinung, also locker bleiben.;)

SKYNET
2018-09-07, 16:50:13
1. Weil es mehr gibt als BFV.
2. Weil es falsch ist von BFV auf den Rest zu schliessen und zu postulieren, dass erste Gen RTX nichts bringt.

es wird aber so sein, das es in games keinen praktischen nutzen haben wird, wenn es so eingesetzt wird... TR zb. wurden ja nur die schatten mit RT gemacht, und auch da waren die frames eher durchwachsen.

N0Thing
2018-09-07, 17:04:09
Jupp... hier muss DICE erstmal anfangen anzusetzen. Der aktuelle DX12 Renderer ist absoluter Müll und einfach nur noch peinlich für so einen Laden. Auch mit Radeon, hier mit Vega Stuttering aus der Hölle... komplett unspielbar!

Schon erstaunlich, DICE hat doch eigentlich schon ziemlich früh erste Erfahrungen mit LL-APIs in Form von Mantle gemacht. Sind die Leute, die damals dafür verantwortlich waren, nicht mehr bei DICE? Andere Entwickler bekommen es trotz aktueller Version von Windows ja auch hin, eine vernünftige DX12-Implementierung abzuliefern. :confused:

Timbaloo
2018-09-07, 17:05:41
Na dann wird es halt nicht so eingesetzt...

https://www.youtube.com/watch?v=ZnQRzLZ5nEE

Global Illumination, 4K, flüssig.

Ist echt bitter wie innovationsfeindlich das Forum geworden ist.

Menace
2018-09-07, 17:19:26
Ist echt bitter wie innovationsfeindlich das Forum geworden ist.

Ist es nicht - eher geht es dem Forum gar nicht schnell genug. :D Mich nerven halt solche Sachen, dass man mit etwas groß Werbung macht, was so dann gar nicht kommt, weil es die teuerste Grafikkarte von der Leistung gar nicht packt (mal dann davon abgesehen, was die "RT"X 2070 und "RT"X 2080 überhaupt leistet).

Ex3cut3r
2018-09-07, 17:28:31
Die Zeit wird es zeigen was es bringt, man sollte aber wenig erwarten.

Viele hier spielen in WQHD, UWQHD oder sogar UHD, wer glaubt ernsthaft das da noch ein flüssiges Gameplay rauskommt wenn man RTX aktiviert?
Erste Generationen waren immer der Wegbereiter der Technik und die Nachfolgegenerationen haben draufgelegt.
Klar macht Nvidia jetzt nen schönen Hype um abzukassieren, Leistung haben die Karten ja auch ohne RTX genug, aber wenn dann die 7nm kommen sieht die erste Generation vermutlich sehr alt aus.

und bevor ich gebasht werden, das ist nur meine Meinung, also locker bleiben.;)

Da hast du schon recht, aber Leute die 850-1259€ für eine GPU ausgeben, die werden auch bei 7nm 2020 wieder wechseln. Von daher passt es doch, ich hole auch eine für UWQHD. RT interessiert mich nicht. DLSS schon eher. :smile:

Timbaloo
2018-09-07, 17:29:19
@Menace

Wäre es (in BFV) schnell dann wären wir hier wieder bei hundertausend Posts die uns mitteilen, dass sich das alles ja nicht durchsetzt so lange die Konsolen es nicht können.

Das meine ich mit Innovationsfeindlichkeit, es wird immer was gesucht diese Innovation kleinzureden. Du kannst dich bestimmt auch noch an diese lächerliche Diskussion mit der inkorrekten Reflektion im Autospiegel erinnern? qed.

Menace
2018-09-07, 19:19:39
Das meine ich mit Innovationsfeindlichkeit, es wird immer was gesucht diese Innovation kleinzureden. Du kannst dich bestimmt auch noch an diese lächerliche Diskussion mit der inkorrekten Reflektion im Autospiegel erinnern? qed.

Ja, manche suchen sehr genau das Haar in der Suppe; ein paar wird es gerade zu beginn schon geben. Das darf man auch so formulieren. Aber ich bin schon immer experimentierfreudig; deswegen ärgert mich RT als solches überhaupt nicht (zumal man es für entsprechendes Arbeiten einsetzen kann). Nur sollte es halt auch dementsprechend verkauft werden und nicht "RTX" in dieser 2XXX Version ist ein Gamechanger (du erinnerst Dich?).

Ich hoffe inständig, dass am Veröffentlichungstermin der Tests auch mit Beispielfotos von den Testern verglichen wird, wie BFV vor einigen Wochen aussah und dann aussieht, wenn die Balkenlänge dabei stehen.

Ich denke trotzdem, dass die meisten (alle?) RT begrüßen, nur dass die Einschätzung der Nutzbarkeit bei dieser Grafikkartenversion und bei aktuellen Spielen noch unterschiedlich gesehen wird.

Und eine Reine "Blender"innovation wäre dann ja auch keine, oder?

BlacKi
2018-09-07, 19:44:09
Die Zeit wird es zeigen was es bringt, man sollte aber wenig erwarten.

Viele hier spielen in WQHD, UWQHD oder sogar UHD, wer glaubt ernsthaft das da noch ein flüssiges Gameplay rauskommt wenn man RTX aktiviert?
japp, aber wohl nicht auf dem gezeigten detailgrad.

PHuV
2018-09-07, 21:23:38
Nur sollte es halt auch dementsprechend verkauft werden und nicht "RTX" in dieser 2XXX Version ist ein Gamechanger (du erinnerst Dich?).
Ist sie doch auch, weil sie die Grundstein für weitere Generationen legen wird, so wie die erste mit Rasterisierung, Shader und Co.

ChaosTM
2018-09-07, 21:34:34
Absolut. Aber wie bei jeder neuen Technik vergeht eine Menge Zeit bis das auch praktisch nutzbar ist.
Das NV RTRT als Mittel zur "Preisanpassung" verwended ist weniger nett aber aus betriebswirtschaftlicher Sicht verständlich.

Momentan habe die eine bessere Umsatz zu Gewinn Ratio als Apple oder der internationale Drogenhandel ;)

matty2580
2018-09-07, 21:37:37
Große "Gamechanger" gab es auch schon davor, Tessellation, Phys X, u.s.w.

Raytracing hat schon Potential, aber nur wenn es die GPUs im Preisbereich von 300€ und weniger anbieten, besonders die Konsolen, und natürlich wenn man dafür die Auflösung/Details nicht drastisch reduzieren muss.

TobiWahnKenobi
2018-09-07, 21:43:18
wäre vielleicht gut, wenn jemand der sich mit grafikkarten auskennt, anfängt RT-fähigkeiten in hardware zu giessen.. dann wird das dem gesetz der weiterentwicklung folgen und irgendwann auch in den günstigen modellen ankommen. bis dahin hat es bestimmt auch softwareseitig angefangen in den markt zu drängen. vllt. können wir dann RT in den ingame-optionen an/ausschalten. je nachdem, wie stark das gewählte grafiksystem ist.


(..)

mfg
tobi

vinacis_vivids
2018-09-07, 21:52:52
Der Grundstein für DX11 wurde 2009 von der HD5870 gelegt. Das sind jetzt 9 Jahre. Ehe sich natives DX12 durchsetzt, ohne RT, haben wir 2024 (2015+9Jahre). RT gibs nun Ende 2018, 9 Jahre sind dann 2027. Die erste Iteration RTX wäre dann vllt. so leistungsfähig wie die HD5870 1GB für DX11, bspw. FC5@HD heute bei ~15fps.
Für RT benötigt man womöglich eine noch viel höhere Rohleistung, die die Hardware gar nicht so schnell hergibt. Die Durchdringung von Vulkan und mGPU wird wichtiger denn je.

TobiWahnKenobi
2018-09-07, 22:04:02
auf dem langen weg zum vollständigen raytracing - was wir wohl nie erreichen, weil auch die auflösungen immer weiter mitsteigen - wird uns das ganze als optionaler effekt a la gameworks begleiten. also nicht als rendermodus. nvidia wird die spielehersteller supporten, damit es zumindest in rasterizer-games eine optionale RT-aufwertung gibt, die dann auch wieder entsprechende hardware nötig macht, die die spieler dann kaufen sollen und auch wollen.. die spirale ist also gar nicht tot..


(..)

mfg
tobi

SKYNET
2018-09-07, 22:22:46
auf dem langen weg zum vollständigen raytracing - was wir wohl nie erreichen, weil auch die auflösungen immer weiter mitsteigen - wird uns das ganze als optionaler effekt a la gameworks begleiten. also nicht als rendermodus. nvidia wird die spielehersteller supporten, damit es zumindest in rasterizer-games eine optionale RT-aufwertung gibt, die dann auch wieder entsprechende hardware nötig macht, die die spieler dann kaufen sollen und auch wollen.. die spirale ist also gar nicht tot..


(..)

mfg
tobi

nö, 4k wird die derzeitige spitze der auflösung im mainstream darstellen.... 8k panels sind zu teuer, und weder bluray kann soviel daten speichern(= neues format oder wechsel der silberlinge wärend des films) noch stream kann die menge an daten liefern bei den langsamen internet das du in EU hast... mehr als JP und schweiz hier, wird es die kommenden 20 jahre nicht geben wo 8k von der bandbreite flächendeckend möglich wäre :tongue:

ChaosTM
2018-09-07, 22:25:58
Ich freu mich auf 8K Panels. Mit der Pixeldichte kann man dann wirklich jede Auflösung fahren, ohne nenneswerte Artefakte bei der Skalierung zu riskieren.

vinacis_vivids
2018-09-07, 22:27:24
@TobiWahnKenobi
Naja, der Anteil an Transistoren für reines Rasterizing wird gegenüber den von RayTracing schrumpfen oder die Hardware wird noch flexibler gestaltet in Richtung Compute(RT)-Shader. Nvidia kann das allein gar nicht schaffen, dazu braucht es vor allem AMD "NextGen" und in Zukunft auch Intel als zusätzliche GPU-Anteiber. Auch die Durchsetzung als Blackbox ala Gameworks wird nicht möglich sein.

PHuV
2018-09-07, 22:44:54
schön In deinem verlinkten test gab es ein Steigerung von 71% von 560 auf 660. Wie waren da noch mal die Preissteigerungen`?
Moment, daß war die untere Mittelklasse mit x60er Reihe, schau Dir mal die xx80er Reihe an.

https://www.computerbase.de/2018-09/geforce-480-580-680-780-980-1080-vergleich/2/
Die meisten Steigerungen von einer zur andere Generation liegen unter 50%. Nur der Wechsel von 980 auf 1080 bietet mal einen großen Sprung über 50% im Performancerating bei FHD und UHD. Daher läge der Wechsel vom 1080 nach 2080 mit 35-40% im guten Mittelfeld.

Ex3cut3r
2018-09-07, 22:46:35
nö, 4k wird die derzeitige spitze der auflösung im mainstream darstellen.... 8k panels sind zu teuer, und weder bluray kann soviel daten speichern(= neues format oder wechsel der silberlinge wärend des films) noch stream kann die menge an daten liefern bei den langsamen internet das du in EU hast... mehr als JP und schweiz hier, wird es die kommenden 20 jahre nicht geben wo 8k von der bandbreite flächendeckend möglich wäre :tongue:

8K wird langsam schon vorbereitet.
https://www.4kfilme.de/8k-nachfolger-fuer-4k-naehert-sich-bereits/

Für PC Spieler werden meiner Meinung wohl ab 2022 bezahlbare 8K Monitore mit IPS Panel verfügbar sein. 4K ist dann auf nur noch das 1080p der Zukunft, und 5K wird das 1440p der Zukunft sein.

matty2580
2018-09-07, 22:55:05
Eigentlich geht es hier um Turing, die hohen UVPs, neuen Features, u.s.w.

Raytracing ist eine tolle Technologie, ohne Frage, die Nvidia mit allen Mitteln jetzt zusammen mit Microsoft und vielen Spieleentwicklern in den Markt drücken will.

Das erste Problem ist die wirklich hohe Preislage von Turing, und gleich danach kommt der extreme Hardwarehunger dafür. Wer will schon in Full HD spielen, also ein deutliches Downgrade machen, nur für einfache Raytracingeffekte?

N0Thing
2018-09-07, 22:59:56
8K wird langsam schon vorbereitet.
https://www.4kfilme.de/8k-nachfolger-fuer-4k-naehert-sich-bereits/

Für PC Spieler werden meiner Meinung wohl ab 2022 bezahlbare 8K Monitore mit IPS Panel verfügbar sein. 4K ist dann auf nur noch das 1080p der Zukunft, und 5K wird das 1440p der Zukunft sein.

Ist nur die Frage, ob die Mehrheit der Enthusiasten darauf überhaupt Bock hat und nicht lieber 4K mit hohen Wiederholraten und gutem Kontrast herbei sehnt. Den Schritt zu 4K kann ich bei dem in der Regel geringen Abstand zum Monitor beim Zocken ja noch gut verstehen, aber ob 8K wirklich eine Verbesserung wäre?
Auch für den (Heim-)Kinobereich würde ich mir eher eine höhere Bildrate und einen größeren Dynamikumfang wünschen als eine höhere Auflösung.

ChaosTM
2018-09-07, 23:11:14
4k benötigt beim Spielen immer noch AA, wenn auch relativ simples.
Unter 8K oder 4K hochskaliert auf 8k wäre das dann wohl gegessen.

Ex3cut3r
2018-09-07, 23:15:43
Wie Chaos schon schrieb, ja 8K wurde bei 32" einfach Sau geil aussehen, damit hätte man endlich Smartphone PPi am PC. Und auf AA kannst du endgültig verzichten. bzw. mit TAA wäre das einfach Mega. :smile:

Muss man aber auch abwarten. DLSS scheint ja auch eine interessante Technologie zu werden.

N0Thing
2018-09-07, 23:16:40
Gutes PP-AA in Form von TAA oder selbst gutes SMAA kosten quasi nichts und leiden bei hohen Auflösungen auch kaum noch unter Unschärfe. MSAA ist quasi tot und die Performance-Einbußen dadurch ebenfalls. ;)

y33H@
2018-09-07, 23:17:04
Du hast dennoch Shader- oder Textur-Aliasing ... wenigstens SMAA oder so muss rein.

PHuV
2018-09-07, 23:37:57
8K wird langsam schon vorbereitet.
https://www.4kfilme.de/8k-nachfolger-fuer-4k-naehert-sich-bereits/

Für PC Spieler werden meiner Meinung wohl ab 2022 bezahlbare 8K Monitore mit IPS Panel verfügbar sein. 4K ist dann auf nur noch das 1080p der Zukunft, und 5K wird das 1440p der Zukunft sein.
Wenn man daran denkt, daß 4 Jahren UHD-Monitore auf dem Markt sind, und gerade mal 1,33% laut Steam Survey damit spielen, glaube ich nicht, daß 4k oder 8k so schnell voranschreiten.

Ex3cut3r
2018-09-07, 23:41:48
Klar, wird noch dauern, aber es wird kommen. ;)

Interessant wirds dann ab 8K, ob es dann bei den Typischen Monitor Größen von 27 - 32" und 275-330PPi noch weiter Sinn macht, noch höher zu gehen. 8K + DLSS sehe bestimmt Göttlich aus.

pixeljetstream
2018-09-07, 23:42:49
@TobiWahnKenobi
Naja, der Anteil an Transistoren für reines Rasterizing wird gegenüber den von RayTracing schrumpfen oder die Hardware wird noch flexibler gestaltet in Richtung Compute(RT)-Shader. Nvidia kann das allein gar nicht schaffen, dazu braucht es vor allem AMD "NextGen" und in Zukunft auch Intel als zusätzliche GPU-Anteiber. Auch die Durchsetzung als Blackbox ala Gameworks wird nicht möglich sein.
Was meinst du mit nicht schaffen?
Für volle Marktdurchdringung von RT Technik sind die anderen beiden schon wichtig. Aber wie NV die Fläche ihrer Chips einteilt ist doch unabhängig. Die Rasterisierung selbst ist in Spielen eigentlich selten ein Problem. Die meiste Fläche geht doch gut sichtbar für Shader Leistung drauf und der HW ist egal ob Compute oder Grafik, ergo der Trend generische Shading Leistung zu erhöhen ist doch schon Jahre lang im Gange. Beim RT interessieren später die Intersektionskosten auch immer weniger, sondern eben das Shading der nun hinzugekommen Samples und die Verwaltung der Szene.

Die Hauptarbeit findet vom Entwickler in Standardapis statt. Der Gameworks kram ist "nur" für paar Filter hier und dort. Die Hauptlast ist hinter der dx API und damit für alle Hersteller gleichermaßen blackbox.

BlacKi
2018-09-07, 23:49:51
könnt ihr die 4k diskussion auslagern? bevor der fred wieder dich gemacht wird?

N0Thing
2018-09-07, 23:54:28
Klar, wird noch dauern, aber es wird kommen. ;)

Interessant wirds dann ab 8K, ob es dann bei den Typischen Monitor Größen von 27 - 32" und 275-330PPi noch weiter Sinn macht, noch höher zu gehen. 8K + DLSS sehe bestimmt Göttlich aus.

Ich hätte lieber RayTracing für Spiegelungen, physikalisch korrekte Beleuchtung und Schatten seitens der Spiele und hohe Wiederholraten und hohen Kontrast auf Seiten der Monitore, anstatt die Rohpower der GPUs in 8K zu stecken und wieder bei 30-60fps und bleeding edge IPS zu landen. ;)
Ist aber vielleicht einfach eine Geschmacksfrage, was dem Einzelnen lieber ist. Ich sehe einfach wenig offensichtliche Vorteile bei 8K im Gegensatz zu anderen Baustellen. Nvidia scheinbar auch, obwohl ist jetzt nicht auch nicht FullHD als Ziel erachten würde.

vinacis_vivids
2018-09-07, 23:59:50
Was meinst du mit nicht schaffen?

Mit der Massen-Durchdringung von RT, jetzt hier im speziellen "Gaming-Sektor", wovon die ganze Zeit die Rede ist. Ehe RT in Konsolen landet, dauert das noch Jahre (2025), wobei Rasterizing trotzdem noch bleibt.

Die meiste Fläche geht doch gut sichtbar für Shader Leistung drauf und der HW ist egal ob Compute oder Grafik.

Ist mir schon klar, dass HW nur on/off kennt. Compute-Shader sind trotzdem (deutlich) schneller/effizienter als Grafik(bzw. pixel)-Shader. Heutige Engines/Games sind sehr Grafik-Shader lastig und haben zu wenig compute. Darin liegt die eigentliche Revolution.

Ich hätte lieber RayTracing für Spiegelungen, physikalisch korrekte Beleuchtung und Schatten seitens der Spiele und hohe Wiederholraten und hohen Kontrast auf Seiten der Monitore, anstatt die Rohpower der GPUs in 8K zu stecken und wieder bei 30-60fps und bleeding edge IPS zu landen. ;)
Ist aber vielleicht einfach eine Geschmacksfrage, was dem Einzelnen lieber ist. Ich sehe einfach wenig offensichtliche Vorteile bei 8K im Gegensatz zu anderen Baustellen. Nvidia scheinbar auch, obwohl ist jetzt nicht auch nicht FullHD als Ziel erachten würde.

Höhere Auflösung ist durch nichts zu ersetzen, außer durch noch höhere Auflösung, unabhängig von anderen Effekten. Ich bin froh immer höher aufgelöst zu sein und würde in keinem Fall wieder zurück auf 1200p (Anno 2007)

PHuV
2018-09-08, 00:12:12
Klar, wird noch dauern, aber es wird kommen. ;)

Interessant wirds dann ab 8K, ob es dann bei den Typischen Monitor Größen von 27 - 32" und 275-330PPi noch weiter Sinn macht, noch höher zu gehen. 8K + DLSS sehe bestimmt Göttlich aus.
Hm, ich zweifle, ob man mit 8k auf 27-32" noch den Unterschied auf DLSS sehen wird. Ansonsten spielen die meisten hier vermutlich schon mit einem 4k-Panel und wissen gar nichts davon. :lol:

WQHD-Monitore mit 4K-Panel - Besseres Panel aus Kostengründen verbaut (https://www.gamestar.de/artikel/qhd-monitore-mit-4k-panel-besseres-panel-aus-kostengruenden-verbaut,3331452.html)

pixeljetstream
2018-09-08, 00:17:32
Mit der Massen-Durchdringung von RT, jetzt hier im speziellen "Gaming-Sektor", wovon die ganze Zeit die Rede ist. Ehe RT in Konsolen landet, dauert das noch Jahre (2025), wobei Rasterizing trotzdem noch bleibt.
Mir war im Satz einfach der Zusammenhang mit der Chipfläche unklar. Im Grunde muss man gucken mit was die meisten Steam Spieler so unterwegs sind, und dann hoch rechnen... imo könnte es schon flotter gehen aber nicht viel.

Ist mir schon klar, dass HW nur on/off kennt. Compute-Shader sind trotzdem (deutlich) schneller/effizienter als Grafik(bzw. pixel)-Shader. Heutige Engines/Games sind sehr Grafik-Shader lastig und haben zu wenig compute. Darin liegt die eigentliche Revolution.
Da verstehe ich Dich nicht, bzw. klingt falsch. Die Hardware die die Shader ausführt ist identisch, die effektiven Instruktionen etc. alles gleich. Die Ausführungszeit des warps/wavefront ob nun compute oder pixel-shader ist bei gleichen Instruktionen identisch.
Grafik gibt Dir von der hw verwalteten Zwischenspeicher und load-balancing. Compute ein programmiermodell wo man threads kooperativ nutzen kann. Deiner These das eine Mittel sei pauschal schneller widerspreche ich. Wir sehen immer mehr Compute-Nutzung, aber das hat eher mit dem Programmiermodell und den Aufgaben die Entwickler lösen wollen zu tun als mit der HW.
"Zu wenig compute" ist auch ne sportliche Aussage, als wüßten die Entwickler nicht, welche Dinge für was gut sind.

Bösewicht
2018-09-08, 05:57:37
Inzwischen bin ich aber schon etwas enttäuscht von der RT Performance, vielleicht ist Aktuell das DLSS die klar Interessantere Technik.

Spasstiger
2018-09-08, 08:52:14
Interessant finde ich neben DLSS und Raytracing auch die Möglichkeit, Physik über künstliche Intelligenz und maschinelles Lernen zu "berechnen": http://apagom.com/physicsforests/

Ist zwar für Nvidia Pascal implementiert, dürfte aber bei entsprechender Optimierung von der Turing-Architektur erheblich profitieren.

Edgecrusher86
2018-09-08, 08:57:54
Interessant zu sehen wird sein, ob Titel, die sowohl über RT und DLSS Support verfügen bezüglich der Performance abschneiden, wenn beides kombiniert wird (laut Petersen soll das ja möglich sein).

Atomic Heart, Justice, JX3 und Mechwarrior 5.

Zumindest spielbare fps in WQHD wären hier wünschenswert für die RTX 2000 Gen (TU102).

Diese Kombination könnte dann in zukünftigen Generationen in der Tat ein Gamechanger werden und vielleicht innerhalb der nächsten 4 Jahre Titel, die einen RT Gebrauch wie Metro Exodus, SotTR oder BFV haben in 4K60 @ SGPU ermöglichen. Innerhalb der nächsten 6 Jahre wohl auch per 104-Chip. Wären beide Techniken zusammen mit SLI möglich, dürften 2x RTX 3080 Ti stark genug dafür sein. Das dürften dann aber auch 3100-3600 Euro sein inklusive NVLINK-Bridge.


Ich vermute, dass die RTX 3000 Serie allerfrühstens Q2/2020 und die RTX 4000 Reihe nicht vor Q2/2022 erscheinen dürfte.

robbitop
2018-09-08, 09:16:14
Die Frage ist ob NV 2019 7nm ignorieren will. Ende 2019 für das Weihnachtsgeschäft ein 104 Chip wäre nicht ganz undenkbar.

MiamiNice
2018-09-08, 09:33:49
Es ist auf jeden Fall sehr beruhigend, das niemand hier völlig überzogene Erwartungen an ein Next-First-Gen Produkt hat in Verbindung mit einer Beta Version eines riesen AAA Shooters, wo mehrere hundert Leute mit dran arbeiten müssen. :D

;D
Sehr beruhigend ...

Screemer
2018-09-08, 11:54:03
Interessant finde ich neben DLSS und Raytracing auch die Möglichkeit, Physik über künstliche Intelligenz und maschinelles Lernen zu "berechnen": http://apagom.com/physicsforests/

Ist zwar für Nvidia Pascal implementiert, dürfte aber bei entsprechender Optimierung von der Turing-Architektur erheblich profitieren.
Endlich korrekte Physik bei mehr Interaktion mit der Spielwelt wäre für mich ein wirklicher Gamechanger. Das hatte ich viel weiter vorne im thread schon angesprochen. Sowas wie vor Jahren mit apex vorgeführt wurde vermisse ich heute noch. Red faction: guerilla fand ich allein aus dem Grund so geil. Desbris der liegen bleibt und sich halbwegs korrekt verhält wow. Schon der Vorgänger mit seinem verformbaren Terrain in der geomod-engine war auch toll. Sowas vermisse ich heute. Wenn ich mit nem Panzer in bf5 an ne Struktur schieße dann soll die auch kaputt gehen. Da ist mir die Spiegelungen des Mündungsfeuers im Lack des Autos neben meinem Panzer völlig wurscht.

robbitop
2018-09-08, 12:11:42
Das müsste aber aus Latenzgründen (wenn es nicht nur Effektphysik (also Cloth, Partikel, Strömung) sein soll) auf dem Kern der CPU passieren. Moderne IGPs haben ja durchaus schon entsprechende compute Fähigkeiten und etwas an Rechenleistung/Bandbreite. Für einen sichtbaren Fortschritt würde das reichen.

mironicus
2018-09-08, 12:45:05
Ich bin ja davon überzeugt, das Nividia 2019 ein komplett neues Lineup in 7 nm bringt und dann vor allem mit 8K-Gaming, 16 GB DDR6 wirbt und das alles als "GTX"-Reihe.

Games mit Raytracing-Patch für RTX gibt es bis zu dem Zeitpunkt dann nur 4 oder 5 die nicht mehr weiter gepflegt werden, weil kaum einer es wirklich einsetzt.

RLZ
2018-09-08, 12:47:39
8K-Gaming, 16 GB DDR6 wirbt und das alles als "GTX"-Reihe.
:crazy:

maximus_hertus
2018-09-08, 12:50:19
Nope, RTX wird bleiben. GTX wird vielleicht für die RTX lose Mittelklasse verwendet, aber High-End bleibt RTX.

pixeljetstream
2018-09-08, 12:54:46
@mironicus, Du denkst imo zu kurzfristig. Das ist keine Tagespolitik sondern langfristige Investitionen. Man wird 8k nicht brute-forcen, sondern auch hier auf intelligentes Einsparen setzen.
Raytracing ist nix aus der Luft gegriffenes es ist essentieller Teil der Computergrafik.

Physik und mehr Detailobjekte wären mir persönlich auch lieber. Aber das hat mehr Gameplay Gründe als technische imo. So sp Spiele wie Horizon zero Dawn haben mir schon sehr gut gefallen mit der Flora und Fauna. Kann mir Zerstörung aber gerade bei Multiplayer PC nicht richtig gut vorstellen. Zum einen alles zu synchronisieren und dann auch Garantie dass jeder Client die Darstellung packt und nicht dann einer Deckung sieht und der andere nicht...

mironicus
2018-09-08, 13:25:58
Das wird deshalb scheitern, weil man die Mehrheit der Gamer nicht für einziges technisches Feature begeistern kann. Das ist halt nur was für Leute, die sich danach sehnen, sich von den Konsolen etwas abheben zu können.

Fragman
2018-09-08, 13:34:00
Das wird deshalb scheitern, weil man die Mehrheit der Gamer nicht für einziges technisches Feature begeistern kann. Das ist halt nur was für Leute, die sich danach sehnen, sich von den Konsolen etwas abheben zu können.

die gesamte entwicklung der 3d beschleunigung fuer spiele hing genau an dem, was du jetzt versuchst weg zu reden.

RLZ
2018-09-08, 13:35:20
Das wird deshalb scheitern, weil man die Mehrheit der Gamer nicht für einziges technisches Feature begeistern kann. Das ist halt nur was für Leute, die sich danach sehnen, sich von den Konsolen etwas abheben zu können.
Und wie teilen die Gamer das Nvidia mit? Indem sie insgesamt langsamere Karten der Konkurrenz kaufen?

mironicus
2018-09-08, 13:44:25
Sie behalten einfach die alten Karten, wenn sie schon welche haben.
Und was den Speicher angeht: Die Xbox One X hat bereits 12 GB Speicher, das wird bei dem Nachfolger auch wieder mehr werden. Das hat auch Auswirkungen im PC-Bereich. Es würde mich nicht wundern, wenn AMDs zukünftige Spitzenkarten den Speicher verdoppeln.

Sven77
2018-09-08, 13:49:59
Games mit Raytracing-Patch für RTX gibt es bis zu dem Zeitpunkt dann nur 4 oder 5 die nicht mehr weiter gepflegt werden, weil kaum einer es wirklich einsetzt.

Raytracing ist der nächste logische Schritt in Echzeit 3D. Das war er vor Jahren im Offline-Rendering und das wird in Games nicht anders sein. Das ist wie wenn man damals die Voodoos klein geredet hätte.. und da gabs ja auch nicht wenige die das ganze als "zu langsam", "zu teuer", "zu wenig Spiele" bezeichnet haben. Fortschrittsverweigerer eben. Meine Orchid Righteous würde ich heute als das geilste Stück Hardware das ich je gekauft habe bezeichnen, obwohl ich effektiv nur 4 Spiele damit genutzt habe

mironicus
2018-09-08, 13:56:12
Raytracing ist zunächst mal ein rein elitäres Feature, darauf zielt NVidia bei den möglichen Käufern ab, allerdings mit einem großen Risiko versehen. Es ist nichts, wovon alte Spiele profitieren (mehr Geschwindigkeit) oder schöner gerendert werden können (besseres AA z.B.).

vinacis_vivids
2018-09-08, 14:10:39
Da verstehe ich Dich nicht, bzw. klingt falsch. Die Hardware die die Shader ausführt ist identisch, die effektiven Instruktionen etc. alles gleich. Die Ausführungszeit des warps/wavefront ob nun compute oder pixel-shader ist bei gleichen Instruktionen identisch.
Grafik gibt Dir von der hw verwalteten Zwischenspeicher und load-balancing. Compute ein programmiermodell wo man threads kooperativ nutzen kann. Deiner These das eine Mittel sei pauschal schneller widerspreche ich. Wir sehen immer mehr Compute-Nutzung, aber das hat eher mit dem Programmiermodell und den Aufgaben die Entwickler lösen wollen zu tun als mit der HW.
"Zu wenig compute" ist auch ne sportliche Aussage, als wüßten die Entwickler nicht, welche Dinge für was gut sind.

Die Hardware ist nicht identisch und die Instuktionen von compute-shader sind besser parallelisierbar. Das ist auch der Grund wieso CGN bei idtech6, Frostbite usw. sowie in Konsolen (oftmals) mehr fps (oder BQ) als gewöhnlich bringen und generell besser altern. Beim reinen compute zählt dann wirklich die schiere Rechenleistung.
Was du mit wavefront ansprichst, geht mehr in memory Richtung, wo Nvidia mit Hilfe von u.a. TBR enorme Bandbreite einspart.
Es gibt viele Entwickler, die zwar wissen wie Dinge für was gut sind, aber aus unergründlichen Dingen nicht umsetzen können. Zu wenig compute bleibt nach wie vor bestehen.
Nun hat NV das auch mehr oder weniger eingesehen und für das heutige Gaming praktisch "tote" Chipfläche (MachineLearning) irgendwie in RT zu verpacken. 12nm muss spott billig sein, damit man sowas macht.

Sven77
2018-09-08, 14:12:49
Raytracing ist zunächst mal ein rein elitäres Feature

Sind neue Techniken immer

GSXR-1000
2018-09-08, 14:18:42
Was viele hier nur zu gerne vergessen: Der für mich letzte wirklich massive Gamechanger, eingeleitet von 3dfx, war vor allem deshalb erfolgreich und hat rasch zu einer revolution des Marktes geführt, weil die hardware (vor allem verglichen mit den damaligen Preisen im Hardwarekontext für Speicher, oder selbst so dingen wie Matrox Grakas) sehr erschwinglich war und dafür wirklich einen big bang brachte. Es war seinerzeit vergleichsweise billiger als ein relevantes speicherupgrade.
Das es mit zu hohen Preisen eben nicht funktioniert, obwohl es potential hätte, sieht man an VR. Zu teuer, zu umständlich.
Insofern müsste jeder (auch jeder NV Jünger) der hier die RT Technik als DAS nächste grosse Ding anpreist, massiv an günstiger Hardware für eine relevante Marktstellung interessiert sein. Genau das sehen die betreffenden Leute aber nicht ein, sondern führen liebe eine Neiddebatte. Daran sieht man, das es den Leuten in keinster Weise um die Technologie als solches geht.

pixeljetstream
2018-09-08, 14:37:43
Die Hardware ist nicht identisch und die Instuktionen von compute-shader sind besser parallelisierbar. Das ist auch der Grund wieso CGN bei idtech6, Frostbite usw. sowie in Konsolen (oftmals) mehr fps (oder BQ) als gewöhnlich bringen und generell besser altern. Beim reinen compute zählt dann wirklich die schiere Rechenleistung.
Was du mit wavefront ansprichst, geht mehr in memory Richtung, wo Nvidia mit Hilfe von u.a. TBR enorme Bandbreite einspart.
Es gibt viele Entwickler, die zwar wissen wie Dinge für was gut sind, aber aus unergründlichen Dingen nicht umsetzen können. Zu wenig compute bleibt nach wie vor bestehen.

Natürlich ist die hardware die das ausführt identisch, das siehst du doch in jedem Schaubild, sei es NV, Intel, oder AMD. Es gibt nur SMs, CUs etc. die Einheiten sind schon seit Ewigkeiten generisch. Der einzige Unterschied ist dass du bei Grafik noch paar Instruktionen mehr hast die das lesen der daten bzw. schreiben für die nächste Stage abhandeln, aber deswegen sind die Einheiten die das ausführen nicht unterschiedlich.
Hier mal ein altes GCN paper https://www.amd.com/Documents/GCN_Architecture_whitepaper.pdf
Darin wirst Du auch den Begriff von wavefronts finden, so nennt AMD seinen Thread-Verbund (64 threads), bei NV sind's warps (32 threads).

Wenn du von unergründlichen Dingen sprichst, dann halt weil sie Dir nicht ergründlich sind, Mangels Fachwissen. Das ist doch keine Schande, aber dann muss man hier auch nicht Unwahrheiten verbreiten.
Für viele Aufgaben (und es werden eben immer mehr) ist das compute Programmiermodell flexibler, daher kommt die Zunahme, nicht weil die Hardware da irgendwie magisch schneller läuft.

GSXR-1000
2018-09-08, 14:43:53
Natürlich ist die hardware die das ausführt identisch, das siehst du doch in jedem Schaubild, sei es NV, Intel, oder AMD. Es gibt nur SMs, CUs etc. die Einheiten sind schon seit Ewigkeiten generisch. Der einzige Unterschied ist dass du bei Grafik noch paar Instruktionen mehr hast die das lesen der daten bzw. schreiben für die nächste Stage abhandeln, aber deswegen sind die Einheiten die das ausführen nicht unterschiedlich.
Hier mal ein altes GCN paper https://www.amd.com/Documents/GCN_Architecture_whitepaper.pdf
Darin wirst Du auch den Begriff von wavefronts finden, so nennt AMD seinen Thread-Verbund (64 threads), bei NV sind's warps (32 threads).

Wenn du von unergründlichen Dingen sprichst, dann halt weil sie Dir nicht ergründlich sind, Mangels Fachwissen. Das ist doch keine Schande, aber dann muss man hier auch nicht Unwahrheiten verbreiten.

Was ist denn das für eine Definition?
Mit deiner Argumentation hat sich seit der Erfindung des ersten Transistors nix mehr hardwaretechnisch getan.Denn darauf baut auch die moderne Computertechnik immer noch auf.
Du wuerdest aber sicherlich nicht behaupten wollen, das seitdem alles generisch sei. Die kleinsten einheiten selbst mögen generisch sein. Die Architektur und Logik mit der das umgesetzt wird ist es nicht.

pixeljetstream
2018-09-08, 14:59:35
Was viele hier nur zu gerne vergessen: Der für mich letzte wirklich massive Gamechanger, eingeleitet von 3dfx, war vor allem deshalb erfolgreich und hat rasch zu einer revolution des Marktes geführt, weil die hardware (vor allem verglichen mit den damaligen Preisen im Hardwarekontext für Speicher, oder selbst so dingen wie Matrox Grakas) sehr erschwinglich war und dafür wirklich einen big bang brachte. Es war seinerzeit vergleichsweise billiger als ein relevantes speicherupgrade.
Das es mit zu hohen Preisen eben nicht funktioniert, obwohl es potential hätte, sieht man an VR. Zu teuer, zu umständlich.
Insofern müsste jeder (auch jeder NV Jünger) der hier die RT Technik als DAS nächste grosse Ding anpreist, massiv an günstiger Hardware für eine relevante Marktstellung interessiert sein. Genau das sehen die betreffenden Leute aber nicht ein, sondern führen liebe eine Neiddebatte. Daran sieht man, das es den Leuten in keinster Weise um die Technologie als solches geht.

Imo besteht das Problem darin, dass die Seiten sich gegenseitig unnötig "Fehler" vorwerfen, nur weil sie ne andere Sichtweise haben.

Die 3dfx mag "billig" gegen Profikarten ausgesehen haben, aber als Konsument war sie imo schon Luxusgut, unter Freunden damals war es nicht so dass die jeder hatte, ich hatte erst was mit GL als es alternative Chips gab und man nicht zwei Karten brauchte.

Ich stimme Dir vollkommen zu dass es bescheuert wäre zu wollen dass es exklusiv teuer bleibt, aber nur weil wir jetzt eben in der ersten Generation sind, ist das doch nicht für alle Zeiten so. Und nur weil manche gewillt sind da mit zugehen, heißt dass doch nicht dass sie nicht wollen dass es später mainstream wird oder dass sie kein Interesse an der Technik hätten. Das ist doch schon bissl paradox, oft sind es doch die Enthusiasten die Premium zahlen wenn sie die ersten sind. Ein paar Ausnahmen mag es immer geben auf beiden Seiten, was das "Gönnen" angeht, aber imo wollen sich die Leute einfach streiten ;) und nehmen halt dann nen Anlass.

pixeljetstream
2018-09-08, 15:07:25
Was ist denn das für eine Definition?
Mit deiner Argumentation hat sich seit der Erfindung des ersten Transistors nix mehr hardwaretechnisch getan.Denn darauf baut auch die moderne Computertechnik immer noch auf.
Du wuerdest aber sicherlich nicht behaupten wollen, das seitdem alles generisch sei. Die kleinsten einheiten selbst mögen generisch sein. Die Architektur und Logik mit der das umgesetzt wird ist es nicht.

v_v's Argumentation ist, dass der Pixel Shader "langsamer" seine Befehle ausführt, als ein Compute Shader, weniger parallel etc. Mein Argument ist, dass die Hardware hier ein Programm mit Instruktionen ausführt, und es ihr egal ist, ob nun PS oder CS oder sonstwas. Das wird in den Architekturpapern ja auch genau so dargestellt (und auf den Unterschied eben in jenem GCN Paper extra hingewiesen). Er behauptet es gibt spezielle Einheiten, und ich halte dagegen und er kann sich dann ja fragen wie async compute bei AMD dann funktionieren soll wenn es nicht so wäre... Aber ihr könnt mir ja gerne die Architekturpaper zeigen die das widerlegen und nicht 20 Jahre alt sind ;)

Es gibt auch einen thread zu dem https://www.forum-3dcenter.org/vbulletin/showthread.php?goto=newpost&t=582141

MasterElwood
2018-09-08, 15:30:16
Ich bin ja davon überzeugt, das Nividia 2019 ein komplett neues Lineup in 7 nm bringt und dann vor allem mit 8K-Gaming, 16 GB DDR6 wirbt und das alles als "GTX"-Reihe.

Games mit Raytracing-Patch für RTX gibt es bis zu dem Zeitpunkt dann nur 4 oder 5 die nicht mehr weiter gepflegt werden, weil kaum einer es wirklich einsetzt.

Glaub noch NIE war einer SOOO am holzigen Holzweg :biggrin:

Tesseract
2018-09-08, 15:30:35
Die Hardware ist nicht identisch und die Instuktionen von compute-shader sind besser parallelisierbar.

hör bitte auf ständig so einen unsinn zu posten. GPUs haben mehrere command processors an die man befehle schicken kann, diese verteilen die arbeit auf die gemeinsamen cores. an welchen prozessortyp der task geht ist für die laufzeit auf den cores vollkommen egal und jeder prozessor kann natürlich alle cores normal auslasten wenn diese frei sind, der GCP kann einfach mehr als die anderen.

maximus_hertus
2018-09-08, 15:38:39
Die 3dfx mag "billig" gegen Profikarten ausgesehen haben, aber als Konsument war sie imo schon Luxusgut, unter Freunden damals war es nicht so dass die jeder hatte, ich hatte erst was mit GL als es alternative Chips gab und man nicht zwei Karten brauchte.

Nope, da muss ich dir klar widersprechen. 1997 kosteten die Voodoo 1 Karten rund 300-350 DM bzw. knapp 400 DM (Miro Hiscore, Monster 3D). Das war vieles, aber kein Luxusgut. Klar habe auch ich damals keine Voodoo 1 bei Release gekauft, da armer Schüler ;)

"Damals" kosteten Mainboard, Prozessor, Festplatten etc. zum teils dramatisch viel mehr als heute. Ordentliche Boards (ASUS P55T2P4 als Beispiel zum Voodoo 1 release) lagen bei rund 400 DM (also genau soviel wie die Voodoo 1), ein Mittelklasse Prozessor bei 500-600 DM. Die besten Gaming CPUs lagen schnell bei 1500 DM+, heute sind es 300-350 Euro. Dadurch war natürlich nicht mehr viel Geld für eine (3D)Grafikkarte vorhanden.

Im Gegensatz zu heute musste man auch regelmäßig weitere / neue Festplatten kaufen, da der Speicherplatz alles andere als üppig war (zu Voodoo 1 Zeiten waren 1,6 - 2,5 GB HDDs üblich). Eine 4-6 GB HDD lag dann bei über 600 bis 1000 DM.


Um zurück zu Turing zu kommen: Wie ja auch schon einige andere geschrieben haben, ist Raytracing das wichtigste Ding für nV. Auf normalen Wege gibt es keine Riesensteigerungen mehr, selbst 4K ist kurz davor flüssig zu laufen (60 fps). Da wird es immer schwieriger zu wachsen, zumal die Software da kaum hinterherkommt (plus die Konsolenzyklen). Raytracing ist halt eine Supermöglichkeit für deutliches Wachstum. Selbst die 2080 Ti reicht nicht für 1080p, da kann man wesentlich leichter zukünftige Generationen bewerben bzw. verkaufen. Plus bessere Optik, die sogar relativ deutlich auffällt.

Der "größte" Faktor dürfte aber sein, dass *damals" viele potentielle Käufer noch Jugendliche waren (Schüler) und heute eine viel breitere Käuferschicht zur Verfügung steht.

GSXR-1000
2018-09-08, 15:40:08
Imo besteht das Problem darin, dass die Seiten sich gegenseitig unnötig "Fehler" vorwerfen, nur weil sie ne andere Sichtweise haben.

Die 3dfx mag "billig" gegen Profikarten ausgesehen haben, aber als Konsument war sie imo schon Luxusgut, unter Freunden damals war es nicht so dass die jeder hatte, ich hatte erst was mit GL als es alternative Chips gab und man nicht zwei Karten brauchte.

.

Das stimmt SO nicht. In relation zu anderer Computerhardware (Mainboards, Cpus und vor allem Speicher) waren die Karten nicht so besonders teuer (nicht mal die ersten Versionen, aka (Diamond Monster). Die waren seinerzeit BILLIGER als die ebenfalls sehr gehypten Matrox Milleniums. AFAIK war eine Kombination ET6000+3dfx immer noch billiger als die Matrox Karte.

heute ist es so, das Grakas eh schon die preisliche Speerspitze an Computerhardware bilden (in aller Regel gut doppelt so teuer wie CPUs vergleichbarer Klasse) und jetzt NOCHMAL draufgesattelt wird.

pixeljetstream
2018-09-08, 15:49:29
Okay war mein falscher Eindruck zur 3dfx dann definitiv dem Schüler dasein geschuldet wie maximus_hertus schrieb.

Timbaloo
2018-09-08, 15:54:25
heute ist es so, das Grakas eh schon die preisliche Speerspitze an Computerhardware bilden (in aller Regel gut doppelt so teuer wie CPUs vergleichbarer Klasse) und jetzt NOCHMAL draufgesattelt wird.
Ist das so? Wenn wir Die-Größe und so weiter mit einrechnen kommen Grafikkarten nicht sonderlich teuer vor. CPUs sind gegenüber High-End Grafikchips lächerlich klein, kommen ohne Board und Speicher daher, kosten aber trotzdem gut 300-400€ ...

Realistisch gesehen haben sich die Grafikkartenpreise eher an das Niveau der CPUs angeglichen.

GSXR-1000
2018-09-08, 16:07:10
Ist das so? Wenn wir Die-Größe und so weiter mit einrechnen kommen Grafikkarten nicht sonderlich teuer vor. CPUs sind gegenüber High-End Grafikchips lächerlich klein, kommen ohne Board und Speicher daher, kosten aber trotzdem gut 300-400€ ...

Realistisch gesehen haben sich die Grafikkartenpreise eher an das Niveau der CPUs angeglichen.

Also das ist kaese, sorry.
1. Scheinen die margen von nv schon in der vergangenheit marktunueblich hoch gewesen zu sein (das laesst sich aus den geschaeftszahlen ableiten).
2. Interessiert mich als kunde primaer der endpreis. Die diegroesse ist mir egal. Nebenbei duerften die produktionskosten bei amd auch momentan fuer die chips nicht deutlich geringer sein. Stichwort hbm. Trotzdem haben die preise eine ganz andere dimension. Da amd in diesem bereich aber auch keinen (operativen) deutlichen verlust macht, kann sich jeder leicht herleiten wie hoch der margenanteil am endkundenpreis bei NV ist.

Timbaloo
2018-09-08, 16:12:49
Also ignorierst du einfach das Argument und nennst es "Käse"...

Tolle Streitkultur hier...

maximus_hertus
2018-09-08, 16:37:27
Ist das so? Wenn wir Die-Größe und so weiter mit einrechnen kommen Grafikkarten nicht sonderlich teuer vor. CPUs sind gegenüber High-End Grafikchips lächerlich klein, kommen ohne Board und Speicher daher, kosten aber trotzdem gut 300-400€ ...

Realistisch gesehen haben sich die Grafikkartenpreise eher an das Niveau der CPUs angeglichen.

Ja und nein. Diegröße ist nicht alles. CPUs (bisher zumindest) waren immer die ersten bei einer neuen Fertigungstechnik, dazu haben diese einen deutlich höheren Takt (weil halt komplett andere Zielsetzung / Architektur).

Interessant wäre es, wenn man (genau) wissen würde, wie teuer die Produktion der jeweiligen Dies ist.

hasebaer
2018-09-08, 16:42:20
Oh bitte nicht noch eine Preisdiskussion... Angebot + Nachfrage = Preis. Deal with it *Punkt*

Armaq
2018-09-08, 17:29:47
Wo sind die Leaks? :D

Hübie
2018-09-08, 17:45:31
Oh bitte nicht noch eine Preisdiskussion... Angebot + Nachfrage = Preis. Deal with it *Punkt*

Nein. Erkläre uns doch mit deiner Logik Apple, NVIDIA oder Google Ads. Im Mittelalter stimmte das noch, aber spätestens mit Kelloggs und Coke ist das veraltet.
Wir brauchen doch gar nicht zu diskutieren, ob NVIDIA die Hardware günstiger machen könnte und dennoch profitabel wäre. Also ehrlich. Die Geschäftszahlen sind jedem frei zugänglich.

MadPenguin
2018-09-08, 18:37:04
Nein. Erkläre uns doch mit deiner Logik Apple, NVIDIA oder Google Ads. Im Mittelalter stimmte das noch, aber spätestens mit Kelloggs und Coke ist das veraltet.
Wir brauchen doch gar nicht zu diskutieren, ob NVIDIA die Hardware günstiger machen könnte und dennoch profitabel wäre. Also ehrlich. Die Geschäftszahlen sind jedem frei zugänglich.

Huh? Apple verkauft hochpreisige Produkte und solange iPhones etc. weggehen wie warme Semmeln, wird Apple 1000 Euro pro iPhone. verlangen (IphoneX). Jetzt wird es ein iPhone X Plus oder wie auch immer es heißen mag, was noch mehr kosten wird. Die Schmerzensgrenze wird ausgelotet. Macht Nvidia genauso und ist außerdem in der glücklichen Situation keine Konkurrenz zu haben. Müssen wir wirklich darüber diskutieren. Solange es genügend Käufer zu diesen Preisen gibt, wird sich nichts ändern. Sollte AMD mit einer 7nm GPU kommen mit Raytracing, die gleichschnell sein und die Hälfte kosten wird, werden die Preise schnell purzeln. So ist Marktwirtschaft. Können wir bitte damit aufhören hier?

robbitop
2018-09-08, 18:52:18
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Turing-Mittelklasse-Kein-Raytracing-1264695/

Ggf doch erstmal kein RT für die kommenden lowcost und midrange Karten?

Adam D.
2018-09-08, 18:58:40
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Turing-Mittelklasse-Kein-Raytracing-1264695/

Ggf doch erstmal kein RT für die kommenden lowcost und midrange Karten?
Das war sowas von klar... Die verschwenden doch nicht massiv Die-Fläche in der Mittelklasse für ein Feature, das selbst auf dem absoluten Top Dog nur so lala läuft.

robbitop
2018-09-08, 19:04:37
Stimmt schon irgendwie. Aber dann dauerts mit der Verbreitung von RT noch.

Bin gespannt ob die in 12nm oder 7nm kommen. Ohne RT/TC wären 12nm wohl auch ausreichend.

Timbaloo
2018-09-08, 19:05:20
"Massiv" wird das nicht sein, aber ich denke schon ausreichend viel um es in den Volumenmodellen nicht zu bringen. Wobei ich es bei einem 106 in 7nm schon erwarten würde.

Wird spannend sein wie NV sein Lineup komplettiert, ob in 12nm oder 7nm.

robbitop
2018-09-08, 19:09:17
Naja. TU104 ist trot 22% weniger SMs als GP102 und trotz nur 2/3 so breitem SI 17% größer. Auch wenn die SMs nicht vergleichbar sind, ist TU sicherlich grob 40-50% größer als er ohne rt/tc wäre.

=Floi=
2018-09-08, 19:31:46
heute ist es so, das Grakas eh schon die preisliche Speerspitze an Computerhardware bilden (in aller Regel gut doppelt so teuer wie CPUs vergleichbarer Klasse) und jetzt NOCHMAL draufgesattelt wird.

weil die GPU auch ein ganz anderer brummer ist.

https://en.wikipedia.org/wiki/Transistor_count :eek:

Das ist schon krank, was es bei GPUs so nebenbei zu kaufen gibt.


Die nutzbarkeit auch erheblich höher. GPU-Leistung kann ist theoretisch 1:1 in BQ/FPS umlegen.

basix
2018-09-08, 19:33:28
Naja. TU104 ist trot 22% weniger SMs als GP102 und trotz nur 2/3 so breitem SI 17% größer. Auch wenn die SMs nicht vergleichbar sind, ist TU sicherlich grob 40-50% größer als er ohne rt/tc wäre.

Nur schon wenn DLSS soviel bringt wie angedeutet, sind die 40% schon reingeholt. Wäre halt genial, wenn es überall funktionieren würde.

Wie ich schon mal sagte: Turing ist meiner Meinung nach nach GV100 ein zweiter Technologie-Pipecleaner. Nvidia kann sich das in der jetzigen Situation leisten. "Verändere dich nur aus einer Position der Stärke. So kannst du lenken, wie du dich veränderst. Ansonsten wirst du verändert". Die Gamer stehen gar nicht so im Fokus, sondern die Content-Creators aus der Filmindustrie. Zuerst kam GP100 / GV100 und haben den HPC Markt umgekrempelt / überrannt. Nun ist das nächste Geschäftsfeld dran. Dass man die entsprechenden Technologien nun im Gaming-Markt bringt, hat folgenden Mehrwert für Nvidia: Die entwickelte (teure) Technologie wird ebenfalls von ihrem Umsatzstärksten Geschäftsfeld getragen und nicht nur im HPC Bereich. Bei HPC konnte man das zuerst bringen, da der Preis eine kleinere Rolle spielt. Ausserdem hat Nvidia nun mit RT ein neues Zugpferd, damit man das neueste verkaufen kann. Mit 12/14nm Karten kann man flüssig 4k spielen (den jeweiligen 80er TI's). Mit 7nm hätten viele gar nicht so einen Aufrüstungsdruck, da das Zeug ja bereits flüssig läuft.

AffenJack
2018-09-08, 20:12:07
heute ist es so, das Grakas eh schon die preisliche Speerspitze an Computerhardware bilden (in aller Regel gut doppelt so teuer wie CPUs vergleichbarer Klasse) und jetzt NOCHMAL draufgesattelt wird.

Hmm, ich sehe z.B. Threadripper bei 1800€ und das könnte ich genauso als vergleichbare Klasse bezeichnen. Wobei die Produktionskosten bei Threadripper wohl noch deutlich geringer sind, als bei TU102. Nur heulen die Leute bei Mondpreisen für CPUs und Traummargen für den Hersteller nicht. Bei GPUs dagegen schon. Manche Dinge sind eben teuer und die Zeilgruppe klein. Ich greife bei solchen Preisen bestimmt auch nicht zu, aber dann kann ich einfach nicht kaufen und fertig.

MartinRiggs
2018-09-08, 20:22:23
Trollt nvidia jetzt schon oder merken die langsam gar nix mehr:confused:
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Turing-Preis-Pascal-1264699/

BlacKi
2018-09-08, 20:23:37
Nur schon wenn DLSS soviel bringt wie angedeutet, sind die 40% schon reingeholt. Wäre halt genial, wenn es überall funktionieren würde.
absolut. wenn aber dx12 vorrausetzung bleibt, wird das nichts, selbst wenn bf5 gefixt wird.
dennoch bleib ich gespannt was kommen wird.

denn bisher wissen wir nichts, nichtmal die RT on mit 60fps in fhd sind sicher das sie so kommen werden. es war eine demo einer momentaufnahme.

echt peinlich wenn hier leute schreiben RT kommt zu früh und wird eh nicht genutzt werden :rolleyes:

Trollt nvidia jetzt schon oder merken die langsam gar nix mehr:confused:
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Turing-Preis-Pascal-1264699/
naja über 100% performance zuwachs mit dlss in 4k. merkst du was? aber solange wir keine vergleiche haben bleibt das alles ungewiss. nv scheint zumindest überzeugt aufzutreten.

=Floi=
2018-09-08, 20:29:12
Die karte hat 6GPC und erheblich mehr polygondurchsatz. ich traue der karte in bestimmten szenarien das doch zu.
pascal kann gegen maxwell manchmal auch zulegen.

SKYNET
2018-09-08, 20:52:55
Trollt nvidia jetzt schon oder merken die langsam gar nix mehr:confused:
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Turing-Preis-Pascal-1264699/


fällt mir nur das zu ein: LÜGENPRESSE :ulol:

horn 12
2018-09-08, 20:55:34
NV hat sich meiner Meinung diesesmal komplett verzockt und muss schon die Midrange Karten "offiziell herunterschrauben"
und ob sich die Vorbesteller nicht in den Hintern beißen sei mal dahingestellt.

Digidi
2018-09-08, 21:05:26
Hmm, ich sehe z.B. Threadripper bei 1800€ und das könnte ich genauso als vergleichbare Klasse bezeichnen. Wobei die Produktionskosten bei Threadripper wohl noch deutlich geringer sind, als bei TU102. Nur heulen die Leute bei Mondpreisen für CPUs und Traummargen für den Hersteller nicht. Bei GPUs dagegen schon. Manche Dinge sind eben teuer und die Zeilgruppe klein. Ich greife bei solchen Preisen bestimmt auch nicht zu, aber dann kann ich einfach nicht kaufen und fertig.


Eine 32 Kern CPU ist für Profianwender. Du müsstest Threadripper dann eigentlich mit den Professionellen Karten Vergleichen und kostet das Topmodell 10.000 Dollar.

BigBangBacket
2018-09-08, 21:34:02
NV hat sich meiner Meinung diesesmal komplett verzockt und muss schon die Midrange Karten "offiziell herunterschrauben"
und ob sich die Vorbesteller nicht in den Hintern beißen sei mal dahingestellt.

:D dann noch schnell eine AMD kaufen

Linmoum
2018-09-08, 21:45:47
NV hat sich meiner Meinung diesesmal komplett verzockt und muss schon die Midrange Karten "offiziell herunterschrauben"
und ob sich die Vorbesteller nicht in den Hintern beißen sei mal dahingestellt.
RT war für TU106 und darunter sicher nie geplant, wenn man gerade mal die 1080p und 60fps bei der 2080Ti sieht.

Und ich bezweifle, dass die Leute sich Turing wegen RT holen. Das sind Enthusiasten, für die der Preis scheiß egal ist. Hauptsache was schnelleres als die jetzige Karte. Ist ja nicht so, dass Turing nur RT bietet und abseits davon langsamer ist.

AffenJack
2018-09-08, 21:49:08
Eine 32 Kern CPU ist für Profianwender. Du müsstest Threadripper dann eigentlich mit den Professionellen Karten Vergleichen und kostet das Topmodell 10.000 Dollar.

Epyc ist Probereich, Threadripper Enthusiast - Pro/Render, aber das ist eben eine willkürliche Einteilung. Bei CPUs zahle ich 1800€ für eine leichte Cut-Down CPU (Speicherinterface) mit größtenteils der gleichen Geschwindigkeit wie die Professionalvarianten. Im normalen Preisbereich (200-300€) kriege ich ~1/4 der Geschwindigkeit des Pro-Bereichs. Wieso ist denn die 32 Kerncpu nur was für Profis? Das ist pure Gewöhnung. Hätten wir 16 Kerne und mehr im normalen Preisbereich, dann würden das auch mehr Anwendungen nutzen. Ich will mir gar nicht erträumen, was bei Spielen möglich wäre, wenn man 32 Kerne voll ausnutzen würde. KI, Physik etc auf einem völlig anderen Level. Aber wir sind gewöhnt nur 1 kleinen Teil der Progeschwindigkeit zu kriegen und akzeptieren es.

Bei GPUs zahle ich jetzt 1300€ für eine sehr ähnliche Geschwindigkeit wie die Pro-Chips. Das ~1/4 der Geschwindigkeit werde ich ebenso im akzeptablen Preisbereich finden (2060). Ist kacke, ich hätte auch lieber mehr, aber ist auch nicht anders als bei CPUs.

Mal mehr Ontopic:
Bei den News zu Samsungs Prozessen wurde in den westlichen Medien ein interessanter Fakt vergessen (von reddit geklaut):

By the way, in the question and answer, in response to the question, "Mobile SoC, HPC, AI, automatic driving etc can be considered" in response to the question "What is this 7 nm Target Application?", "HPC also includes GPUs" Because there was a supplement, as a result of confirming that "that GPU is NVIDIA?", "We are doing foundry business, so we can not reveal the customer's name from our mouth (laugh)", A politically correct answer came back.

https://translate.google.com/translate?sl=jp&tl=en&u=https://pc.watch.impress.co.jp/docs/news/1141511.html

https://translate.google.com/translate?sl=jp&tl=en&u=https://news.mynavi.jp/article/20180905-689090/

Durch den Übersetzer schwer zu verstehen, aber könnte sein, dass Nvidia für 7nm Samsung EUV verwenden könnte. Da wäre es möglich, dass man nur EUV verwenden will und den DUV Prozess überspringt (Außer für den Teslachip). Da könnte die Wartezeit für 7nm bei Nv aber durchaus recht lang werden.

][immy
2018-09-08, 21:54:59
Das war sowas von klar... Die verschwenden doch nicht massiv Die-Fläche in der Mittelklasse für ein Feature, das selbst auf dem absoluten Top Dog nur so lala läuft.
man darf auch nicht vergessen, durch RT erhöht sich auch ja auch "klassische"-Rechenlast, da nun Dinge gerendert werden, die zuvor nicht im Bild waren. Dadurch erhöht sich die Anzahl der zusätzlichen Bildbereiche schon enorm. Macht daher auf kleineren Karten wohl um einiges weniger Sinn wenn man aktuell grad mal 1080p einigermaßen schafft. Wobei laut interview (gamestar war das glaub ich) scheinbar die 1080p noch von den älteren karten kamen (in BF V). Die Erhöhung der Auflösung war durchaus noch möglich ohne das es Probleme gab, aber 4k ist ziemlich unrealistisch.

PHuV
2018-09-08, 21:58:08
Nope, da muss ich dir klar widersprechen. 1997 kosteten die Voodoo 1 Karten rund 300-350 DM bzw. knapp 400 DM (Miro Hiscore, Monster 3D). Das war vieles, aber kein Luxusgut. Klar habe auch ich damals keine Voodoo 1 bei Release gekauft, da armer Schüler ;)
Ich hab sie damals beim Release August 1996 gekauft, und ich meine, ich hätte für die Diamond Monster 3D 549 € hingelegt. Es gab nur einen Laden in Berlin, der 2 Stück auf Lager hatte, und ich hatte die 1. . Leider habe ich vor einigen Wochen alle alten Rechnungen vor dem Umzug entsorgt. so daß ich den genauen Preis nicht mehr habe. Damals haben mich auch einige auf Arbeit für verrückt erklärt, für so einen hohen Preis nur eine Zusatzkarte (!) zur Grafikkarte zu kaufen. Wir erinnern uns, wir mußten die Grafikausgabe per VGA durchschleifen. Als sie dann Tomb Raider, Eurofighter 2000 und POD gesehen hatten, gingen die Kinnladen sowas von runter. :biggrin:

Kartenlehrling
2018-09-08, 22:04:52
Ich hab sie damals beim Release August 1996 gekauft, und ich meine, ich hätte für die Diamond Monster 3D 549 € hingelegt.
Es gab nur einen Laden in Berlin, der 2 Stück auf Lager hatte, und ich hatte die 1. .

Wirklich?
Hast du nicht verleicht sogar mit Bitcoins bezahlt? :tongue: