Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing (Pascal-Erbe) Q3/18, 12 nm, GDDR6


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 [31] 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48

Rancor
2018-08-27, 13:56:08
Das ist bisher nur eine Mutmaßung von Dir ohne das Du das belegen kannst. NV spricht von +47% in klassischen Szenarios. RTX und DLSS klingen sehr interessant.

NV hat überhaupt nirgendswo von klassichen Szenario gesprochen. Die haben nur ne Marketing-Folie rausgehauen mit absolut nichts sagenden Balken. Weder Settings noch sonst irgendetwas war/ist bekannt . Aber scheinbar reicht das, um die NV Jünger die Kreditkarte zücken zu lassen..

Wenn die Karten den normalen Preis tragen würden, würde sich niemand beschweren und einfach nur kaufen.
Hier, bei der RTX Generation, geht es nur um den hohen "Einsteigs"Preis.
Nö, alleine die Verschwendung für Chipfläche für potentiell nutzlose Features in dieser Generation ist schon Grund genug.
Und ich erinnere mich, das du dasselbe vor nicht allzu langer Zeit selber gesagt hast, ziemlich genau bis du dir die Karte selber gekauft hast. :)

Flüssiges RT in 4K wurde gezeigt.

Für Global Illumination. Kannst du gar nicht mit BF V oder den anderen Demos vergleichen.

arcanum
2018-08-27, 13:58:23
Das ist bisher nur eine Mutmaßung von Dir ohne das Du das belegen kannst. NV spricht von +47% in klassischen Szenarios. RTX und DLSS klingen sehr interessant.

Wenn die Karten den normalen Preis tragen würden, würde sich niemand beschweren und einfach nur kaufen.
Hier, bei der RTX Generation, geht es nur um den hohen "Einsteigs"Preis.

es geht eher darum, dass nvidia aufgrund des mining-booms ein hervorragendes geschäftsjahr hatte und diese messlatte jetzt halten muss um die investoren glücklich zu halten. das resultat werden stetig steigende preise sein, sofern sich genug abnehmer finden.
die preise haben jetzt schon jegliche relation zur wirklichkeit verloren und ich bin gespannt wie sich das ganze bis zur nächsten generation entwickeln wird.

Troyan
2018-08-27, 13:58:45
Das ist bisher nur eine Mutmaßung von Dir ohne das Du das belegen kannst. NV spricht von +47% in klassischen Szenarios. RTX und DLSS klingen sehr interessant.

Wenn die Karten den normalen Preis tragen würden, würde sich niemand beschweren und einfach nur kaufen.
Hier, bei der RTX Generation, geht es nur um den hohen "Einsteigs"Preis.

RTX2080TI wird sogar noch besser abschneiden, da man hier im selben Verhältnis die Einheiten beschneidet wir bei GTX1080TI.

Außerdem sind die 50% ja zum Anfang. Wer weiß, wieviel besser Turing wird, wenn die Entwickler die restlichen Features verwenden.

Rancor
2018-08-27, 14:00:24
es geht eher darum, dass nvidia aufgrund des mining-booms ein hervorragendes geschäftsjahr hatte und diese messlatte jetzt halten muss um die investoren glücklich zu halten. das resultat werden stetig steigende preise sein, sofern sich genug abnehmer finden.
die preise haben jetzt schon jegliche relation zur wirklichkeit verloren und ich bin gespannt wie sich das ganze bis zur nächsten generation entwickeln wird.

So wie es in Miamis Signatur steht ;D

unl34shed
2018-08-27, 14:02:03
NV hat überhaupt nirgendswo von klassichen Szenario gesprochen. Die haben nur ne Marketing-Folie rausgehauen mit absolut nichts sagenden Balken. Weder Settings noch sonst irgendetwas war/ist bekannt . Aber scheinbar reicht das, um die NV Jünger die Kreditkarte zücken zu lassen..

Naja immerhin weiß man, dass es 4K ist, was der 1080 auf Grund der Bandbreite nicht so schmeckt. Dazu noch einige HDR Titel, wo Pascal auch Probleme hat. Und einmal FP16, was man mit Turing erst richtig kann.

Real wird der Vorsprung eher geringer ausfallen.

Troyan
2018-08-27, 14:04:18
Stimmt, real ist es weniger, weil niemand in 4K spielt (außer wir reden über Raytracing, dann muss es 4K sein), niemand spielt mit HDR (außer wir vergleichen nVidia und AMD), niemand spielt Wolfenstein 2 (das stimmt eigentlich, Punkt)...

Man, einige trollen echt seit Tagen.

Rancor
2018-08-27, 14:04:28
Wenn die 2080, die Leistung der 1080Ti im klassichen Rendering erreicht, dann ist auch alles halbwegs in Ordnung. Dann bekommst du fürs gleiche Geld auch gleiche Performance + nen bischen Schmuck am Nachthemd ( Raytracing etc )

Aber ich glaube da noch nicht dran.

Stimmt, real ist es weniger, weil niemand in 4K spielt (außer wir reden über Raytracing, dann muss es 4K sein), niemand spielt mit HDR (außer wir vergleichen nVidia und AMD), niemand spielt Wolfenstein 2 (das stimmt eigentlich, Punkt)...

Man, einige trollen echt seit Tagen.

Raytracing in 4k wird in der Tat niemand spielen. Es sei denn er hat Bock auf 20FPS :D.
Wolfenstein spielt auch keiner, oder willste jetzt auch die RPM FP16 AMD Sau durchs Dorf treiben, weil es jetzt mal für NV passt? Wie wärs noch mit dem Async Compute Argument? Kann doch Turing jetzt auch ganz doll.
Achja noch ein bischen LL API dazu, fertig ist deine VEGA Turing Argumentation. Wen interessieren schon die restlichen 95% der Spiele, die all das nicht nutzen... :rolleyes:

=Floi=
2018-08-27, 14:12:54
Nein, weil es noch immer die sache mit dem vram gibt und das ist unentschuldbar.
Zu dem preis. --> nicht mal ansatzweise


Stell dir nen 580ps amg mit 20zoll stahlfelgen ohne klima, aber mit allrad und 48volt bordnetz vor.

Rancor
2018-08-27, 14:15:07
Nein, weil es noch immer die sache mit dem vram gibt und das ist unentschuldbar.
Zu dem preis. --> nicht mal ansatzweise


Stell dir nen 580ps amg mit 20zoll stahlfelgen ohne klima, aber mit allrad und 48volt bordnetz vor.

Stimmt, da habe ich garnicht dran gedacht, da bei mir bisher die 8GB der 1070 immer ausgereicht haben.

Aber ich verstehe schon die Argumentation.

Matrix316
2018-08-27, 14:15:10
G92 zu GT200: Von $300 auf $650: https://www.anandtech.com/show/2549

Da wurde der Preis auch mehr als verdoppelt.
Das kann man glaube ich nicht vergleichen. Die 9800GTX war im Vergleich zur 8800 GTX nichts grundlegend neues (und auch eher marginal schneller) und die 8800GTX hat neu glaube ich auch über 600 Euro gekostet.

HOT
2018-08-27, 14:17:05
Wolfenstein2 unterstzt AFAIK kein RPM oder hat keinen Content dafür :D. Nur FC5 tut das, und das ist DX11.
Wolfenstein2 ist das erste echte LL-Spiel, das auch dafür designt wurde und Drawcalls massiv einsetzt.

Troyan
2018-08-27, 14:24:13
Das kann man glaube ich nicht vergleichen. Die 9800GTX war im Vergleich zur 8800 GTX nichts grundlegend neues (und auch eher marginal schneller) und die 8800GTX hat neu glaube ich auch über 600 Euro gekostet.

Die GTX9800 war aber das schnellste zur damaligen Zeit und GT200 verwendete den selben Prozess - 65nm.

Man musste dort eben mal mehr als doppelte für 60% Mehrleistung bezahlen. Und im Vergleich zu damals bringt Turing viel mehr Goodies zum Markt als GT200.

nairune
2018-08-27, 14:31:33
Die 8800 GTX hatte eine UVP von 600€...

PHuV
2018-08-27, 14:31:40
Was habt nur alle mit dem VRAM? Selbst die PCHW hat doch aufgezeigt, daß fast alle Spiele bis auf CoD mit 8 GB dicke hinkommen, und meistens bei 5-6 GB rumdümpeln. Bei mir wars noch SW Battlefront in 4k, was sich 10,5 GB genehmigte, und das wars. Bis man das wirklich braucht, sind eh wieder 1-2 weitere Generationen von GPUs am Markt, und die werden dann vermutlich mehr VRAM haben.
Stimmt, real ist es weniger, weil niemand in 4K spielt (außer wir reden über Raytracing, dann muss es 4K sein), niemand spielt mit HDR (außer wir vergleichen nVidia und AMD), niemand spielt Wolfenstein 2 (das stimmt eigentlich, Punkt)...
Ich würde mal behaupten, in HDR spielen wirklich bisher nur wenige.

RoughNeck
2018-08-27, 14:33:32
Mehr VRAM schadet doch nie, vor allem wenn die Rohleistung stimmt.

Matrix316
2018-08-27, 14:42:01
Die GTX9800 war aber das schnellste zur damaligen Zeit und GT200 verwendete den selben Prozess - 65nm.

Man musste dort eben mal mehr als doppelte für 60% Mehrleistung bezahlen. Und im Vergleich zu damals bringt Turing viel mehr Goodies zum Markt als GT200.
Ist halt alles relativ. 60% mehr für 300 Euro sind halt was anderes als 50% mehr für 500 Euro. ;)

Und von 11 GB 1080TI auf 8GB 2080 abzusteigen wäre jetzt auch nicht so toll.

Die einzige Hoffnung die ich habe ist, dass noch eine 2080 Titan Pro für 1300 erscheint und die 2080TI dann im Preis auf "normalniveau" so 750 runter geht.

Problem ist halt, wenn man einmal High End hat, dann ist das Aufrüsten immer schwer. Besonders, wenn die neuen Karten immer teurer werden. Das war schon damals bei der 1080 dämlich (als ich die 980TI noch hatte). Zum Glück kam dann die 1080TI, die die Preise wieder etwas relativiert hatte - bis dann das Mining losging. :ugly:

Ich hoffe Nvidia dachte nicht: Hey, während des Mining Booms hat eine 1080TI auch über 1000$ gekostet. Da geht noch was...:frown:

RoughNeck
2018-08-27, 14:43:55
Wenn eine Titan kommt, dann wird die 1600 und mehr kosten, jede Wette.

MiamiNice
2018-08-27, 14:44:20
Nö, alleine die Verschwendung für Chipfläche für potentiell nutzlose Features in dieser Generation ist schon Grund genug.
Und ich erinnere mich, das du dasselbe vor nicht allzu langer Zeit selber gesagt hast, ziemlich genau bis du dir die Karte selber gekauft hast. :)


Du bist mir eine Nase. Aber ja, hatte ich direkt nach der Präsi geschrieben weil ich eigentlich sehr Rohleistung fixiert bin und nicht den Wert der anderen Features erkannt habe. Einen Tag später schreib ich allerdings ein ganz anderes Posting und wollte auf erste Tests warten.

Aber mir ist mittlerweile klar geworden das DLSS die kurzfristige Lösung für all unseremeine Probleme ist. Vom RT werden wir nicht viel zur Lebenszeit von Turing haben, interessiert mich aktuell auch nicht so sehr.

Knapp 50% mehr Power ohne DLSS und mit um 100% mehr Power.
Lederjacke hat es geschafft mich total zu dehypen am 20igsten!
Und trotzdem habe ich die 1300€ heut morgen mit Kusshand über den virtuellen Tresen gereicht.

Du musst das sicherlich nicht so sehen :wink:

Rancor
2018-08-27, 14:49:25
Du hast glaube ich immer noch nicht verstanden, das DLSS explizit unterstützt werden muss. Das bringt dir bei Destiny 2 zB. überhaupt nichts.

Daher kann hier überhaupt keine Rede von kurzfristiger Lösung sein.

Ausserdem hast du DLSS doch noch garnicht live geshen und weisst nicht wie die BQ im Vergleich zur nativen Auflösung aussieht. Echt verrückt, wie man sich so hypen lassen kann ohne überhaupt irgendetwas handfestes zu haben und dafür dann auch noch mehr als Tausi auf den Tisch zu legen und das dann auch noch geil zu finden. :freak:

Raff ich einfach nicht ;D

Edgecrusher86
2018-08-27, 14:51:08
@Topic:

Du hast das Ti vergessen, RTX 2080 wäre ein Grund zum schnellen Weglaufen bei 8GB. ;D


Wenn eine Titan kommt, dann wird die 1600 und mehr kosten, jede Wette.

Ja, eher $1699 MSRP mindestens - es muss ja eine Lücke zur Ti klaffen. :biggrin:

Dafür gibt es dann auch den Vollausbau, ein bissl mehr Takt (evtl. 14+ Gbps sofern sie Q1 2019 erscheint) und satte 12GB. 5-7% schneller wieder. Wird eh gekauft weil TITAN. :cool:

MiamiNice
2018-08-27, 14:51:59
Du hast glaube ich immer noch nicht verstanden das DLSS explizit unterstützt werden muss. Das bringt dir bei Destiny 2 zB. überhaupt nichts.

Doch das habe ich sehr wohl verstanden! Du bist es der imo ein wenig auf dem Schlauch steht bzw. ein wenig zu sehr im hier und jetzt ist und nicht interpolieren kann was DLSS auf dem Markt bringen kann und auch wird.

Natürlich imo :)

Grüße

€: Interessant fände ich zu wissen wie viel Aufwand es ist DLSS in schon verfügbare Games nachzurüsten. Interessant wäre in wie weit das mit VR genutzt werden kann bzw. ob man es noch mit der aktuellen Generation nutzen können wird.

N0Thing
2018-08-27, 14:54:02
Es gibt die einen die alles toll finden, dann gibt es die ich finde alles doof Fraktion und dann gibt es noch neutrale und die zwei fanboy seiten die anscheinend ein Großteil ihrer Zeit damit verbringen anderen ihre Meinung auf zu drücken.

wenn ich hier als interessierter in denn Thread komme und mich informieren will und 300 seiten lang das haar in der suppe gesucht wird denke ich mir doch nicht oh jetzt kaufe ich mal lieber amd sondern sage mir ne ne ich kaufe doch kein amd wenn deren Fraktion jeden Thread in ein Schlachtfeld verwandelt.


wie es in amd threads aus schaut weiß ich nicht aber es muss sich keiner wundern wenn nvidia all die Jahre über immer dominanter geworden ist.

in meinen Augen die denkbar schlechteste Werbung die man machen kann!

Ist in den AMD-Threads genau so, da findet man auch immer LMAO, ;D und KO. Wenn es allein danach gehen würde, müssten die Verkaufszahlen bei 50:50 liegen.

Die GTX9800 war aber das schnellste zur damaligen Zeit und GT200 verwendete den selben Prozess - 65nm.

Man musste dort eben mal mehr als doppelte für 60% Mehrleistung bezahlen. Und im Vergleich zu damals bringt Turing viel mehr Goodies zum Markt als GT200.

G92 war ein Shrink des $600-800$ teuren G80 und damals gab es auch noch die üblichen Preisnachlässe zum Ende einer Generation. Beides gab es nicht im Falle von Pascal, der Vergleich hinkt also zumindest.

Troyan
2018-08-27, 14:56:31
Naja, Wirtschaftskrise und AMDs Preispolitik. Es war trotzdem ein Schock plötzlich wieder $650 zahlen zu müssen für eine Mehrleistung, die schon sehr mittelmäßig war.

Rancor
2018-08-27, 14:58:42
Doch das habe ich sehr wohl verstanden! Du bist es der imo ein wenig auf dem Schlauch steht bzw. ein wenig zu sehr im hier und jetzt ist und nicht interpolieren kann was DLSS auf dem Markt bringen kann und auch wird.

Wenn überhaupt extrapolieren.... Du kannst dir ja mal die krassen Blockbuster anschauen, die bisher DLSS unterstützen werden in Zukunft. ;D

https://www.computerbase.de/2018-08/nvidia-rtx-plattform-21-spiele-raytracing-dlss

Ich sehe da kein Anthem oder Division 2 zB.

Dafür bräuchte man die Power, aber doch nicht für PUBG ,Final Fantasy XV oder We Happy Few.

MiamiNice
2018-08-27, 15:08:45
Ich stehe schon sehr auf Bildqualität. Ich habe die 1300 bezahlt mit dem Wissen das NV mehr als nur Marktführer ist und ich der Meinung bin das bald so ziemlich alle Games DLSS unterstützen werden. Dem wird sich imo kein Studio entziehen können am PC.

Und mir geht innerlich schon einer ab wenn ich z.b. an Destiny 2 in 8K und 100FPS denke :)

Ich freue mich schon derb auf mein Stück Zukunft in meinem PC.
Machst Du mir nicht madig ;)

HOT
2018-08-27, 15:15:04
Wenn überhaupt extrapolieren.... Du kannst dir ja mal die krassen Blockbuster anschauen, die bisher DLSS unterstützen werden in Zukunft. ;D

https://www.computerbase.de/2018-08/nvidia-rtx-plattform-21-spiele-raytracing-dlss

Ich sehe da kein Anthem oder Division 2 zB.

Dafür bräuchte man die Power, aber doch nicht für PUBG ,Final Fantasy XV oder We Happy Few.

Ubi und Bethesda sind ja grad auf AMD-Pfad. Und EA ist da nicht unbedingt homogen, will heißen, Dice macht das zwar, aber das muss dann für Bioware überhaupt nicht gelten, trotz gleicher Engine.

cR@b
2018-08-27, 15:17:58
Du bist mir eine Nase. Aber ja, hatte ich direkt nach der Präsi geschrieben weil ich eigentlich sehr Rohleistung fixiert bin und nicht den Wert der anderen Features erkannt habe. Einen Tag später schreib ich allerdings ein ganz anderes Posting und wollte auf erste Tests warten.

Aber mir ist mittlerweile klar geworden das DLSS die kurzfristige Lösung für all unseremeine Probleme ist. Vom RT werden wir nicht viel zur Lebenszeit von Turing haben, interessiert mich aktuell auch nicht so sehr.

Knapp 50% mehr Power ohne DLSS und mit um 100% mehr Power.
Lederjacke hat es geschafft mich total zu dehypen am 20igsten!
Und trotzdem habe ich die 1300€ heut morgen mit Kusshand über den virtuellen Tresen gereicht.

Du musst das sicherlich nicht so sehen :wink:

Ist so geil wie die Meisten, die sich bisher über den Preis ausgelassen haben, dann doch wieder einknicken und nV das Tor zur freien Preisgestaltung nach oben öffnen. :ugly: Am Schluss gewinnt nV so oder so... wieder... :rolleyes:

Am Schluss werde ich wohl auch zugreifen und den Scheiß mitreiten :up: Bei der Titan (P und V) konnte ich mich wenigstens einmal zusammen reißen. Scheiß Konsum...

yamo
2018-08-27, 15:24:23
hier stand mist

Rancor
2018-08-27, 15:31:01
Ich stehe schon sehr auf Bildqualität. Ich habe die 1300 bezahlt mit dem Wissen das NV mehr als nur Marktführer ist und ich der Meinung bin das bald so ziemlich alle Games DLSS unterstützen werden. Dem wird sich imo kein Studio entziehen können am PC.

Und mir geht innerlich schon einer ab wenn ich z.b. an Destiny 2 in 8K und 100FPS denke :)

Ich freue mich schon derb auf mein Stück Zukunft in meinem PC.
Machst Du mir nicht madig ;)

Du bist ein Träumer :)

MiamiNice
2018-08-27, 15:38:19
Du bist ein Träumer :)

Ja, das bin ich und nicht nur im IT Bereich. Ist eine sehr schöne Eigenschaft an einem Menschen und ich glaube ich könnte mich auch nicht mit einem Menschen paaren bzw. ernsthaft eine Beziehung führen wenn das auf der Gegenseite nicht auch so gegeben wäre/ist.

Aber das ist hier OT und privat ;)

Aber abgesehen davon bin ich mir sicher das NV das Feature breit durchdrücken wird. Und das halte ich auch für gut so ;)

monstar-x
2018-08-27, 15:41:30
Stimmt, real ist es weniger, weil niemand in 4K spielt (außer wir reden über Raytracing, dann muss es 4K sein), niemand spielt mit HDR (außer wir vergleichen nVidia und AMD), niemand spielt Wolfenstein 2 (das stimmt eigentlich, Punkt)...

Man, einige trollen echt seit Tagen.

Nein, der einzige der trollt, bzw. es nicht versteht bist du.
Es liegen keinerlei Daten vor, unter welchen Umständen die Benchmark stattfanden. Aber ja, schon klar immer sind es die anderen, nie man selbst.

Du leidest unter den Dunning-Kruger-Effekt.

Troyan
2018-08-27, 15:46:34
Nein, der einzige der trollt, bzw. es nicht versteht bist du.
Es liegen keinerlei Daten vor, unter welchen Umständen die Benchmark stattfanden. Aber ja, schon klar immer sind es die anderen, nie man selbst.

So, die Benchmarks haben unterschiedliche Einstellung je Karte? :eek:
Es ist vollkommen belanglos, da nVidia nicht mit der Konkurrenz vergleicht.

Jap - habe dich genau mit diesen zwei Sätzen geownt. ;D

PHuV
2018-08-27, 15:47:03
Mehr VRAM schadet doch nie, vor allem wenn die Rohleistung stimmt.
Es ist anders als das normale RAM. ;) Wie gesagt, wenn es in 99% der Spiele kaum ausgereizt wird, ist das sehr wohl unnötig, weil das klar produktionstechnisch und kostenmäßig aufwendiger und teurer ist. Nur das wir uns nicht falsch verstehen, klar hätte ich auch gerne mehr VRAM, wenn ich es brauchen würde. In meiner Titan X stecken ja 12 GB drin, aber wie gesagt, das habe ich bisher kaum ausgereizt, bis auf CoD AW2 und SW Battlefront in 4k. Alle anderen Spiele dümpeln bei mir maximal bei 6-7 GB rum.

BigKid
2018-08-27, 15:53:18
So, die Benchmarks haben unterschiedliche Einstellung je Karte? :eek:
Es ist vollkommen belanglos, da nVidia nicht mit der Konkurrenz vergleicht.

Jap - habe dich genau mit diesen zwei Sätzen geownt. ;D
Wenn der Vergleich dazu dienen soll die Leistungssteigerung einer neuen Graka-Generation (Vergleich alt gegen neu) oder auch nur eines einzelnen Features (innerhalb einer Gen) zu berurteilen sind die Einstellungen ziemlich relevant...

Timbaloo
2018-08-27, 15:54:14
Für Global Illumination. Kannst du gar nicht mit BF V oder den anderen Demos vergleichen.
Was heisst vergleichen? Es ist nutzbar in dem Sinne, dass es spielbar in 4K ist und Global Illumination durch RT sinnvoll darstellt. Also das was du in diesem Quote ausschliesst.

"In Spielen mit Raytracing, ( du willst ja auch was haben von der neuen Technink ) musst du die Auflösung verringern ( alleine das ist schon ) , damit du überhaupt noch spielbare FPS bekommst"

Troyan
2018-08-27, 15:57:24
Wenn der Vergleich dazu dienen soll die Leistungssteigerung einer neuen Graka-Generation (Vergleich alt gegen neu) oder auch nur eines einzelnen Features (innerhalb einer Gen) zu berurteilen sind die Einstellungen ziemlich relevant...

Hier wird impliziert, dass die Einstellungen pro Karte unterschiedlich wären und man so die "Werte" nicht glauben dürfte.

Klingt ziemlich abstrus. Solange die Einstellungen identisch sind, ist es fair. Und da nVidia nicht mit der Konkurrenz vergleicht, ist es auch belanglos.

Die einzigen, die ein Fass aufmachen, sind die, die nicht wollen, dass Turing dem Marketing entsprechen sollte. Eigentlich ziemlich irrsinnig, aber manche denken eben so.

Rancor
2018-08-27, 16:00:12
Was heisst vergleichen? Es ist nutzbar in dem Sinne, dass es spielbar in 4K ist und Global Illumination durch RT sinnvoll darstellt. Also das was du in diesem Quote ausschliesst.

"In Spielen mit Raytracing, ( du willst ja auch was haben von der neuen Technink ) musst du die Auflösung verringern ( alleine das ist schon ) , damit du überhaupt noch spielbare FPS bekommst"

Dann muss ich das eben einschränken. Raytracing für Echtzeitreflexionen und realistische Schatten Darstellung.

MiamiNice
2018-08-27, 16:01:30
Das Problem ist doch nur der Preis. Die meisten wollen nicht derart viel für so eine kleine Platine ausgeben (was ich verstehen kann) und haben nun derart viel Schaum vor dem Mund das der durch die Nase ins Gehirn wandert dort eine temporale Anomalie erzeugt. Daraus resultieren dann die Posts hier. ;D

Vielleicht mal bis zum 13. dicht machen?

Grüße

=Floi=
2018-08-27, 16:06:04
G92 war ein Shrink des $600-800$ teuren G80 und damals gab es auch noch die üblichen Preisnachlässe zum Ende einer Generation.


G92 war kein shrink! Beim G80 lagerte man teile in einen zusatzchip aus und man hat dem G92 wegen dem 256bit bus auch weniger ROPs gegeben.

G92/b war der shrink des G92

BigKid
2018-08-27, 16:06:47
Ich bin immernoch nicht überzeugt das NVidia bei den angegeben Werten für die Performance Steigerung durch DLSS nicht auf DLSS mit einer Form von Upscaling zurückgreift. Auf der Suche nach Infos wieviel TAA eigentlich kostet (weil man ja kaum mehr sparen kann als das was man abschaltet/ersetzt) bin ich auf das hier gestossen:

https://www.computerbase.de/2018-06/jurassic-world-evolution-benchmark-test/

Nvidia GeForce GTX 1080:
Hochskaliertes TAA 141 %
Aus 107 %
TAA 100 %


Darüber hinaus gibt es noch die Option „Hochskaliertes TAA“. Nutzen sollten es Spieler allerdings nicht, denn es handelt sich nicht um ein weiter verbessertes Antialiasing. Stattdessen wird die Bildqualität reduziert. Offenbar nutzt dieser Modus Informationen von vorherigen Frames für das gesamte Bild, reduziert dabei jedoch die Auflösung.

TAA kostet also 7% ... Und TAA mit Upscaling bringt ~34%... Ich sehe da Ähnlichkeiten zu DLSS sowohl von den Auswirkungen als auch von der Erklärung was es tut...
Wobei ich durchaus glaube dass dieses AI Upscaling das Problem mit der Reduktion der Bildquali stark abmildern kann...

y33H@
2018-08-27, 16:09:09
Der gute alte NVIO :biggrin:

Troyan
2018-08-27, 16:20:20
Ich bin immernoch nicht überzeugt das NVidia bei den angegeben Werten für die Performance Steigerung durch DLSS nicht auf DLSS mit einer Form von Upscaling zurückgreift. Auf der Suche nach Infos wieviel TAA eigentlich kostet (weil man ja kaum mehr sparen kann als das was man abschaltet/ersetzt) bin ich auf das hier gestossen:

https://www.computerbase.de/2018-06/jurassic-world-evolution-benchmark-test/


TAA kostet also 7% ... Und TAA mit Upscaling bringt ~34%... Ich sehe da Ähnlichkeiten zu DLSS sowohl von den Auswirkungen als auch von der Erklärung was es tut...
Wobei ich durchaus glaube dass dieses AI Upscaling das Problem mit der Reduktion der Bildquali stark abmildern kann...

Natürlich verwendet DLSS eine Art "Upscaling". Wie sonst sollte es schneller sein? TensorCores und normale Einheiten können nicht parallel laufen. DLSS kostet also immer Zeit pro Frame.

Rancor
2018-08-27, 16:24:22
DLSS steht und fällt sowieso damit, ob es ausreichend Bildqualität im Vergelich zu nativen Auflösung bietet. Da darf man gespannt sein. Wenn es aussieht wie Gülle im Vergleich, nutzt es ehh keiner.

Wenn das klappt, dann kann man langsam anfangen euphorisch zu werden. Ich glaubs aber noch nicht

BigKid
2018-08-27, 16:24:25
Natürlich verwendet DLSS eine Art "Upscaling". Wie sonst sollte es schneller sein? TensorCores und normale Einheiten können nicht parallel laufen. DLSS kostet also immer Zeit pro Frame.
Natürlich ist da gar nix... Siehe Leonidas auf der Hauptseite...
Da wird noch nichtmal vermutet/spekuliert, dass da Upscaling im Spiel sein könnte...

Ich sehe da großes Potential speziell auch für das mobile Segment...
Das kann das Leben eines Gaming-Laptops gut nochmal 2 Jahre verlängern und/oder den WAF erhöhen... MAX-Q 2.0 ...

Aber falls es wirklich so ist gefällt mir eben nicht dass NVIDIA mit der Info (das die Werte mit Upscaling entstanden) hinterm Berg hält...

robbitop
2018-08-27, 16:30:39
Auch wenn der vram heute reicht: reicht er auch für den Lebenszyklus der Karte? Man kann GPUs gut 3 Jahre nutzen imo. Ggf wird es dann eng.
Ob man sich das gutreden muss?

Die 980ti hatte 2015 auch genug vram. Aber heute hat die Titan X M deutliche Vorteile. Selbiges mit der 780 und der Titan Classic.

2015 hatten Titan XM Käufer (uA ich) mehr VRam als 2080ti Käufer 3Jahre später...
Die Titan kam rund 1000€.

Ram ist teuer, die GPU ist riesig und der GPU Markt ist leider nur sehr asymetrisch.

monstar-x
2018-08-27, 16:32:17
Hier wird impliziert, dass die Einstellungen pro Karte unterschiedlich wären und man so die "Werte" nicht glauben dürfte.

Klingt ziemlich abstrus. Solange die Einstellungen identisch sind, ist es fair. Und da nVidia nicht mit der Konkurrenz vergleicht, ist es auch belanglos.

Die einzigen, die ein Fass aufmachen, sind die, die nicht wollen, dass Turing dem Marketing entsprechen sollte. Eigentlich ziemlich irrsinnig, aber manche denken eben so.

Wer sollte den nicht wollen das "Turing dem Marketing entsprechen", liest du deine Texte bevor du auf Antworten klickst.
Jeder der eine Grafikkarte gekauft hat, möchte das die neue Generation doppelt so schnell ist, wenn Turing so geil abgeht, dann geht die 7nm so richtig ab.

Nur, im Gegensatz zu dir, bleiben andere hier Realistisch und analysieren die fakten. Du wiederum glaubst einfach alles was Nvidia von sich gibt. Nvidia ist nicht der Samarita der für die Gamer nur das beste möchte, Nvidia hat NUR EIN ZIEL und das ist, so viel Geld zu verdienen wie möglich. Das geht nur mit Marketing.

Du kennst die Einstellungen nicht, weil du nicht dabei warst. FAKT!
Du weist nicht ob nvidia RayTracing + DLSS mit 1080p das auf 4K upscaled wird als (4K) ansieht.

.

basix
2018-08-27, 16:33:24
Ich sehe da großes Potential speziell auch für das mobile Segment...
Das kann das Leben eines Gaming-Laptops gut nochmal 2 Jahre verlängern und/oder den WAF erhöhen... MAX-Q 2.0 ...

Ach die nächsten Spiele werden so RT fordernd, dass DLSS ein Tropfen auf den heissen Stein sein wird ;D

Ne, Spass beiseite. DLSS sieht nach einem sehr interessanten Feature aus, da es in allen Dimensionen Verbesserungen bringen kann (Performance, Bildqualität, Speicherbedarf). Das ist noch zu beweisen, aber ein gewisses Potential dazu ist vorhanden.

TurricanM3
2018-08-27, 16:41:29
Weiß jetzt nicht ob das hier schon gepostet wurde (lese wegen der nervigen Preisdiskussion etc. kaum mit):

https://i.imgur.com/qRlgEjg.jpg

https://www.reddit.com/r/nvidia/comments/9ahymw/gtxrtx_price_performance_comparison_with/

Irgendwas um 50% zur Ti wären natürlich erste Sahne. :love2:

Ex3cut3r
2018-08-27, 16:44:17
Auch wenn der vram heute reicht: reicht er auch für den Lebenszyklus der Karte? Man kann GPUs gut 3 Jahre nutzen imo. Ggf wird es dann eng.
Ob man sich das gutreden muss?

Die 980ti hatte 2015 auch genug vram. Aber heute hat die Titan X M deutliche Vorteile. Selbiges mit der 780 und der Titan Classic.

2015 hatten Titan XM Käufer (uA ich) mehr VRam als 2080ti Käufer 3Jahre später...
Die Titan kam rund 1000€.

Ram ist teuer, die GPU ist riesig und der GPU Markt ist leider nur sehr asymetrisch.

Ja stimme ich dir zu, aber was soll man den sonst machen?

RX 2080 und 2070 haben nunmal "nur" 8GB. Die Ti kostet nochmal 400-500€ mehr. Ich denke das User die über 600€ für GPUs ausgeben, auch relativ schnell wieder neukaufen können, von daher sind die 8GB wohl für die nächsten 2 Jahre ausreichend, nach 2 Jahren haben diese Leute wohl eh wieder eine 7nm Geforce im Rechner mit mehr VRAM.

BigKid
2018-08-27, 16:47:51
Du kennst die Einstellungen nicht, weil du nicht dabei warst. FAKT!
Du weist nicht ob nvidia RayTracing + DLSS mit 1080p das auf 4K upscaled wird als (4K) ansieht.
Faktisch weisst du es momentan noch nicht sicher sobald DLSS im Spiel ist (auch OHNE Raytracing) und wenn ich 30%+ Performance Gain (zusätzlich) durch ein Feature zur Bildverbesserung sehe werde ich eben Hellhörig und das sollte IMHO jeder mal hinterfragen... Für mich gilt immer "von nix kommt nix" - also muss ich Fragen "Wo sollen diese 30% herkommen..."

Ich glaube DLSS ist (genau wegen des Upscalings) das Features das Raytracing überhaupt erst in den spielbaren Bereich hebt...
Und dann hat man sich in der Marketing Abteilung gefragt: Warum nicht auch bei "normalem" Rasterizing zur Balkenverlängerung oder für Sprüche wie 60fps@4k ?
Und dann irgendwann kommt dann "ups - wir haben vergessen was wie "4k output resolution" dazu zu schreiben... sorry..."

Und als Mantra "Ich bin NVIDIA Fan... Ich hatte bisher fast nur NVIDIA Karten nach 3DFX... Ich hab nix gegen DLSS... Ich hab nur was dagegen wenn man sowas verschweigt (falls es so sein sollte)..."

PHuV
2018-08-27, 17:19:11
Aber scheinbar reicht das, um die NV Jünger die Kreditkarte zücken zu lassen..
Warum mußt Du mit solchen derben Abwertungen die Diskussion wieder anheizen? Du bist dann auch wieder einer derjenigen, die rumjammern, weil sie härter angegangen werden. :rolleyes: Andere und ich sind keine Nvidia-Jünger, sondern nur interessiert an der neuen Technik. Mir ist da Latte, ob da AMD, Intel, Nvidia oder sonstwas steht. Wenns cool und interessant ist, dann ist es eben so. Warum machst Du und andere immer mehr daraus, als eigentlich ist? Wir können doch nichts dafür, daß Du Dir diese Karte nicht leisten kannst oder willst. :rolleyes:
Das Problem ist doch nur der Preis. Die meisten wollen nicht derart viel für so eine kleine Platine ausgeben (was ich verstehen kann) und haben nun derart viel Schaum vor dem Mund das der durch die Nase ins Gehirn wandert dort eine temporale Anomalie erzeugt. Daraus resultieren dann die Posts hier.
Ja, langsam erweckt sich auch der Eindruck, daß es ein 2.Account von MW ist, der sich nur darüber aufregt, sich diese Karte von H4 nicht leisten zu können.

monstar-x
2018-08-27, 17:38:49
Faktisch weisst du es momentan noch nicht sicher sobald DLSS im Spiel ist (auch OHNE Raytracing) und wenn ich 30%+ Performance Gain (zusätzlich) durch ein Feature zur Bildverbesserung sehe werde ich eben Hellhörig und das sollte IMHO jeder mal hinterfragen... Für mich gilt immer "von nix kommt nix" - also muss ich Fragen "Wo sollen diese 30% herkommen..."

Ich glaube DLSS ist (genau wegen des Upscalings) das Features das Raytracing überhaupt erst in den spielbaren Bereich hebt...
Und dann hat man sich in der Marketing Abteilung gefragt: Warum nicht auch bei "normalem" Rasterizing zur Balkenverlängerung oder für Sprüche wie 60fps@4k ?
Und dann irgendwann kommt dann "ups - wir haben vergessen was wie "4k output resolution" dazu zu schreiben... sorry..."

Und als Mantra "Ich bin NVIDIA Fan... Ich hatte bisher fast nur NVIDIA Karten nach 3DFX... Ich hab nix gegen DLSS... Ich hab nur was dagegen wenn man sowas verschweigt (falls es so sein sollte)..."


So ist es, wir wissen nichts.
Wir waren nicht dabei.
Nvidia will uns ihre Karten "Vor"Verkaufen, was ohne Benchmarks und unter Striker NDA total absurd ist, aber so lange es Kunden wie Troyan gibt, kann man es machen.

Wir müssen uns darauf verlassen was Nvidia sagt und das sollte man nicht Blind tun, erstmal Hinterfragen.

Bösewicht
2018-08-27, 17:55:14
Ist in den AMD-Threads genau so, da findet man auch immer LMAO, ;D und KO. Wenn es allein danach gehen würde, müssten die Verkaufszahlen bei 50:50 liegen.

und dabei sitzen eigentlich alle im gleichen boot hm typisch mensch, ohne krieg geht es nicht.

Rancor
2018-08-27, 18:04:25
@PHUV
Du bist kein NV Jünger, das ich nicht lache.....
Ohh man. :rolleyes:

Ich werde mir bei Performance Gleichstand zur 1080TI ziemlich sicher die 2080 kaufen, mit extremen Widerwillen. Die TI ist mir das Geld ums verrecken nicht Wert.

Trotzdem kann ich diejenigen kritisieren die ohne Tests und handfeste Informationen abzuwarten blindlings das Portemonnaie aufmachen und NVIDIA damit automatisch mitteilen das der Preis in Ordnung ist.
Das ist das Problem was ich habe und nichts anderes.

RoughNeck
2018-08-27, 18:08:02
Ist ja nicht dein Geld.
Sollte doch jeden mündigen Menschen selbst überlassen sein für was er sein Geld ausgibt.
Ist meine Meinung, ich akzeptiere aber auch deine Meinung.

Rancor
2018-08-27, 18:10:31
Ist ja nicht dein Geld.
Sollte doch jeden mündigen Menschen selbst überlassen sein für was er sein Geld ausgibt.
Ist meine Meinung, ich akzeptiere aber auch deine Meinung.

Grundsätzlich schon. Es geht mich aber in so fern etwas an, das ich durch diese Fanboys letztendlich auch mehr zahlen muss.
Sich einfach mal zurückhalten und dem Hersteller so mitteilen, das ne Grenze erreicht ist, scheint bei der Konsumgeilheit scheinbar nicht drin zu sein.

MiamiNice
2018-08-27, 18:13:21
Sich einfach mal zurückhalten und dem Hersteller so mitteileb, das ne Grenze erreicht ist, scheint bei der Konsumgeilheit scheinbar nicht drin zu sein

Die Grenze derer, die gekauft haben, scheint wohl nicht überschritten zu sein. Warum sollten sie dann nicht kaufen und damit ein Zeichen setzen? :wink:

Rancor
2018-08-27, 18:14:44
Die Grenze derer, die gekauft haben, scheint wohl nicht überschritten zu sein. Warum sollten sie dann nicht kaufen? :wink:

Weil Sie nicht anders können. Keine Ahnung warum du 1300€ für eine Grafikkarte ausgibst, über die du so gut wie nichts weisst.
Und wenn du 1300€ für einen beschnittenen Chip in Ordnung findest ist dir auch nicht zu helfen...

MiamiNice
2018-08-27, 18:15:48
Weil Sie nicht anders können. Keine Ahnung warum du 1300€ für eine Grafikkarte ausgibst, über die du so gut wie nichts weisst.

Weil ich es kann und anhand der Features entschieden habe das ich es sie will :confused:

Bösewicht
2018-08-27, 18:16:55
Trotzdem kann ich diejenigen kritisieren die ohne Tests und habdfeste Informationen abzuwarten blindlings das Portemonnaie aufmachen und NVIDIA damit automatisch mitteilen das der Preis in Ordnung ist.
Das ist das Problem was ich habe und nichts anderes
Was für ne Heulsuse.
Im Grunde genommen wissen wir schon das es 40-50% mehr Leistung gibt so unerwartet ist das jetzt nicht bei bis 40% mehr Bandbreite und 20% mehr Einheiten und denn üblichen 5-15% IPC
Außerdem fällt der Preis nach Release doch eh das weiß man doch, aber vielleicht stört der Schaum vorm Mund? :biggrin:

Es ist keine schande sich eine so teure Sachen nicht am laufenden band leisten zu können, kaum ein normaler mensch kann das, vor allem nicht wenn da auch noch eine frau mitredet und/oder kinder im spiel sind und das ganze in einen hübschen haus verpackt ist.

Nvidia darf damit Geld verdienen um die 10 Jahre Entwicklung wieder rein zu holen.
1-2 Jahre später hat AMD das dann mit viel weniger Investment inklusive und Ende.

Rancor
2018-08-27, 18:16:58
Weil ich es kann und anhand der Features entschieden habe das ich es will :confused:

Weil ich es kann, ist kein Grund. Ich „kann“ es auch. Ich sehs nur nicht ein. Das ist einfach eine psychologische grenze und keine monetäre.

Und ihr seid Schuld, das ich mittlerweile für ne Performance Klasse Karte 850€ latzen muss und das kotzt mich an :P

RoughNeck
2018-08-27, 18:16:58
Weil Sie nicht anders können. Keine Ahnung warum du 1300€ für eine Grafikkarte ausgibst, über die du so gut wie nichts weisst.

Ich gebe es zu, bei mir hat der Nerd gesiegt.
Ich freue mich auf die Karte, vor den Tests werde ich eh keine bekommen, so kann ich immer noch stornieren falls Nvidia es dieses mal vergeigen sollte.

TobiWahnKenobi
2018-08-27, 18:18:23
Weil Sie nicht anders können. Keine Ahnung warum du 1300€ für eine Grafikkarte ausgibst, über die du so gut wie nichts weisst.
Und wenn du 1300€ für einen beschnittenen Chip in Ordnung findest ist dir auch nicht zu helfen...

weil er vorsichtig ist und nicht gleich zwei karten plus ne 85€ bridge bestellen wollte. das würde aber auch gierig aussehen.. gierig auf was neues.. nerdzeugs und bastelspaß..


(..)

mfg
tobi

RoughNeck
2018-08-27, 18:20:35
Kostet die Brücke nicht alleine schon 500€?

MiamiNice
2018-08-27, 18:21:12
Weil ich es kann, ist kein Grund. Ich „kann“ es auch. Sunnvoll ist es nicht.

Sinnvoll oder nicht, mhh. Wie sinnvoll sind allgemein Gaming PCs? Wie sinnvoll ist VR? Ein Porsche? Oder muss ich Volvo fahren weil es sinnvoller ist? Küche für 30K?

Ich glaub Du weißt worauf ich hinaus will.

Edgecrusher86
2018-08-27, 18:22:28
Kostet die Brücke nicht alleine schon 500€?


599€ sind es für die Doppel NVL Quadro GV100 Bridges (max. 200 GB/s). ;)
85€ für die GeForce 20 series (max. 100 GB/s).

Rancor
2018-08-27, 18:23:50
Sinnvoll oder nicht, mhh. Wie sinnvoll sind allgemein Gaming PCs? Wie sinnvoll ist VR? Ein Porsche? Oder muss ich Volvo fahren weil es sinnvoller ist? Küche für 30K?

Ich glaub Du weißt worauf ich hinaus will.

Warum haste dir keien Titan V gekauft? Die zieht Kreise um eine 1080TI und du hättest die Perfomance schon viel eher haben können.
Sie wird vermutlich auch schneller wie eine 2080TI sein.

Zu Teuer? :D Merkste selber oder?

RoughNeck
2018-08-27, 18:25:26
@Edgecrusher86

Stimmt, da war ja was.
Gut, dann ist es ja halb so schlimm :biggrin:

Kriton
2018-08-27, 18:29:03
Hier wird impliziert, dass die Einstellungen pro Karte unterschiedlich wären und man so die "Werte" nicht glauben dürfte.

Klingt ziemlich abstrus. Solange die Einstellungen identisch sind, ist es fair. Und da nVidia nicht mit der Konkurrenz vergleicht, ist es auch belanglos.

Die einzigen, die ein Fass aufmachen, sind die, die nicht wollen, dass Turing dem Marketing entsprechen sollte. Eigentlich ziemlich irrsinnig, aber manche denken eben so.

Das ist bullshit, und das weißst Du auch. Es geht allein darum, dass das sehr gut cherry picking sein kann, weil man einen ggf. sehr speziellen Anwendungsfall nimmt, der Turing deutlich besser liegt als Pascal, ohne, dass dies repräsentativ sein muss. Deine "unterschiedlichen Einstellungen" sind nur mal wieder eine offensichtliche Nebelkerze Deinerseits.

PHuV
2018-08-27, 18:31:33
@PHUV
Du bist kein NV Jünger, das ich nicht lache.....
Ohh man. :rolleyes:
Bin ich nicht, genauso wie MS, Intel, AMD, Apple,... mir ist das vollkommen egal, was da für ein Logo draufsteht, wenn das Ding tut, was es soll. So habe ich ein MS Surface Pro 4 wie ein Apple Ipad Pro 12,9" (2017), ich hatte ein MS Lumia Handy, nun ein Samsung, weil die Apps fehlten, usw.
Wenn ich jemals mal ein Fan von etwas war: Amiga. :cool: Aber Du siehst ja, was so eine starke Bindung zu einer Marke bringt. Nix. Das war mir eine Lehre fürs weitere IT-Leben.

Trotzdem kann ich diejenigen kritisieren die ohne Tests und handfeste Informationen abzuwarten blindlings das Portemonnaie aufmachen und NVIDIA damit automatisch mitteilen das der Preis in Ordnung ist.
Das ist das Problem was ich habe und nichts anderes.
Nein, kannst Du nicht. Was geht es Dir an, was wir kaufen? Wie gesagt, wir nehmen niemanden etwas weg, noch leiden mehr Leute Hunger, noch mehr Kriege... such Dir was aus. Es geht um Hobby und Spielen. Und warum sollen Leute wie Du mir vorschreiben, was ich zu kaufe habe oder nicht? :confused:
Ist ja nicht dein Geld.
Sollte doch jeden mündigen Menschen selbst überlassen sein für was er sein Geld ausgibt.
Ist meine Meinung, ich akzeptiere aber auch deine Meinung.
Vollkommen richtig. Es tun alle so, als ob man sie zwingen würde, das zu kaufen. Nein, tut doch keiner.

MiamiNice
2018-08-27, 18:34:21
Merkste selber oder?

Reden wir noch über Karten für Spieler?
Lust auf paar Heros? ... gähn ^^

Rancor
2018-08-27, 18:34:54
Bin ich nicht, genauso wie MS, Intel, AMD, Apple,... mir ist das vollkommen egal, was da für ein Logo draufsteht, wenn das Ding tut, was es soll. So habe ich ein MS Surface Pro 4 wie ein Apple Ipad Pro 12,9" (2017), ich hatte ein MS Lumia Handy, nun ein Samsung, weil die Apps fehlten, usw.
Wenn ich jemals mal ein Fan von etwas war: Amiga. :cool: Aber Du siehst ja, was so eine starke Bindung zu einer Marke bringt. Nix. Das war mir eine Lehre fürs weitere IT-Leben.

Was war deine letzte AMD CPU und GPU? ;)

Nein, kannst Du nicht. Was geht es Dir an, was wir kaufen? Wie gesagt, wir nehmen niemanden etwas weg, noch leiden mehr Leute Hunger, noch mehr Kriege... such Dir was aus. Es geht um Hobby und Spielen. Und warum sollen Leute wie Du mir vorschreiben, was ich zu kaufe habe oder nicht? :confused:

Hatte ich schon gesagt. Ihr seid schuld das ich mittlerweile 850€ für ne Performance Karte ausgeben darf.

TobiWahnKenobi
2018-08-27, 18:35:06
Reden wir noch über Karten für Spieler?
Lust auf paar Heros? ... gähn ^^

die ist für spieler ziemlich gut :) für VR möchte ich nicht weniger haben.

AFAIR haben wir sogar grad eine hier im marktplatz :rolleyes:


(..)

mfg
tobi

Rancor
2018-08-27, 18:36:13
Reden wir noch über Karten für Spieler?
Lust auf paar Heros? ... gähn ^^
Ist eine TItan. Klar ist die für Spieler.
Bin unterwegs grad^^

monstar-x
2018-08-27, 18:39:12
Hier sollte man zu machen.

Informationsgehalt = Null.
Bashing, trolling = 100 %

PHuV
2018-08-27, 18:42:48
Was war deine letzte AMD CPU und GPU? ;)
AMD Athlon 64 X2 4400+ und eine Radeon R9 390 8GB Gigabyte G1 Gaming. :cool:

Hatte ich schon gesagt. Ihr seid schuld das ich mittlerweile 850€ für ne Performance Karte ausgeben darf.
Na klar. :rolleyes: Du bist schuld am CO2-Anstieg, daß die Mieten überall teurer werden... :rolleyes: Und Du bist selbst schuld, weil Du nix verdienst und Dir die Karten nicht leisten kannst. :P Hättzt halt was gescheites gelernt. ;)

Schuld sind die Konkurrenten, weil die seit Jahren nix gescheites neues abliefert.

Rancor
2018-08-27, 18:50:27
AMD Athlon 64 X2 4400+ und eine Radeon R9 390 8GB Gigabyte G1 Gaming. :cool:

Dafür das du so Technologie intressiert bist und Marken dich nicht kümmern, sind das ganz schön alte Komponenten :)


Na klar. :rolleyes: Du bist schuld am CO2-Anstieg, daß die Mieten überall teurer werden... :rolleyes: Und Du bist selbst schuld, weil Du nix verdienst und Dir die Karten nicht leisten kannst. :P Hättzt halt was gescheites gelernt. ;)
Schuld sind die Konkurrenten, weil die seit Jahren nix gescheites neues abliefert.
Joa ne ist klar,Tschekov. Bloß nichtmal das eigene Konsumverhalten hinterfragen. Könnte ja sein, das einem ein Licht aufgeht. ;)

Und dein Moneyflame ist ganz schwach, aber was will man ohne Argumente auch sonst tun... 😁

Schuld sind Kunden wie du.. klingt hart, ist aber so

Screemer
2018-08-27, 18:53:05
Könnt ihr es endlich mal gut sein lassen?

Rancor
2018-08-27, 18:54:52
Könnt ihr es endlich mal gut sein lassen?

Ich schreib nix mehr dazu.

Screemer
2018-08-27, 18:55:44
Danke

PHuV
2018-08-27, 19:29:14
Dafür das du so Technologie intressiert bist und Marken dich nicht kümmern, sind das ganz schön alte Komponenten :)
Du hat mich nach AMD gefragt. :wink: Aktuell ist alles Intel und Nvidia, 4 Rechner, und Spielerechner hat einen i7-8700k und die Titan X (Pascal), daher bin ich schon recht aktuell, keine Sorge.

Wer beim PreOrder Thread reinschaut, vielleicht gibts schon ab dem 15.09. erste Auslieferung der neuen Karten.

Armaq
2018-08-27, 19:38:37
Ich bin immernoch nicht überzeugt das NVidia bei den angegeben Werten für die Performance Steigerung durch DLSS nicht auf DLSS mit einer Form von Upscaling zurückgreift. Auf der Suche nach Infos wieviel TAA eigentlich kostet (weil man ja kaum mehr sparen kann als das was man abschaltet/ersetzt) bin ich auf das hier gestossen:

https://www.computerbase.de/2018-06/jurassic-world-evolution-benchmark-test/


TAA kostet also 7% ... Und TAA mit Upscaling bringt ~34%... Ich sehe da Ähnlichkeiten zu DLSS sowohl von den Auswirkungen als auch von der Erklärung was es tut...
Wobei ich durchaus glaube dass dieses AI Upscaling das Problem mit der Reduktion der Bildquali stark abmildern kann...
Danke für diesen Beitrag.

DLSS könnte also funktionieren, positiv betrachtet und uns eine Menge Performance pro angezeigtem Pixel bringen, einfach weil er 4k nativ nicht mehr braucht, sondern 4k upscaled sogar besser aussehen? Ich drück das mal deutlich positiv aus, um die Diskussion um den eigenen Status zu unterdrücken.

Das wäre ein toller Performance Boost den uns die Plattform nvidia dann brächte.

Troyan
2018-08-27, 19:40:18
Du kannst DLSS auch mit nativen 4K verwenden. Dann bietet es ala DLSS 2X eine Qualität, die einmalig sein wird.

Es ist also nicht nur einfach Upscaling, sondern auch bis zu 64xSSAA. :cool:

Platos
2018-08-27, 19:46:38
Geht DLSS auch mit DSR zusammen? Also 4K Monitor mit DSR auf 8K und dann eben DLSS für 8K quasi ? oder funktioniert das zusammen mit DSR nicht ?

Gibts da Infos dazu ?

Armaq
2018-08-27, 19:49:54
Du kannst DLSS auch mit nativen 4K verwenden. Dann bietet es ala DLSS 2X eine Qualität, die einmalig sein wird.

Es ist also nicht nur einfach Upscaling, sondern auch bis zu 64xSSAA. :cool:
Hust. Auch wenn ich gegen Angriffe aufgrund persl Kaufpräferenz bin, ist mir das zuviel Werbung direkt in den Rachen geschoben. ;)

DLSS muss sich unabhängig beweisen, Trickserei allein reicht nicht.

Timbaloo
2018-08-27, 20:41:25
Geht DLSS auch mit DSR zusammen? Also 4K Monitor mit DSR auf 8K und dann eben DLSS für 8K quasi ? oder funktioniert das zusammen mit DSR nicht ?

Gibts da Infos dazu ?
Da das jeweilige Spiel nichts von DSR mitbekommt sehe ich da kein Hindernis.

DLSS rein zum upscalen denke ich wird eh nicht so interessant, aber ein gutes und effizientes AA (also 1080p upscale via DLSS nach 4k dann dowscale auf 1080p) kann ich mir schon gut vorstellen. Da dürften dann evtl. störende Artefakte nicht mehr groß ins Gewicht fallen da sie durch das downscaling eh wieder (zumindest zum Teil) rausfliegen.

Platos
2018-08-27, 20:51:13
Naja, wenn 8K per DSR mit DLSS fast so gut aussieht wie 8K per DSR + Kantenglättung, dann wäre das schon sehr nützlich (für mich). Wenn ich dann viel mehr FPS habe.

TurricanM3
2018-08-27, 21:00:00
Bez. Spulengeräuschen hat man noch nichts irgendwo gehört?

PS: Meine TxP ist quasi instant weggegangen. Jetzt geht die Warterei auf Wasserkühler wieder los. :freak:

firefly83
2018-08-27, 21:05:33
Interessanter Artikel von der Seite der Content Creators über die Auswirkungen von rt cores auf offline renderer:

https://www.chaosgroup.com/blog/what-does-the-new-nvidia-rtx-hardware-mean-for-ray-tracing-gpu-rendering-v-ray

pixeljetstream
2018-08-27, 21:06:29
Die Quadro RTX 6000 ist bei mir in nem offenen Gehäuse, hab noch nix gehört. Ist aber auch Vorserienmodell. Kein Steam/kein Multiplayer zur Mittagspause seit Wochen und noch bis zum Release. Und das obwohl man nun mit Spiegel um die Ecke gucken kann ;)

Slipknot79
2018-08-27, 21:07:00
Bloß nichtmal das eigene Konsumverhalten hinterfragen. Könnte ja sein, das einem ein Licht aufgeht. ;)

Ob der Kauf einer 2080TI eine finanzielle Dummheit war, wird sich für den ein oder anderen Käufer noch erweisen, der ein oder andere wird sich sicher seine objektive Fehlentscheidung subjektiv schönreden. Immerhin haben sie die Teile gekauft ohne irgendwelche unabhängigen Benchmarks zu sehen. Der ein oder andere meinte, es würde sich aber "gerne mal RT anschauen und ausprobieren", ok, dazu reicht aber auch schon eine 2070 und streng genommen sieht man das Ergebnis in youtube Videos.

Worauf ich hinaus will:
Je emotionaller eine durchgeführte Kaufentscheidung, desto finanziell dümmer ist sie ausgefallen. Ob die gekauften Emotionen einem die finanzielle Dummheit wert sind, muss jeder für sich entscheiden. Es bringt aber nix sich über finanzielle Dummheiten anderer aufzuregen, sondern selbst daraus zu lernen und etwas daraus zu machen und die richtigen Konsequenzen daraus zu ziehen. Ich könnte dir meine Lebensgeschichte zu diesen Thema erzählen, wäre aber stark OT. :redface:

Daredevil
2018-08-27, 21:08:12
So ein Unsinn, die wenigsten geben mehr wie 500€ für eine Grafikkarte aus.
1200€ werden noch mal viel weniger bereit sein.


Stimme ich dir zu, das habe ich auch gar nicht behauptet. :D

Troyan
2018-08-27, 21:08:39
Die Quadro RTX 6000 ist bei mir in nem offenen Gehäuse, hab noch nix gehört. Ist aber auch Vorserienmodell. Kein Steam/kein Multiplayer zur Mittagspause seit Wochen und noch bis zum Release. Und das obwohl man nun mit Spiegel um die Ecke gucken kann ;)

Unterliegt die eigentlich noch dem NDA? :D

Ob der Kauf einer 2080TI eine finanzielle Dummheit war, wird sich für den ein oder anderen Käufer noch erweisen, der ein oder andere wird sich sicher seine objektive Fehlentscheidung subjektiv schönreden. Immerhin haben sie die Teile gekauft ohne irgendwelche unabhängigen Benchmarks zu sehen. Der ein oder andere meinte, es würde sich aber "gerne mal RT anschauen und ausprobieren", ok, dazu reicht aber auch schon eine 2070 und streng genommen sieht man das Ergebnis in youtube Videos.

Worauf ich hinaus will:
Je emotionaller eine durchgeführte Kaufentscheidung, desto finanziell dümmer ist sie ausgefallen. Ob die gekauften Emotionen einem die finanzielle Dummheit wert sind, muss jeder für sich entscheiden. Es bringt aber nix sich über finanzielle Dummheiten anderer aufzuregen, sondern selbst daraus zu lernen und etwas daraus zu machen und die richtigen Konsequenzen daraus zu ziehen. Ich könnte dir meine Lebensgeschichte zu diesen Thema erzählen, wäre aber stark OT. :redface:

Wir reden hier von Grafikkarten. Das sind Spaßkäufe. Wenn das schon wehtut, müssten ja einige hier nichtmal ein Auto besitzen...

pixeljetstream
2018-08-27, 21:22:23
Unterliegt die eigentlich noch dem NDA? :D
Der Release ist ja nach der GeForce... Irgendwer meinte die Gaming Turings seien Abfall von Proviz und deswegen Raytracing. Das stimmt nicht. Siggraph bot sich als Termin eher für Quadro an. Die Reihenfolge war durch die Events bestimmt. Proviz ist vom Umsatz viel kleiner als GeForce und hat auch einen sehr hohen Marktanteil, sprich weniger Konkurrenzdruck. Raytracing hw hätte Proviz schon lange gerne gehabt ;)

wolik
2018-08-27, 21:25:38
Ob der Kauf einer 2080TI eine finanzielle Dummheit war, wird sich für den ein oder anderen Käufer noch erweisen, der ein oder andere wird sich sicher seine objektive Fehlentscheidung subjektiv schönreden. Immerhin haben sie die Teile gekauft ohne irgendwelche unabhängigen Benchmarks zu sehen. Der ein oder andere meinte, es würde sich aber "gerne mal RT anschauen und ausprobieren", ok, dazu reicht aber auch schon eine 2070 und streng genommen sieht man das Ergebnis in youtube Videos.

Worauf ich hinaus will:
Je emotionaller eine durchgeführte Kaufentscheidung, desto finanziell dümmer ist sie ausgefallen. Ob die gekauften Emotionen einem die finanzielle Dummheit wert sind, muss jeder für sich entscheiden. Es bringt aber nix sich über finanzielle Dummheiten anderer aufzuregen, sondern selbst daraus zu lernen und etwas daraus zu machen und die richtigen Konsequenzen daraus zu ziehen. Ich könnte dir meine Lebensgeschichte zu diesen Thema erzählen, wäre aber stark OT. :redface:
Was hindert die Leute nach Fernabsatzgesetz Rückgabe zu tätigen ? seine objektive Fehlentscheidung subjektiv schönreden... Gehts noch ? Es ist keine Anwesend auf Mali... Puplige 1250 Mücken.

Was ich nicht verstehe... wieso wirbt NV nicht mit Möglichkeit Filme mit Denoising in bessere Qualität zu sehen? Es ist doch 100 mal einfach die Filme hochskalieren als die Spiele

Matrix316
2018-08-27, 21:29:43
Ich glaube ja, wenn das Ding nicht 2080TI sondern Titan R oder so heißen würde, viel weniger Leute bereit wären so viel dafür zu bezahlen. Das macht Nvidia schon geschickt.

basix
2018-08-27, 21:30:15
Da das jeweilige Spiel nichts von DSR mitbekommt sehe ich da kein Hindernis.

DLSS rein zum upscalen denke ich wird eh nicht so interessant, aber ein gutes und effizientes AA (also 1080p upscale via DLSS nach 4k dann dowscale auf 1080p) kann ich mir schon gut vorstellen. Da dürften dann evtl. störende Artefakte nicht mehr groß ins Gewicht fallen da sie durch das downscaling eh wieder (zumindest zum Teil) rausfliegen.

Troyan bringt da wieder Sachen durcheinander. Mit DLSS wird die Ground Truth mit mindestens 64x Pixel berechnet und entspricht somit 8x SSAA (siehe https://developer.nvidia.com/rtx/ngx). Wenn ein Dev oder Nvidia mehr will sogar noch mehr. 8x SSAA würde "intern" einer Skalierung von 1080p auf 16k entsprechen. Dass das als Output wohl eher unrealistisch oder verwaschen ist, sollte wohl jedem klar sein. Wenn es aber wirklich gut funktionieren sollte, wäre es nicht mal so unrealistisch, dass man z.B. Content von 1080p auf 4k upscalen kann und gleichzeitig geglättete Kanten und weniger Flimmern erreicht. Das entspricht nämlich 4k + 4x SSAA ausgehend von 16k und das wiederum ausgehend von 1080p Basismaterial. Und DAS wäre ein riesiger Nutzen. Auch wenn man "nur" von 1440p auf 4k kommt ist es doch ein enormer Vorteil.

Da hören sich 1080p / 60fps @ RT dann schon wesentlich schicker an ;)

Aber nun denn: Wir wissen nichts. Also auf Reviews warten.

Troyan
2018-08-27, 21:35:27
Nein, (sogar) mindesten 64 Samples per Pixel. 8xSSAA hat nur 8 Samples per Pixel.

Monsta
2018-08-27, 21:38:45
DLSS klingt wirklich sehr interessant.

Aber die Spieleauswahl ist ja mehr als mau.

https://www.computerbase.de/2018-08/nvidia-rtx-plattform-21-spiele-raytracing-dlss/

Von daher am Anfang voll fürn Arsch.

basix
2018-08-27, 21:38:56
Nein, (sogar) mindesten 64 Samples per Pixel. 8xSSAA hat nur 8 Samples per Pixel.

Hast recht, bin darauf reingefallen. 1080p auf 16k stimmt aber trotzdem noch, 8x Pixel pro Seite.
http://hardware-zone.de/grundlagen-grafik.html

Macht ja auch von der Überlegung her mehr Sinn. Irgendwie ergeben sich z.B. für 2x SSAA aber sehr krumme Teiler.

PHuV
2018-08-27, 23:41:11
Aber die Spieleauswahl ist ja mehr als mau.

Von daher am Anfang voll fürn Arsch.
Mal ehrlich, wann gabs ein Release einer neuen GPU, wo so viele Spiele gleich sichtbar von einem neuen Feature unterstützt wurden? Bei manchen Neuerungen hat man doch teilweise mehrere Montage bis Jahre warten müssen.

anorakker
2018-08-27, 23:48:18
Normal bekam man nach dieser langen Entwicklungszeit jede Menge mehr Performance für den gleichen Preis + ein paar zunächst unnütze Features. Jetzt soll man aber einen unverschämten Aufpreis für ein unnützes Feature bezahlen.

PHuV
2018-08-27, 23:54:00
Du brauchst das doch nicht zu kaufen? :confused:

Matrix316
2018-08-27, 23:55:59
Normal bekam man nach dieser langen Entwicklungszeit jede Menge mehr Performance für den gleichen Preis + ein paar zunächst unnütze Features. Jetzt soll man aber einen unverschämten Aufpreis für ein unnützes Feature bezahlen.
Genau das ist das Problem.

1. Wie soll das weiter gehen? Kostet die 3080TI dann 1900 Euro? Die 4080TI dann 2480TI Euro? Sind wir bei Sony Kameras? :freak: Mehr Leistung auf die letzte Generation DARF am PC nicht mehr kosten. Sonst macht irgendwer was falsch oder irgendwer zockt hier mächtig ab.

2. Wenn die das ganze gerade mal bei Full HD so halbwegs flüssig zum Laufen kriegen, hätte man noch mind. 1-2 Generationen warten MÜSSEN. Im Wohnzimmer stehen immer mehr 4K Bildschirme und 8K steht schon in den Startlöchern. Die Konsolen werden langsam alle auf 4K optimiert. Die 4K PC Monitore werden auch immer billiger. Bei 250 Euro sind wir schon: https://geizhals.de/samsung-u28e590d-lu28e590dsen-a1258112.html?hloc=de !!!

Jetzt eine Grafikkarte zu bringen die in bester Qualität nur auf Full HD anständig läuft ist wie Perlen vor die Säue werfen. Das ist wie wenn man mit Triple 1080TI SLI und i9 9900K nur Counterstrike in 1280x720 spielen will. ;)

Was man hätte eigentlich machen sollen: Preise genauso wie die letzte Generation: 2070 400 Euro, 2080 550 und 2080TI 750 Euro, ohne Raytracing, aber mit so viel Performance, dass man auch auf der 2070 schon Witcher 3 in 4K mit allen Details und 60 FPS spielen kann.

Und DANN kann man irgendwann mit RTX kommen.

Jupiter
2018-08-28, 00:04:18
Warum? Dank TAA bevorzuge ich Grafik deutlich vor Auflösung. Außerdem hätte eine GTX 1080 Ti beim Erscheinen der GTX 1080 weit mehr gekostet.

PrinceGSC
2018-08-28, 00:11:53
Also die Preise sind wirklich schon deftig und nicht ok, ich denke da sind sich alle einig aber sind wir mal ehrlich für die Software Industrie sowie Hardware Industrie kann es keiner besseren Probanden geben wie uns.
Alle können Erfahrungen mit RT sammeln und somit bringen es alle zusammen voran. Nur das wir als Tester auch nich soviel zahlen müssen ist heftig.
Es als Feature zu deklarieren und damit zu werben ok aber die Preise hätten bis Max 850€ gehen dürfen, die reine 4K Leistung scheint(keiner weiß es wirklich) Ja ok zu sein.
Raytracing an sich ist ja ansonsten nen wirklich interessantes Feature und kommt anscheinend viel früher als erwartet, von daher steht für mich fest dass man nicht mit viel rechnen sollte.

Das ist meine Meinung.

PHuV
2018-08-28, 00:12:20
Was man hätte eigentlich machen sollen: Preise genauso wie die letzte Generation: 2070 400 Euro, 2080 550 und 2080TI 750 Euro, ohne Raytracing, aber mit so viel Performance, dass man auch auf der 2070 schon Witcher 3 in 4K mit allen Details und 60 FPS spielen kann.

Und DANN kann man irgendwann mit RTX kommen.
Aber wann? Dann kommt erst mal HDR, und wenn HDR durch ist, sind wir schon bei 8K. Und dann kommt natürlich auch die Elite, die unbedingt 144 Hz und mehr brauchen? Also, wann soll dann irgendeine Firma ein neues Feature implementieren, so daß die Gamergemeinde nicht aufschreit? :confused: Rein markttechnisch muß Nivida das machen, wo aktuell keine Konkurrenz droht, und sie einen Flop riskieren können. Dazu ist jetzt aktuell der beste Zeitpunkt. Und Witcher 3 ist doch auf 4k spielbar, wenn man Abstriche macht, oder die Auflösung reduziert. Also selbst mit 40" sehe ich bei W3 mit 4k nur unwesentliche Unterschiede zu FullHD, und es bringt spielerisch überhaupt keine Nachteile. Noch markanter bei Shootern, wo 4k sowieso rein spieltechnisch keinen Vorteil bringt, da eh alles schnell in Bewegung ist. Rein optisch bringt aber RT einen gewaltigen Unterschied und macht für mich auch spielerisch mehr her, wenn man Spiegelungen und Reflexionen sehen kann. Mit DLSS halte ich mich erst mal raus, daß muß ich erst mal live bei mir sehen.

Spielerisch ist eine 1080 (TI) nach wie vor was feines und in vielen Spielen noch lange ausreichend. Schau Dir doch mal das aktuelle Steam Survey (https://store.steampowered.com/hwsurvey/videocard/) an. Über 45% mit folgenden Karten 1060, 1050, 760, 960! :eek: Der Markt könnte noch lange mit Pascal >1070er und höher versorgt werden, und da hätten die meisten immer eine deutliche Steigerung. Der Marktanteil einer 1070 bei 2,58%, bei einer 1080 1,51%. Das ist nix. Und da regen sich alle hier über die Preise auf? :rolleyes:

Troyan
2018-08-28, 00:14:33
Du brauchst das doch nicht zu kaufen? :confused:

Manche stehen eben nicht auf bessere Grafik.

Die Absurdität ist ja, würde man heute schon Spiele mit Next-Gen Effekten veröffentlichen, würden wir überhaupt nicht über 4K reden. Unsere heutige Grafik ist technisch so veraltet, dass es kein Hexenwerk ist, dass man hohe Auflösungen und Frames hat. Der nächste Schritt kostet eben.

N0Thing
2018-08-28, 00:22:59
Du kannst DLSS auch mit nativen 4K verwenden. Dann bietet es ala DLSS 2X eine Qualität, die einmalig sein wird.

Es ist also nicht nur einfach Upscaling, sondern auch bis zu 64xSSAA. :cool:

Mit 64xSSAA wird der Algorithmus trainiert. Wie das Ergebnis in den Spielen aussehen wird, muss man erst einmal abwarten.

PHuV
2018-08-28, 00:25:04
Manche stehen eben nicht auf bessere Grafik.

Die Absurdität ist ja, würde man heute schon Spiele mit Next-Gen Effekten veröffentlichen, würden wir überhaupt nicht über 4K reden. Unsere heutige Grafik ist technisch so veraltet, dass es kein Hexenwerk ist, dass man hohe Auflösungen und Frames hat. Der nächste Schritt kostet eben.
Eben. Wann dann, wenn nicht jetzt? Wenn man logisch nachdenkt, paßt die Einführung aktuell sehr gut. Und die Industrie lechzt nach RT. Ich habe gerade eine Doku über Neutrions gesehen, und der Versuch, wie man das grafisch am besten Darstellen kann in einem Studio in Postdam Babelsberg. Wenn man da einiges von der Rechenzeit sparen kann, wären viele sowas von begeistert.

Und nochmals, wer jetzt nicht kaufen will oder kann, wartet eben. Die Preisen fallen doch wieder nach einer Einführung! Nach 3-6 Monaten können sich doch alle wieder freuen und über die Deppen wie uns lästern, weil wir anfangs so hohe Preise bezahlt haben. Also seid doch mal entspannter über die Preise, meine Güte.

Troyan
2018-08-28, 00:33:30
Hier mal zum Nachdenken:
Crysis 2 mit DX11 Patch vor 7 Jahren auf einer GTX580: https://www.hardware.fr/articles/838-4/performances-directx-11.html

40FPS in 1080p. Seitdem hat sich grafisch kaum mehr etwas getan. Es ist sogar rückläufig, da es kein Tessellation mehr gibt.

Ist doch klar, dass der nächste große Schritt eine deutliche Abkehr von den letzten 7 Jahren bedeuten wird. Die Konsolen haben eben dafür gesorgt, dass wir am PC bei stagnierender Qualität eben mehr Leistung in Auflösung und Frames investieren können.

Aber wer will hier denn bitte die nächsten zehn Jahre mit der selben Grafik leben?

Hübie
2018-08-28, 00:39:59
Weiß jetzt nicht ob das hier schon gepostet wurde (lese wegen der nervigen Preisdiskussion etc. kaum mit):

https://i.imgur.com/qRlgEjg.jpg

https://www.reddit.com/r/nvidia/comments/9ahymw/gtxrtx_price_performance_comparison_with/

Irgendwas um 50% zur Ti wären natürlich erste Sahne. :love2:

Keine Inflation, keine Realpreise, Performance in Firestrike Ultra? Standard? Oder Extreme? Klar kann man alles schön bunt malen - aber vor allem gibt es noch keine Benchmarks. :redface:
Die Firestrike-Punkte entnimmt er eventuell diesem einen Leak von vor ein paar Wochen.

Käsetoast
2018-08-28, 00:44:43
Ich finde man muss einfach mal verstehen, dass Turing nicht für Gamer gebaut wurde. NVIDIA erweitert damit ihr Imperium im Profi CAD & CGI Markt und das so wie alles aussieht ganz gewaltig. Das man als Gamer jetzt nicht gerade glücklich darüber ist nur wenig Rasterizing Performance Upgrades zu kriegen und das zu Preisen die sich gewaschen haben kann ich zwar verstehen, aber herrje jetzt ist halt eine neue Grafikkartengeneration nicht so geworden wie man es sich gewünscht hätte - da hat es doch schon ganz andere Blindgänger à la GeForce FX gegeben...

NVIDIA pusht RT nicht wegen dem Gamer, sondern weil sie sich im Profi Segment damit eine goldene Nase verdienen werden. Dafür den Gamer mal ein Stück weit hinten an zu stellen kann ich da sehr gut verstehen und unterm Strich kommt da auf lange Sicht wahrscheinlich sogar was sehr gutes bei raus. Und was die Preise angeht - die sind für die Chipgrößen halt schon vertretbar. Ich gehe davon aus 7nm wird das Preisgefüge dann ein wenig entschärfen, wobei man gleichzeitig aber nicht mit riesigen Performancesprüngen rechnen sollte...

Viel mehr kann man meiner Meinung nach darüber dann auch nicht diskutieren. Die neuen Features sind alle sehr interessant, aber natürlich auch ein wenig speziell. Damit müssen wir jetzt leben, aber ich denke damit kann man gut leben. Einzig die Preise tun natürlich sehr, sehr weh, aber das wird der 7nm Refresh dann einrenken - bis dahin müssen wir halt durchhalten was jetzt aber auch kein Beinbruch sein sollte...

N0Thing
2018-08-28, 00:47:31
Hier mal zum Nachdenken:
Crysis 2 mit DX11 Patch vor 7 Jahren auf einer GTX580: https://www.hardware.fr/articles/838-4/performances-directx-11.html

40FPS in 1080p. Seitdem hat sich grafisch kaum mehr etwas getan. Es ist sogar rückläufig, da es kein Tessellation mehr gibt.

Ist doch klar, dass der nächste große Schritt eine deutliche Abkehr von den letzten 7 Jahren bedeuten wird. Die Konsolen haben eben dafür gesorgt, dass wir am PC bei stagnierender Qualität eben mehr Leistung in Auflösung und Frames investieren können.

Aber wer will hier denn bitte die nächsten zehn Jahre mit der selben Grafik leben?

Natürlich hat sich etwas getan. Es gibt doch genug Spiele, die ähnlich oder hübscher aussehen und keine größeren Anforderungen an die Hardware stellen. Witcher 3, Destiny 2, Wildlands oder das aktuelle Assassins Creed fallen mir da spontan ein.

Und bei Tessellation kommt es auf den sinnvollen Einsatz an. Gerade am PC kann man schön sehen, dass mehr nicht immer besser ist, sondern einfach nur falsch aussieht. Wildlands ist da ein gutes Beispiel. Dort werden die Steine auf einmal zu seltsamen, mit verzerrten Texturen überzogenen Fremdkörpern, wenn man die Optionen auf das Maximum stellt.

PHuV
2018-08-28, 00:52:35
Nehmen wir mal das leidliche Thema Kantenflimmern mit AA und AF, das ist bis heute noch da ist, beispielsweise sehe ich das in PUBG dauernd, und es nervt mich. Da hat sich seit fast 20 Jahren CG nix entscheidendes getan. Etwas verbessert ja, aber das verfolgt uns bis heute. Wenn das mit DLSS endlich verschwunden wäre, wäre das IMHO schon alleine den Aufpreis wert.

Monsta
2018-08-28, 00:53:34
Hier mal zum Nachdenken:
Crysis 2 mit DX11 Patch vor 7 Jahren auf einer GTX580: https://www.hardware.fr/articles/838-4/performances-directx-11.html

40FPS in 1080p. Seitdem hat sich grafisch kaum mehr etwas getan. Es ist sogar rückläufig, da es kein Tessellation mehr gibt.

Ist doch klar, dass der nächste große Schritt eine deutliche Abkehr von den letzten 7 Jahren bedeuten wird. Die Konsolen haben eben dafür gesorgt, dass wir am PC bei stagnierender Qualität eben mehr Leistung in Auflösung und Frames investieren können.

Aber wer will hier denn bitte die nächsten zehn Jahre mit der selben Grafik leben?


Aktuelle Konsolenspiele wir God War oder Horizon Zero Dawn sehen unglaublich aus.
Zumindest auf ner Ps4 Pro und Hdr Glotze.
So etwas gibt es gar nicht auf dem PC.

Da bremst beim Pc irgendwas an anderes, aber nicht die Konsole.

MiamiNice
2018-08-28, 01:03:55
Aktuelle Konsolenspiele wir God War oder Horizon Zero Dawn sehen unglaublich aus.
Zumindest auf ner Ps4 Pro und Hdr Glotze.
So etwas gibt es gar nicht auf dem PC.

Da bremst beim Pc irgendwas an anderes, aber nicht die Konsole.

Lebst Du auf dem selben Planeten wir der Rest in diesem Forum? Ernst gemeinte Frage. So etwas habe ich noch nie gelesen und schon gar nicht live gesehen. An noch keiner Konsole habe ich je fettere Grafik als an meinem PC gesehen. Und das liegt nicht am Mangel von einem 4K TV mit HDR oder diversen Konsolen. Und das auch nicht in der Vergangenheit.

€:

Ne PS4 Pro hat nicht mal 5 TFlops unter der Haube. Das Teil ist ein moderner Taschenrechner aber nichts was Bildqualitätstechnisch an irgendeinen Mittelklasse PC heranreicht. Und schon gar nicht auf einem 4K HDR TV und meiner hat sogar Ambilight - macht es nicht besser!

Monsta
2018-08-28, 01:08:40
Lebst Du auf dem selben Planeten wir der Rest in diesem Forum? Ernst gemeinte Frage. So etwas habe ich noch nie gelesen und schon gar nicht live gesehen. An noch keiner Konsole habe ich je fettere Grafik als an meinem PC gesehen. Und das liegt nicht am Mangel von einem 4K TV mit HDR oder diversen Konsolen. Und das auch nicht in der Vergangenheit.

Was sieht denn besser aus? Wolfenstein Pupg Wow Gta Witcher sind die üblichen Games wovon viele hier viele sprechen, ich finde die sehen alle schlechter aus.

Vielleicht habe ich auch ne andere Definiton von schön.

MiamiNice
2018-08-28, 01:20:21
Vielleicht habe ich auch ne andere Definiton von schön.

Da bin ich bei Dir.
Aber mal abgesehen von grafischen Vorlieben gibt es auf dem PC immer mehr Power und Du hast die Möglichkeit überschüssige Performance in Grafikqualität zu stecken (wenn es nicht ein ganz übler Konsolenport ist).
Dementsprechend wird der PC immer grafischen Lead haben.
Das Konsolen bzw. deren Spieler, die ja jetzt auch Richtung mobile abwandern, namentlich Casuals, der Entwicklung sagen wir mal, komplexeren und tieferen Spielen im Weg stehen, ist nicht wirklich neu.
Die Konsole an sich hat Gaming unters gemeine Volk gebracht. Der Geschmack des gemeinen Volkes in Sachen Videospielen ist allerdings mehr als fragwürdig. ;D

Aber alles OT hier :eek:

Monsta
2018-08-28, 01:24:11
Da bin ich bei Dir.
Aber mal abgesehen von grafischen Vorlieben gibt es auf dem PC immer mehr Power und Du hast die Möglichkeit überschüssige Performance in Grafikqualität zu stecken (wenn es nicht ein ganz übler Konsolenport ist).
Dementsprechend wird der PC immer grafischen Lead haben.
Das Konsolen bzw. deren Spieler, die ja jetzt auch Richtung mobile abwandern, namentlich Casuals, der Entwicklung sagen wir mal, komplexeren und tieferen Spielen im Weg stehen, ist nicht wirklich neu.
Die Konsole an sich hat Gaming unters gemeine Volk gebracht. Der Geschmack des gemeinen Volkes in Sachen Videospielen ist allerdings mehr als fragwürdig. ;D

Aber alles OT hier :eek:
Ich wollte wissen welches Spiel besser aussieht?

Kein Plan was du mir vermitteln willst. Ich spiele aller vorraussicht schon länger als Du am Computer.

MiamiNice
2018-08-28, 01:47:15
Was besser/schöner aussieht oder was besser läuft?
Sprichst Du vom grafischen Flash?
Grafisch flasht mich aktuell gar nichts mehr. Die Spiele sehen alle gleich aus. Auf dem PC hat man wenigsten den Vorteil von FPS/Auflösung. Bringt aber bei Exclusivs nicht viel. Was ich konkret auf dem PC schön finde ist z.b. PCars2 mit allen Reglern rechts. Das sticht für mich irgendwie aus der Masse raus.

Ich habe auf einem Atari mit Holzverkleidung und Steckmodul mit dem Spielen begonnen. Pac Man bis der Punktezähler wieder zurück auf 0 gesprungen ist ;D
Ich bin auch schon ganz schön alt :freak:

wolik
2018-08-28, 06:01:46
Lebst Du auf dem selben Planeten wir der Rest in diesem Forum? Ernst gemeinte Frage. So etwas habe ich noch nie gelesen und schon gar nicht live gesehen. An noch keiner Konsole habe ich je fettere Grafik als an meinem PC gesehen. Und das liegt nicht am Mangel von einem 4K TV mit HDR oder diversen Konsolen. Und das auch nicht in der Vergangenheit.

€:

Ne PS4 Pro hat nicht mal 5 TFlops unter der Haube. Das Teil ist ein moderner Taschenrechner aber nichts was Bildqualitätstechnisch an irgendeinen Mittelklasse PC heranreicht. Und schon gar nicht auf einem 4K HDR TV und meiner hat sogar Ambilight - macht es nicht besser!
Hast du überhaupt Horizon Zero Dawn und God of Wars (2018) auf PS4Pro gespielt ? Es ist leider so, mit 5 (nicht mal) TFlops zaubern PS4Pro das was mein PC mit 25 TFlops grade schafft. Ich habe beides (Spiele auch). HDR glotze too.

Armaq
2018-08-28, 07:07:19
Hast du überhaupt Horizon Zero Dawn und God of Wars (2018) auf PS4Pro gespielt ? Es ist leider so, mit 5 (nicht mal) TFlops zaubern PS4Pro das was mein PC mit 25 TFlops grade schafft. Ich habe beides (Spiele auch). HDR glotze too.
Ja, einige PS4 exklusive Spiele machen etwas neidisch.

Jupiter
2018-08-28, 07:07:30
Ich sah vor über 10 Jahren selbst auf einer 500 Gigaflop GPU schon besseres Wasser und Reflexionen als in God of War von 2018. God of War hat eine gute Grafik, aber ich würde es nicht betonen. Horizon ist besser aber das flimmert noch sehr viel selbst auf der Pro.

PS: Meine TxP ist quasi instant weggegangen. Jetzt geht die Warterei auf Wasserkühler wieder los. :freak:

Die Einstellung gefällt mir. Da ich kein PC Enthusiast bin, muss ich aber noch mehr in Form von Benchmarks wissen. Wenn nächstes Jahr schon 7nm Karten kommen, macht es die Überlegung schwerer. Die GTX 2080 Ti klingt bisher nach einer sehr guten Karte aber so viel bin ich noch nicht bereit, auszugeben.

mr coffee
2018-08-28, 07:27:02
Was besser/schöner aussieht oder was besser läuft?
Sprichst Du vom grafischen Flash?
Grafisch flasht mich aktuell gar nichts mehr.

Schon die Gameplay demo zu Cyberpunkt 2077 gesehen? Wenn das so oder besser am Ende aussieht ... für mich war das schon ein grafischer Flash. Halt nicht mehr so groß wie in alten Zeiten aber das ist ja auch nicht mehr so "einfach".

Korvaun
2018-08-28, 07:42:14
Der grosse Unterschied zwischen Konsole und PC ist die Bildwiederholrate. Konsole hat bei so gut wie allen grafisch aufwändigen Titeln 30Hz und es wird als ok empfunden (kaschiert durch motion blur etc.). Das is ist am PC einfach indiskutabel. Da sind 60Hz der Standard nach dem man sich richtet und der erreicht werden soll. Das frisst enorm Leistung und macht einen grossen Teil des gefühlten Unterschiedes zwischen "optimierter" Konsole und "schlechter" PC-Version aus.

Zur 2000: Wenn die Teile ca. 40% schneller sind als die 1000er dann ist das ok. Preise sind dem RT/Tensor-Zusatz geschuldet. Wer nicht in 4K spielt kann auch locker noch mit ner 1000er-Karte diese Generation überspringen...

Rancor
2018-08-28, 07:53:21
Hier mal zum Nachdenken:
Crysis 2 mit DX11 Patch vor 7 Jahren auf einer GTX580: https://www.hardware.fr/articles/838...irectx-11.html

40FPS in 1080p. Seitdem hat sich grafisch kaum mehr etwas getan. Es ist sogar rückläufig, da es kein Tessellation mehr gibt.

Manche stehen eben nicht auf bessere Grafik.

Die Absurdität ist ja, würde man heute schon Spiele mit Next-Gen Effekten veröffentlichen, würden wir überhaupt nicht über 4K reden. Unsere heutige Grafik ist technisch so veraltet, dass es kein Hexenwerk ist, dass man hohe Auflösungen und Frames hat. Der nächste Schritt kostet eben.


Dazu ist jetzt aktuell der beste Zeitpunkt. Und Witcher 3 ist doch auf 4k spielbar, wenn man Abstriche macht, oder die Auflösung reduziert. Also selbst mit 40" sehe ich bei W3 mit 4k nur unwesentliche Unterschiede zu FullHD, und es bringt spielerisch überhaupt keine Nachteile. Noch markanter bei Shootern, wo 4k sowieso rein spieltechnisch keinen Vorteil bringt, da eh alles schnell in Bewegung ist. Rein optisch bringt aber RT einen gewaltigen Unterschied und macht für mich auch spielerisch mehr her, wenn man Spiegelungen und Reflexionen sehen kann. Mit DLSS halte ich mich erst mal raus, daß muß ich erst mal live bei mir sehen.

OMG, jetzt wird es immer lächerlicher:

Seit Crysis 2 hat sich an der Grafik nichts :freak: getan, daher braucht man jetzt Raytracing.

Auflösung ist plötzlich scheiß egal... Full HD reicht locker, hauptsache Raytracing, weil man sieht ja ehh kein Unterschied zwischen Full HD und 4K ;D

Da weiß man wirklich nicht ob man Lachen oder Weinen soll...

Ihr merkt echt keine Einschläge mehr. Aber neee ihr zwei keine Nvidia Fanboys.... :freak:

:facepalm:

basix
2018-08-28, 08:54:03
Mal so ein Gedanke zum Zeitpunkt von AI + RT in Consumer-Grafikkarten: Mit 7nm wird vermutlich schon eine xx60er SKU dazu fähig sein, heutige Spiele bei maximalen Details in 4k flüssig darzustellen. Mit Ausnahme von High-FPS / Downsampling gäbe es darüber ja nicht mehr viel Gründe für eine schnellere GPU (Achtung: Bei heutigen Spielen). Denkt man weiter, wäre es gar nicht mal so weit weg, dass iGPUs 1080p bei maximalen Details darstellen können. Deswegen wäre für einen sehr grossen Teil der Systeme keine stärkere GPU nötig und es würde ein grosser Teil des diskreten GPU-Markt wegbrechen. Jensen sagt selber in einigen Vorträgen von ihm: "We managed that the GPUs get / stayed so big, that it was prevented to get sucked into the CPU".

Mit RT hätte man hier den nächsten "Enabler" von grossen GPUs, da für RT einfach massiv mehr Leistung erforderlich ist und man es praktisch beliebig nach oben skalieren kann anhand der Samples pro Pixel. Und dass man diese Technologie lieber dann einführt, bevor es fast zu spät ist (ergo vor 7nm) ist meiner Meinung nach geschickt. Vielleicht kommt deswegen RT schon eine Generation "zu früh", damit man die Technik vorher schon einführen kann und auch bei den Kunden Appetit nach mehr anregen kann.

Nur so ein weit schweifender Gedanke ;)

Fragman
2018-08-28, 09:12:35
hier schwingt irgendwie so ein arrogantes gehabe mit.
"ich spiele in 4k bei 60 frames und mehr und wollte jetzt in 144 frames zocken aber nv macht mir einen strich durch die rechnung". dazu kommt dann noch, das personen dabei sind, die eh eine 1080TI haben und sich ueber die "neuen" preise beschweren.

sind eben alle von hohen frameraten und hohen aufloesungen verwoehnt, also die titan und 1080TI fraktion mit ihren sauteuren karten. zu verdanken hat man das dem stillstand der entwicklung, welcher auch den konsolen geschuldet ist. neue tech hier und da gabs natuerlich auch, aber da wird dann auch gleich geschimpft, weil die frames auf unter 40 absacken, wenn man es aktiviert oder die games schlimme drops haben. jetzt kommt ein deutlich groesserer sprung seit jahren und man wundert sich, das es soviel mehr performance kostet und man sogar die aufloesung reduzieren muss? und sowas in einem nerdforum?

N0rG
2018-08-28, 09:13:46
Mal so ein Gedanke [..]

Interresant, kann ich mir gut vorstellen.

Schnäppchenjäger
2018-08-28, 09:27:40
hier schwingt irgendwie so ein arrogantes gehabe mit.
"ich spiele in 4k bei 60 frames und mehr und wollte jetzt in 144 frames zocken aber nv macht mir einen strich durch die rechnung". dazu kommt dann noch, das personen dabei sind, die eh eine 1080TI haben und sich ueber die "neuen" preise beschweren.

sind eben alle von hohen frameraten und hohen aufloesungen verwoehnt, also die titan und 1080TI fraktion mit ihren sauteuren karten. zu verdanken hat man das dem stillstand der entwicklung, welcher auch den konsolen geschuldet ist. neue tech hier und da gabs natuerlich auch, aber da wird dann auch gleich geschimpft, weil die frames auf unter 40 absacken, wenn man es aktiviert oder die games schlimme drops haben. jetzt kommt ein deutlich groesserer sprung seit jahren und man wundert sich, das es soviel mehr performance kostet und man sogar die aufloesung reduzieren muss? und sowas in einem nerdforum?
Hardware kann auch nur in einem begrenzten Umfang jahr für Jahr besser werden.
Die schlechte Performance und Framedrops kommen doch durch die Programmierung zustande, hätten die Entwickler genug Zeit und wäre der Investor nicht so geldgeil, könnte man auch nahezu fehlerfreie und performante Games rausbringen.
Lieber ein paar mehr Cosmetics und unnötige Features die immer wieder die Performance belasten.

Dural
2018-08-28, 09:28:31
Auflösung ist plötzlich scheiß egal... Full HD reicht locker, hauptsache Raytracing, weil man sieht ja ehh kein Unterschied zwischen Full HD und 4K ;D

Da weiß man wirklich nicht ob man Lachen oder Weinen soll...

Ihr merkt echt keine Einschläge mehr. Aber neee ihr zwei keine Nvidia Fanboys.... :freak:

:facepalm:

Sie haben doch recht, jeder dreht auf max Details und wenn die Leistung nicht reicht wird als erstes die Auflösung runter genommen. :rolleyes:

Selbst bei Konsolen ist dies der fall :rolleyes:

SKYNET
2018-08-28, 09:28:37
OMG, jetzt wird es immer lächerlicher:

Seit Crysis 2 hat sich an der Grafik nichts :freak: getan, daher braucht man jetzt Raytracing.

Auflösung ist plötzlich scheiß egal... Full HD reicht locker, hauptsache Raytracing, weil man sieht ja ehh kein Unterschied zwischen Full HD und 4K ;D

Da weiß man wirklich nicht ob man Lachen oder Weinen soll...

Ihr merkt echt keine Einschläge mehr. Aber neee ihr zwei keine Nvidia Fanboys.... :freak:

:facepalm:

wenn ich mir alleine die texturen und vegetation crysis2 vs. FC5 oder FFXV anschaue... aber gab natürlich keinen fortschritt :freak:

auflösung ist popometer sache, mir langt FHD... und mehr kommt erst wenn monitore die meinen ansprüchen genügen(100% aller farbräume) zu bezahlbaren preisen kommen... obwohl, der trend geht ja zum 2. monitor :ulol:

Fragman
2018-08-28, 09:38:02
Die schlechte Performance und Framedrops kommen doch durch die Programmierung zustande, hätten die Entwickler genug Zeit und wäre der Investor nicht so geldgeil, könnte man auch nahezu fehlerfreie und performante Games rausbringen.


da wuerde ich gern mal meinungen von codern zu hoeren, denn ich bin mir nicht sicher, ob das so stimmt. man schiebt sowas ja standardmaessig auf schlechte optimierung, aber selbst wenn es das ist, wieviel besser wuerde es laufen koennen, mit zig mehr optimierungsstunden?

man koennte heut schon games rausbringen, die features wie das ganze voxel based zeugs beinhalten, die framesrates waeren sicher ziemlich niedrig und alle wuerden heulen. die entwickler waegen da ja schon im voraus ab, ob es sinn macht oder nicht.

man kann es auch so sehen, das sie es mit rt nun einfacher haben, optisch einen mehrwert zu bieten, ohne zig mehr arbeitsstunden in die integration zu packen. jeder gamer kann dann entscheiden, welchen mode er nimmt und gut ist.

mironicus
2018-08-28, 09:49:01
Ja, einige PS4 exklusive Spiele machen etwas neidisch.

Dazu läuft alles auch noch auf einer Jaguar-CPU, die würde unter Cinebench vielleicht 300 Punkte (Multicore, Singlecore nur 40 Punkte) erreichen. Was meinst du was dann möglich sein wird, wenn die CPU bei der PS5 auf Zen2-Niveau läuft (mindestens. 3-4 mal so schnell).

Angiesan
2018-08-28, 09:52:41
Es geht hier nur noch um den Preis! Was für ein Schwachsinn. Wenn ich wegen 400,—Euro Preisaufschlag zum Vorgänger bei absolut alleinstehender Performance solche Gedanken machen müsste würde ich mir ein anderes Hobby suchen. Mann will das schnellste, das Beste was es aktuell für Geld zu kaufen gibt und will dafür nicht einen anständigen Preis zahlen!???? Überlegt doch mal, die RTX 2080 ti wird wohl ohne RT Gedöns doppelt so schnell wie das schnellste Produkt des Mitbewerbers, wenn es einfach wäre eine derart schnelle GPU zu bauen würden das doch alle machen, oder? Das ist halt jetzt wie im normalen Leben, wenn man das Premium Produkt haben will muss man auch bereit sein einen Premiumpreis zu zahlen. Und wer sich das nicht leisten will oder kann, der greift halt zu den Massenprodukten, ist ja nicht so, dass man damit nicht spielen könnte. Aber diese ich will das Schnellste für kleines Geld Mentalität geht mir nur noch auf den Sack. Es fährt ja auch nicht jeder Porsche, oder? AMD steht heute genau da wo sie stehen, weil die genau das was NV jetzt macht nie gemacht haben. Sie haben ihre zum Teil überragende Technik und Ansätze nie zu Geld machen können und haben den technischen Anschluss verloren. NV macht das genau richtig, Geld verdienen damit man auch in Zukunft wieder mit High End HW die Spieler bedienen kann. Dieser Neid der den Vorbestellern zum Teil hier entgegen gebracht wird ist nur noch widerlich und zeigt sehr gut wie es um unsere Gesellschaft bestellt ist. Man freut sich nicht für den jenigen, der sich sowas leistet sondern haßt ihn dafür, dass er das macht, was man gerne selbst machen würde. Unterschiedliche Prioritäten und Einkommen, ja es soll Leute geben die müssen nicht überlegen ob sie 1250,— Euro für ihr Spielzeug ausgeben, bleiben vollkommen unberücksichtigt und man versucht nur die eigene ausweglose Situation „ich will aber das schnellste kann es mir aber aus den und den Gründen nicht leisten“ schönzureden. Ich leiste mir das nicht, da ich mittlerweile ein anderes Hobby habe, dass leider auch nicht billig ist, freue mich aber mit denen die bald eine RTX in ihrem Rechner stecken haben und die Fahne für technische Neuerungen hochhalten. Dabei spielt es keine Rolle und ist unabhängig ob das jetzt schon so nutzbar ist oder nur Spielereien sind. Auf alle Fälle haben sie das Beste im Rechner was man haben kann und das ist Fakt!!!

Cubitus
2018-08-28, 09:53:41
Sie haben doch recht, jeder dreht auf max Details und wenn die Leistung nicht reicht wird als erstes die Auflösung runter genommen.

Dann gibt es halt einen anderen Monitor für weniger Geld und wieder mit 1080p oder 1440p. Hat doch früher auch getan :confused:
Dann reicht die 1080 GTX noch für weitere zwei Jahre.

Bzw. hab nen Kollegen der gurkt schon seit 4 Jahren mit einer 780GTX 6GB Version rum, und bei dem laufen auch noch alle Spiele mit 1080p.

Sie haben ihre zum Teil überragende Technik und Ansätze nie zu Geld machen können und haben den technischen Anschluss verloren. NV macht das genau richtig, Geld verdienen damit man auch in Zukunft wieder mit High End HW die Spieler bedienen kann. Dieser Neid der den Vorbestellern zum Teil hier entgegen gebracht wird ist nur noch widerlich und zeigt sehr gut wie es um unsere Gesellschaft bestellt ist. Man freut sich nicht für den jenigen, der sich sowas leistet sondern haßt ihn dafür, dass er das macht, was man gerne selbst machen würde. Unterschiedliche Prioritäten und Einkommen, ja es soll Leute geben die müssen nicht überlegen ob sie 1250,— Euro für ihr Spielzeug ausgeben, bleiben vollkommen unberücksichtigt und man versucht nur die eigene ausweglose Situation „ich will aber das schnellste kann es mir aber aus den und den Gründen nicht leisten“ schönzureden.

Das kann jeder so handhaben wie er will :) Sollen die Leute doch kaufen, aber es ist ja nicht so dass die Spiele mit "alter HW" gar nicht mehr laufen.
Bzw. ich finde es gut wenn es early Adopter gibt, Erfahrungswerte sind auch spannend zu lesen.

Rancor
2018-08-28, 09:59:32
Es geht hier nur noch um den Preis! Was für ein Schwachsinn. Wenn ich wegen 400,—Euro Preisaufschlag zum Vorgänger bei absolut alleinstehender Performance solche Gedanken machen müsste würde ich mir ein anderes Hobby suchen. Mann will das schnellste, das Beste was es aktuell für Geld zu kaufen gibt und will dafür nicht einen anständigen Preis zahlen!???? Überlegt doch mal, die RTX 2080 ti wird wohl ohne RT Gedöns doppelt so schnell wie das schnellste Produkt des Mitbewerbers, wenn es einfach wäre eine derart schnelle GPU zu bauen würden das doch alle machen, oder? Das ist halt jetzt wie im normalen Leben, wenn man das Premium Produkt haben will muss man auch bereit sein einen Premiumpreis zu zahlen. Und wer sich das nicht leisten will oder kann, der greift halt zu den Massenprodukten, ist ja nicht so, dass man damit nicht spielen könnte. Aber diese ich will das Schnellste für kleines Geld Mentalität geht mir nur noch auf den Sack. Es fährt ja auch nicht jeder Porsche, oder? AMD steht heute genau da wo sie stehen, weil die genau das was NV jetzt macht nie gemacht haben. Sie haben ihre zum Teil überragende Technik und Ansätze nie zu Geld machen können und haben den technischen Anschluss verloren. NV macht das genau richtig, Geld verdienen damit man auch in Zukunft wieder mit High End HW die Spieler bedienen kann. Dieser Neid der den Vorbestellern zum Teil hier entgegen gebracht wird ist nur noch widerlich und zeigt sehr gut wie es um unsere Gesellschaft bestellt ist. Man freut sich nicht für den jenigen, der sich sowas leistet sondern haßt ihn dafür, dass er das macht, was man gerne selbst machen würde. Unterschiedliche Prioritäten und Einkommen, ja es soll Leute geben die müssen nicht überlegen ob sie 1250,— Euro für ihr Spielzeug ausgeben, bleiben vollkommen unberücksichtigt und man versucht nur die eigene ausweglose Situation „ich will aber das schnellste kann es mir aber aus den und den Gründen nicht leisten“ schönzureden. Ich leiste mir das nicht, da ich mittlerweile ein anderes Hobby habe, dass leider auch nicht billig ist, freue mich aber mit denen die bald eine RTX in ihrem Rechner stecken haben und die Fahne für technische Neuerungen hochhalten. Dabei spielt es keine Rolle und ist unabhängig ob das jetzt schon so nutzbar ist oder nur Spielereien sind. Auf alle Fälle haben sie das Beste im Rechner was man haben kann und das ist Fakt!!!

Dann Frage ich mich, warum die Herrschaften nicht schon lange eine TITAN V in Ihrem Rechner stecken haben, wenn Geld keine Rolle spielt und sie das schnellste und beste haben wollen :)

Die ganze Debatte auf Neid herunter zu brechen ist einfach nur ein billiger Ablenkungsversuch, damit man sich nicht mit seinem eigenen Konsumverhalten auseinander setzten muss und mal ein bischen hinterfragt was man da eigentlich tut.

Ich kaufe mir aller Voraussicht nach auch die RTX 2080 ( bei 1080TI Perfromance ) und tue das einfach so aus der Portokasse. Daran, das man aber nun in der Performance Klasse, ehemalige High End Preise bezahlen darf, sind zu einem nicht gerade unwesentlichen Teil eben diese Herrschaften schuld, die alles einfach ohne ein bisschen Nachzudenken blind vorbestellen.

Sie haben doch recht, jeder dreht auf max Details und wenn die Leistung nicht reicht wird als erstes die Auflösung runter genommen. :rolleyes:

Selbst bei Konsolen ist dies der fall :rolleyes:

Seidem ich ein TFT besitzte habe ich nie mehr unterhalb der native Auflösung gespielt, weil das automatsich Scheisse aussieht. Du willst mir doch nicht sagen, das die Leute hier mit Ihrem WQHD und 4K Displays primär die Auflösung runterstellen?
Ich kann mir kaum vorstellen, das jemand mit einer RTX 2080TI auf einem 4k Display in Full HD bei 50 FPS spielt und das geil findet, weil er nun ein paar Echtzeit Reflektionen hat.
Möglich, das ich da wirklich falsche Vorstellungen habe, aber sowas absurdes würde mir niemals in den Sinn kommen.

unl34shed
2018-08-28, 10:03:45
Vor allem warum kosten die Karten heute keine 10.000de € würden ja mit jeder Generation immer schneller.

MiamiNice
2018-08-28, 10:35:52
Sie haben doch recht, jeder dreht auf max Details und wenn die Leistung nicht reicht wird als erstes die Auflösung runter genommen. :rolleyes:

Selbst bei Konsolen ist dies der fall :rolleyes:

Definitiv nicht ;D
Zu viel Bluna?

Grüße

Es geht hier nur noch um den Preis! Was für ein Schwachsinn. Wenn ich wegen 400,—Euro Preisaufschlag zum Vorgänger bei absolut alleinstehender Performance solche Gedanken machen müsste würde ich mir ein anderes Hobby suchen. Mann will das schnellste, das Beste was es aktuell für Geld zu kaufen gibt und will dafür nicht einen anständigen Preis zahlen!???? Überlegt doch mal, die RTX 2080 ti wird wohl ohne RT Gedöns doppelt so schnell wie das schnellste Produkt des Mitbewerbers, wenn es einfach wäre eine derart schnelle GPU zu bauen würden das doch alle machen, oder? Das ist halt jetzt wie im normalen Leben, wenn man das Premium Produkt haben will muss man auch bereit sein einen Premiumpreis zu zahlen. Und wer sich das nicht leisten will oder kann, der greift halt zu den Massenprodukten, ist ja nicht so, dass man damit nicht spielen könnte. Aber diese ich will das Schnellste für kleines Geld Mentalität geht mir nur noch auf den Sack. Es fährt ja auch nicht jeder Porsche, oder? AMD steht heute genau da wo sie stehen, weil die genau das was NV jetzt macht nie gemacht haben. Sie haben ihre zum Teil überragende Technik und Ansätze nie zu Geld machen können und haben den technischen Anschluss verloren. NV macht das genau richtig, Geld verdienen damit man auch in Zukunft wieder mit High End HW die Spieler bedienen kann. Dieser Neid der den Vorbestellern zum Teil hier entgegen gebracht wird ist nur noch widerlich und zeigt sehr gut wie es um unsere Gesellschaft bestellt ist. Man freut sich nicht für den jenigen, der sich sowas leistet sondern haßt ihn dafür, dass er das macht, was man gerne selbst machen würde. Unterschiedliche Prioritäten und Einkommen, ja es soll Leute geben die müssen nicht überlegen ob sie 1250,— Euro für ihr Spielzeug ausgeben, bleiben vollkommen unberücksichtigt und man versucht nur die eigene ausweglose Situation „ich will aber das schnellste kann es mir aber aus den und den Gründen nicht leisten“ schönzureden. Ich leiste mir das nicht, da ich mittlerweile ein anderes Hobby habe, dass leider auch nicht billig ist, freue mich aber mit denen die bald eine RTX in ihrem Rechner stecken haben und die Fahne für technische Neuerungen hochhalten. Dabei spielt es keine Rolle und ist unabhängig ob das jetzt schon so nutzbar ist oder nur Spielereien sind. Auf alle Fälle haben sie das Beste im Rechner was man haben kann und das ist Fakt!!!

Nette Worte. +1

cR@b
2018-08-28, 10:37:10
Denke das Neid hier nicht der ausschlaggebende Faktor ist. So ne 2080 Ti können sich m.E. so einige leisten aber man muss sich echt die Frage stellen ob das für die Zukunft so gut ist. Darum geht es den Meisten hier und die Denke ist in dieser Hinsicht nichtmal verkehrt. Wenn Jensen sieht, dass die Leute jetzt wie verrückt zuschlagen, dann wird er auch bei der nächsten Generation wieder ordentlich zur Kasse bitten. Bleiben die Karten jedoch Ladenhüter, wird er etwas ändern müssen. Das Problem ist halt das die Konsumsucht und anscheinend das Geld dazu auch da ist siehe Apple und Co.

Edgecrusher86
2018-08-28, 10:39:48
https://wccftech.com/nvidia-geforce-rtx-2080-3dmark-timespy-score-leaked-clocked-at-2ghz-and-beats-a-gtx-1080-ti-without-ai-cores/

Möglich, dass der GPU lastigere TSE ein Plus von bis zu 15% auf die 1080 Ti ermöglicht statt 6% wie hier.

2025 MHz max. Boost war grob zu erwarten für eine RTX 2080.

11,923 TF/s FP32 wäre das, wobei abzuwarten bleibt, was mit default Targets gehalten werden kann an Takt. Vielleicht 1850-1950 MHz.

MiamiNice
2018-08-28, 10:48:11
https://wccftech.com/nvidia-geforce-rtx-2080-3dmark-timespy-score-leaked-clocked-at-2ghz-and-beats-a-gtx-1080-ti-without-ai-cores/

Möglich, dass der GPU lastigere TSE ein Plus von bis zu 15% auf die 1080 Ti ermöglicht statt 6% wie hier.

2025 MHz max. Boost war grob zu erwarten für eine RTX 2080.

11,923 TF/s FP32 wäre das, wobei abzuwarten bleibt, was mit default Targets gehalten werden kann an Takt. Vielleicht 1850-1950 MHz.

Finde ich mit Blick auf den Vorgänger eher mau. Irgendwas um 2100 hätte ich erwartet und 2200-2300Mhz unter Wasser. Der Chip hat ein besseres Verfahren als der Vorgänger, ist größer sprich es passt mehr Kühlung druff.
Da hätte ich mehr erwartet ausgehend von den 1080s an denen ich meine Finger hatte.

dildo4u
2018-08-28, 10:52:39
Das scheint nicht max OC zu sein der Speicher läuft@Default.Sieht mir nach GPU Boost 4.0 aus,die Angaben auf der Nvidia Seite kann man wieder vergessen.

Edgecrusher86
2018-08-28, 10:57:30
Ist genau das, was ich out of the Box erwartet habe. 2100-2200 MHz max. OC dürfte für TU104 unter normalen Bedingungen möglich sein, 2000-2100 MHz für TU102. Out of the Box dürfte die 2080 Ti bis zu 1850-1900 MHz max. Boost besitzen. Der Rest ist Dreingabe für den User.

Die TITAN V ging auch so auf 1995-203x MHz OC avg unter Wasser. Die besten 2050+ MHz. Es bleibt halt bei 16FF++ und großen GPUs.

E: Da gegen Referenz 1080 Ti und 1080 verglichen wurde, würde es Sinn ergeben dass auch die 2080 nicht übertaktet war.

MiamiNice
2018-08-28, 11:04:33
Bei Pascal geht der 102er besser als der 104er beim OC. Warum sollte das bei Turing anders sein?

Rancor
2018-08-28, 11:04:57
Solange sie 1080TI Niveau erreicht ist alles gut.

robbitop
2018-08-28, 11:06:00
Wenn die 2080, die Leistung der 1080Ti im klassichen Rendering erreicht, dann ist auch alles halbwegs in Ordnung. Dann bekommst du fürs gleiche Geld auch gleiche Performance + nen bischen Schmuck am Nachthemd ( Raytracing etc )
So weit unten sind die Erwartungen schon. Bis vor einer Weile hat man für das gleiche Geld alle ~18 Monate deutlich mehr Leistung bekommen. Heute bezahlt man jedes mal mehr für mehr Leistung. Ich finde das gar nicht "in Ordnung".
Das wird bei GPUs leider immer schlimmer.

Edgecrusher86
2018-08-28, 11:07:53
Bei Pascal geht der 102er besser als der 104er beim OC. Warum sollte das bei Turing anders sein?

Kannst du nicht pauschalisieren - es gibt gute custom 1080er, die deutlich über 2100 MHz unter Luft mit machen - ein Bekannter konnte bis knapp unterhalb 2200 MHz benchen (MSI Gaming X OC). Mit Autofan fährt er die mit 2100 MHz recht leise 24/7. Dass das eine golden GPU ist und die meisten nicht soviel schaffen ist klar.

Bei GP102 ist doch meistens bis 2050 MHz Sense und das erreichen viele Karten auch nicht, zumindest nicht unter Luft. Es ist selten dass 2070-2100 MHz unter Wasser möglich sind.

Es mag natürlich sein dass das deine persönliche Erfahrung ist, okay.

robbitop
2018-08-28, 11:09:06
G92 war kein shrink! Beim G80 lagerte man teile in einen zusatzchip aus und man hat dem G92 wegen dem 256bit bus auch weniger ROPs gegeben.

G92/b war der shrink des G92
Im Prinzip war es aber bis auf Details ja schon ein Shrink. 90 nm auf 65 nm. Dadurch wurde es massiv günstiger. Gleiche Anzahl der SMs, gleiche µArch, SI etwas schmaler aber höher getaktet.
Es war eine Art cost-down G80. Aber eine echte neue High End GPU war erst GT200.

mironicus
2018-08-28, 11:21:00
Gibt es im 3DCenter eigentlich einen Gruppenzwang immer die neueste GPU zu besitzen und wenn du es nicht tust gehörst du nicht mehr dazu? :D

Schnoesel
2018-08-28, 11:25:29
Also die Benches beeindrucken mich in keinster Weise. Für das gleiche Geld bekommst ein paar % mehr Leistung als ne 1080 Ti und weniger Speicher, dazu ein Feature das auf dem Papier existiert oder wahlweise bei 108op @ 30FPS.

Dennoch warte ich noch auf richtige Benches um das Ganze einzuordnen.

Dieser Neid der den Vorbestellern zum Teil hier entgegen gebracht wird ist nur noch widerlich und zeigt sehr gut wie es um unsere Gesellschaft bestellt ist. Man freut sich nicht für den jenigen, der sich sowas leistet sondern haßt ihn dafür, dass er das macht, was man gerne selbst machen würde.

Selten so ein Bullshit gelesen. Es gibt hier sehr viel Leute die es sich leisten können aber nicht wollen, denn nur ein Idiot zahlt zu viel. Mir und vielen anderen sind die Karten den Preis einfach nicht wert (Stand jetzt) und daran werden die grünen Jubelmaschinen hier nix ändern.

dildo4u
2018-08-28, 11:26:23
Gibt es im 3DCenter eigentlich einen Gruppenzwang immer die neueste GPU zu besitzen und wenn du es nicht tust gehörst du nicht mehr dazu? :D
Warum zwang das Hobby ist immer noch Peanuts im großen ganzen gesehen,es gibt Leute die locker 1000€ ausgeben um ein Aftermarket Auspuff für ihren GTI zu kaufen.

Matrix316
2018-08-28, 11:30:51
Aber wann? Dann kommt erst mal HDR, und wenn HDR durch ist, sind wir schon bei 8K. Und dann kommt natürlich auch die Elite, die unbedingt 144 Hz und mehr brauchen? Also, wann soll dann irgendeine Firma ein neues Feature implementieren, so daß die Gamergemeinde nicht aufschreit? :confused: Rein markttechnisch muß Nivida das machen, wo aktuell keine Konkurrenz droht, und sie einen Flop riskieren können. Dazu ist jetzt aktuell der beste Zeitpunkt. Und Witcher 3 ist doch auf 4k spielbar, wenn man Abstriche macht, oder die Auflösung reduziert. Also selbst mit 40" sehe ich bei W3 mit 4k nur unwesentliche Unterschiede zu FullHD, und es bringt spielerisch überhaupt keine Nachteile. Noch markanter bei Shootern, wo 4k sowieso rein spieltechnisch keinen Vorteil bringt, da eh alles schnell in Bewegung ist. Rein optisch bringt aber RT einen gewaltigen Unterschied und macht für mich auch spielerisch mehr her, wenn man Spiegelungen und Reflexionen sehen kann. Mit DLSS halte ich mich erst mal raus, daß muß ich erst mal live bei mir sehen.

Spielerisch ist eine 1080 (TI) nach wie vor was feines und in vielen Spielen noch lange ausreichend. Schau Dir doch mal das aktuelle Steam Survey (https://store.steampowered.com/hwsurvey/videocard/) an. Über 45% mit folgenden Karten 1060, 1050, 760, 960! :eek: Der Markt könnte noch lange mit Pascal >1070er und höher versorgt werden, und da hätten die meisten immer eine deutliche Steigerung. Der Marktanteil einer 1070 bei 2,58%, bei einer 1080 1,51%. Das ist nix. Und da regen sich alle hier über die Preise auf? :rolleyes:


Jedes Spiel ist in 4K spielbar, wenn man Details und die Auflösung reduziert. ;) :D ;)

Aber darum geht's. Ich will heute nicht mehr irgendwas reduzieren müssen, wenn ich schon nahe an High End Hardware bin.

Und warum haben nicht mehr Leute eine 1070 oder 1080? Weil a) die meisten eh nie mehr als 200-400 Euro ausgeben und b) die Mining Sache die Grafikkarten unnötig teurer gemacht haben.

Gerade deswegen hätte nVidia hier mal gegen diesen Wucher gegensteuern können.

Rancor
2018-08-28, 11:31:47
So weit unten sind die Erwartungen schon. Bis vor einer Weile hat man für das gleiche Geld alle ~18 Monate deutlich mehr Leistung bekommen. Heute bezahlt man jedes mal mehr für mehr Leistung. Ich finde das gar nicht "in Ordnung".
Das wird bei GPUs leider immer schlimmer.

Was meinst du was ich hier versuche die ganze Zeit den Herrschaften mitzuteilen? Aber offensichtlich denken hier die wenigsten darüber nach.
Jetzt wird dir gleich wieder einer vorwerfen das du ja nur neidisch auf diejenigen bist, die sich ne 2080 TI kaufen :D

Es ist zum Mäusemelken.

Screemer
2018-08-28, 11:34:40
Was meinst du was ich hier versuche die ganze Zeit den Herrschaften mitzuteilen? Aber offensichtlich denken hier die wenigsten darüber nach.
Jetzt wird dir gleich wieder einer vorwerfen das du ja nur neidisch auf diejenigen bist, die sich ne 2080 TI kaufen :D

Es ist zum Mäusemelken.
hast du nicht gesagt, dass du nichts mehr dazu schreibst? ;)

Troyan
2018-08-28, 11:34:50
So weit unten sind die Erwartungen schon. Bis vor einer Weile hat man für das gleiche Geld alle ~18 Monate deutlich mehr Leistung bekommen. Heute bezahlt man jedes mal mehr für mehr Leistung. Ich finde das gar nicht "in Ordnung".
Das wird bei GPUs leider immer schlimmer.

Die Zeiten sind längst vorbei. Bei AMD hast du mit Vega nach 2 Jahren Fiji rund 50% Mehrleistung erhalten und das ohne wirklichen technischen Fortschritt (selbe Architektur + Shrink auf 16nm).

Pascal war rund 70% schneller nach 20 Monaten Maxwell v2.

Es geht eben ohne andere Herangehensweise keine Steigerung mehr. Außer du willst dir nur noch alle vier Jahre eine neue Karte kaufen.

Jedes Spiel ist in 4K spielbar, wenn man Details und die Auflösung reduziert. ;) :D ;)

Aber darum geht's. Ich will heute nicht mehr irgendwas reduzieren müssen, wenn ich schon nahe an High End Hardware bin.

Und warum haben nicht mehr Leute eine 1070 oder 1080? Weil a) die meisten eh nie mehr als 200-400 Euro ausgeben und b) die Mining Sache die Grafikkarten unnötig teurer gemacht haben.

Gerade deswegen hätte nVidia hier mal gegen diesen Wucher gegensteuern können.

Sage doch einfach, dass du keine bessere Grafik willst. So macht dein Posting null Sinn.

Rancor
2018-08-28, 11:35:49
hast du nicht gesagt, dass du nichts mehr dazu schreibst? ;)

Ja,gestern, weil es sonst mit PHUV ausgeufert wäre. Aber doch nicht für immer :D Ich werde solange die hohen Preise kritisieren, bis es auch der letzte kapiert hat oder die Preise sinken.

Angiesan
2018-08-28, 11:38:45
Dann Frage ich mich, warum die Herrschaften nicht schon lange eine TITAN V in Ihrem Rechner stecken haben, wenn Geld keine Rolle spielt und sie das schnellste und beste haben wollen :)

Die ganze Debatte auf Neid herunter zu brechen ist einfach nur ein billiger Ablenkungsversuch, damit man sich nicht mit seinem eigenen Konsumverhalten auseinander setzten muss und mal ein bischen hinterfragt was man da eigentlich tut.

Ich kaufe mir aller Voraussicht nach auch die RTX 2080 ( bei 1080TI Perfromance ) und tue das einfach so aus der Portokasse. Daran, das man aber nun in der Performance Klasse, ehemalige High End Preise bezahlen darf, sind zu einem nicht gerade unwesentlichen Teil eben diese Herrschaften schuld, die alles einfach ohne ein bisschen Nachzudenken blind vorbestellen.



Seidem ich ein TFT besitzte habe ich nie mehr unterhalb der native Auflösung gespielt, weil das automatsich Scheisse aussieht. Du willst mir doch nicht sagen, das die Leute hier mit Ihrem WQHD und 4K Displays primär die Auflösung runterstellen?
Ich kann mir kaum vorstellen, das jemand mit einer RTX 2080TI auf einem 4k Display in Full HD bei 50 FPS spielt und das geil findet, weil er nun ein paar Echtzeit Reflektionen hat.
Möglich, das ich da wirklich falsche Vorstellungen habe, aber sowas absurdes würde mir niemals in den Sinn kommen.

Na einige haben doch eine Titan in ihrem Rechner gehabt, und außerdem ist der Performancepunch bei der Titan zur 1080Ti ja nicht so gewaltig wie jetzt zur 2080ti wohl ausfallen wird. Die Titan V spielt da dann im Preis noch mal in einer anderen Klasse bei 3200,-- Euro VK.
Und nein es ist klein Ablenkungsversuch, es gibt diese Debatten in vielen Bereichen und immer wird technischer Fortschritt klein geredet weil er bezahlt werden muss. Bei Fahrräder gibt es seit Jahen die Diskussion ob der Aufpreis von Alu zu Carbon gerechtfertigt ist, technische Neuerungen im Automobilbau wie ABS, ESP und vieles andere wurde von denen die es sich nicht leisten wollten auch abgetan mit Sprüchen wie ja braucht man nur wenn man nicht fahren kann....für Frauen.... usw. Das beste Beispiel ist aktuell die Elektromobilität, die ist teuer, die ist noch nicht in allen Belangen konkurrenzfähig und das wird abgelehnt von genau diesen Verbrauchern die hier auch schreien zu teuer. Dabei ist es die Zukunft und individuelle Mobilität wird in den kommenden 20 Jahren genau so ein Luxusgut sein wie Grafikkarten für 1250 EUR+. Einen Teil der Entwicklungskosten zahlen eben die Erstkäufer und bekommen dafür ein schlechteres Produkt wie die die erst in ein paar Jahren einsteigen. So funktioniert das nun mal, ob es Dir gefällt oder nicht ist ja eine andere Sache. Bedenke aber wir leben nicht in einer Planwirtschaft sondern in einer Welt in der technische Neuerungen, ob wir sie nun brauchen oder nicht" bezahlt werden. Es gibt immer Menschen geben die kaufen es sich....warum weil sie es können.
Mit der Preisgestaltung regelt man auch den Markt, vielleicht hat NV auch einfach nicht genug Karten für eine andere Preisgestaltung und ehe man wie der ein oder andere Mitbewerber nicht liefern kann, schöpft man lieber mit der geringeren Menge an verkauften Einheiten einen per St. höheren Ertrag ab. Die Entwicklungskosten bleiben ja die gleichen ob ich nun x oder Y Stücke in den Markt bringen kann.

Und wenn Du das Ding aus der Portokasse zahlen kannst, verstehe ich schon mal überhaupt nicht warum gerade Du dich über den Preis so aufregst. Du hast dann ja auch ein gutes Auskommen und entsprechend wird deine Arbeit leistungsgerecht bezahlt. Wenn Du jetzt weniger gute Arbeit leisten würdest wäre es ja auch legitim, dass die Vergütung für diese niedriger wäre, oder?

Dabei spielt es keine Rolle welche absolute Qualität diese Arbeit entspricht sondern wie viel besser man zum Durchschnitt arbeitet.

Nur noch soviel, in einem Markt in dem es nur 1,5 Anbieter gibt, wird es keine "faire" Preisgestaltung geben. NV ist am Drücker und das wissen sie und die Preisgestaltung lehnt sich klar an die Leistung des Mitbewerbers an. Wenn das schnellste Produkt der Konkurrenz wohl langsamer ist wie das langsamste Produkt des eigenen Lineups warum sollte ich dieses billiger verkaufen bei höherer Leistung.

Sowohl AMD wie auch NV haben immer hingelangt wenn die Performancekrone im eigenen Haus war, kam dann die neue Generation des Mitbewerbers wurde der Preis angepasst. Nur gibt es in dem Bereich in dem sich die RTX bewegt keinen Mitbewerber mehr, die Folgen sehen wir.

In einem Preisbereich in dem sich die neuen Karten aktuell bewegen wird es einfach keinen Konsumverzicht geben, dafür sind die Preise noch zu niedrig und die Zielgruppe noch viel zu groß und ich bin mir sicher, die Nachfrage wird das Angebot übersteigen. Spätestens wenn sich meine Vermutung durch unabhängige Test bewahrheiten sollte, dass die kleinste Karte aka RTX 270 irgendwo zwischen der 1080 und 1080ti und damit sich vor den Vega Karten einsortieren wird geht der Run los, wetten!?

SKYNET
2018-08-28, 11:39:20
Kannst du nicht pauschalisieren - es gibt gute custom 1080er, die deutlich über 2100 MHz unter Luft mit machen - ein Bekannter konnte bis knapp unterhalb 2200 MHz benchen (MSI Gaming X OC). Mit Autofan fährt er die mit 2100 MHz recht leise 24/7. Dass das eine golden GPU ist und die meisten nicht soviel schaffen ist klar.

Bei GP102 ist doch meistens bis 2050 MHz Sense und das erreichen viele Karten auch nicht, zumindest nicht unter Luft. Es ist selten dass 2070-2100 MHz unter Wasser möglich sind.

Es mag natürlich sein dass das deine persönliche Erfahrung ist, okay.

naja, meine 1080 armor OC hat auch 2150MHz mit der gammellüfter der da drauf ist gepackt und 2093 durchweg gehalten auch nach stunden in furmark, lag auch mit an den beiden 120er lüftern die von unten direkt drauf geblasen haben, weil der kühler selber ist ja nach dem FE geschmodder das billigste was man haben kann X-D

und die 1080Ti ... ja, die ist irgendwie nen trauerspiel :rolleyes: :mad:

Fragman
2018-08-28, 11:41:37
So weit unten sind die Erwartungen schon. Bis vor einer Weile hat man für das gleiche Geld alle ~18 Monate deutlich mehr Leistung bekommen. Heute bezahlt man jedes mal mehr für mehr Leistung. Ich finde das gar nicht "in Ordnung".
Das wird bei GPUs leider immer schlimmer.

die fortschritte in der halbleitertechnik waren ja auch noch anders. wir muessten heute eigentlich schon 7nm mit 5nm vor der tuer stehend haben, wenn man die entwicklungen wie damals heute noch haette.
aber die realitaet ist, das intel seit jahren an ihrem 10nm verfahren bastelt und globalfoundries gerade aus kostengruenden alles ab/unterhalb 7nm nicht mehr bedienen wird. dazu ist die nachfrage nach ram sehr hoch und nv hat viel luft, dank nicht vorhandener konkurenz. von mining reden wir da noch garnicht.

man sollte sich eher sorgen machen, wie es preislich nach 7nm weiter geht. wobei nv ja auch fuer 7nm mit "grossen" chips plant. mal abwarten, was amd preislich fuer navi aufrufen wird und vor allem fuer deren highend chip in 2020.

Rancor
2018-08-28, 11:43:29
@Angiesan

Immerhin hast du die Wahl zwischen Alu und Carbon Rahmen beim Fahrrad. Im halben Jahr kannst du aber nur noch die RTX Karten kaufen, wenn Pascal EOL geht.
Das ist der Unterschied und dann bezahl ich etwas mit, was ich eigentlich mit der jetzigen Performance gar nicht haben will.Gäbe es Turing ohne Raytraycing für weniger Geld, dann wäre auch alles in Ordnung.


Und wenn Du das Ding aus der Portokasse zahlen kannst, verstehe ich schon mal überhaupt nicht warum gerade Du dich über den Preis so aufregst. Du hast dann ja auch ein gutes Auskommen und entsprechend wird deine Arbeit leistungsgerecht bezahlt. Wenn Du jetzt weniger gute Arbeit leisten würdest wäre es ja auch legitim, dass die Vergütung für diese niedriger wäre, oder?

Weil ich es nicht einsehe. Das ist ganz einfach. Das ist ne scheiss Grafikkarte zum Spielen, dafür bezahl ich doch keine 1300€. Das ist völlig behemmert. Die 850€ sind eigentlich schon zu viel, aber ich habe ja keine Wahl, wenn ich mein Hobby nicht an den Nagel hängen will. Dazu bin ich noch nicht bereit.

Und extrapoliert man die Preisentwicklung, dann kostet ne 3080TI dann bald 1699€. Keine Ahnung wie man das geil finden kann, selbst wenn man 5000€ oder mehr netto im Monat verdient.

Matrix316
2018-08-28, 11:46:28
[...]


Sage doch einfach, dass du keine bessere Grafik willst. So macht dein Posting null Sinn.

Hier mal zum Nachdenken:
Crysis 2 mit DX11 Patch vor 7 Jahren auf einer GTX580: https://www.hardware.fr/articles/838-4/performances-directx-11.html

40FPS in 1080p. Seitdem hat sich grafisch kaum mehr etwas getan. Es ist sogar rückläufig, da es kein Tessellation mehr gibt.

Ist doch klar, dass der nächste große Schritt eine deutliche Abkehr von den letzten 7 Jahren bedeuten wird. Die Konsolen haben eben dafür gesorgt, dass wir am PC bei stagnierender Qualität eben mehr Leistung in Auflösung und Frames investieren können.

Aber wer will hier denn bitte die nächsten zehn Jahre mit der selben Grafik leben?

Wenn man sich die Bodentexturen mal ansieht, sieht man wie alt das Spiel schon ist.

https://www.hardware.fr/medias/photos_news/00/32/IMG0032884.jpg

Crysis 3 sah da schon besser aus:

http://extreme.pcgameshardware.de/attachments/621372d1359504405-crysis-3-beta-test-erste-pcgh-grafikkarten-benchmarks-zeigen-zwiespaeltiges-bild-xd2-2880.jpg

Die Grafik hat sich durchaus verbessert.

Und mit "gerade so spielbar" zieht man normalerweise keinen PC Gamer hinter dem Rechner hervor. Das kennt man sonst nur von Konsolen.

Troyan
2018-08-28, 11:52:14
Texturen kamen durch die neuen Konsolen und mehr Speicher. Geometrie dagegen wurde reduziert, weil die neuen Konsolen technisch zum Erscheinen schon veraltet waren. Deswegen kannst du heute ja in 4K@60FPS spielen.
Genauso auch fehlende Dynamik, richtige Schatten, vernünftiges AO, realistische Spiegelungen etc. All das ist auf einem Niveau, welches bald 10 Jahre alt wird.

Eine RTX2070 reicht für dich doch vollkommen aus. Fehlt die Leistung, reduziere doch einfach die Grafik. Es muss ja kein AO "Ultra" sein, wenn "Mittel" fast genauso gut aussieht. Es muss ja kein PCSS sein, wenn die normalen harten Schatten niemanden stören.

Du kannst zwar High-End Karten kaufen, aber du bekommst in Spielen eben nur Mid-Range Grafik at best.

robbitop
2018-08-28, 11:52:53
Bei Pascal geht der 102er besser als der 104er beim OC. Warum sollte das bei Turing anders sein?
Im Schnitt geht GP104 etwas höher als GP102 nach meiner Empfindung. Die meisten GP102 schaffen 20xx MHz (nach dem was ich so gesehen habe) und die GP104 eher 21xx MHz.

Verwundert auch nicht, da weniger Leistungsaufnahme und weniger potenziell limitierende kritische Pfade.

Rancor
2018-08-28, 11:53:17
@Troyan

Wer kauft sich denn eine 700€ Karte um beim Release dann Details reduzieren zu müssen, weil die Karte ootb schon nicht schnell genug ist? Was für ein Schwachsinn.. Es ist echt kein Wunder, das bei der Denkweise die Karten immer teurer werden.... und die Lederjacke kommt vor Lachen nicht mehr in den Schlaf...

Troyan
2018-08-28, 12:00:16
Wer sich eine RTX2070 kauft, hat wohl eine Karte, die nicht annähernd so schnell ist. Er lebt also schon heute mit entweder weniger Frames, weniger Grafik und/oder einer geringeren Auflösung.

Screemer
2018-08-28, 12:03:30
ich würde gerne von meiner 980ti auf eine 2070/2080 wechseln. bei den aufgerufenen preisen ist es mir das update allerdings nicht wert. vielleicht kauf ich in nem halben jahr ne 1080ti irgendwo gebraucht.

MiamiNice
2018-08-28, 12:04:30
Im Schnitt geht GP104 etwas höher als GP102 nach meiner Empfindung. Die meisten GP102 schaffen 20xx MHz (nach dem was ich so gesehen habe) und die GP104 eher 21xx MHz.

Verwundert auch nicht, da weniger Leistungsaufnahme und weniger potenziell limitierende kritische Pfade.

Hatte jetzt nicht die größte Anzahl an Karten in der Hand aber auf gute 5 1080 und 2 1080Ti komme ich schon. Meine Erfahrung aus diesen paar Karten ist ein wenig anders.
Aber gut, es wird wahrscheinlich ein wenig Qualitätsstreuung geben.
Ich vermerke mir mal das die kleineren Chips besser gehen i.d.R. :wink:

RLZ
2018-08-28, 12:10:05
Das ist ne scheiss Grafikkarte zum Spielen, dafür bezahl ich doch keine 1300€. Das ist völlig behemmert.
Dann geh zur Konkurrenz, die keine scheiß Grafikkarten zum Spielen baut. Nvidia kann Karten bauen wie sie wollen und ist dir nicht schuldig deine Wunschkarte zu bauen.

robbitop
2018-08-28, 12:15:13
die fortschritte in der halbleitertechnik waren ja auch noch anders. wir muessten heute eigentlich schon 7nm mit 5nm vor der tuer stehend haben, wenn man die entwicklungen wie damals heute noch haette.
aber die realitaet ist, das intel seit jahren an ihrem 10nm verfahren bastelt und globalfoundries gerade aus kostengruenden alles ab/unterhalb 7nm nicht mehr bedienen wird. dazu ist die nachfrage nach ram sehr hoch und nv hat viel luft, dank nicht vorhandener konkurenz. von mining reden wir da noch garnicht.

man sollte sich eher sorgen machen, wie es preislich nach 7nm weiter geht. wobei nv ja auch fuer 7nm mit "grossen" chips plant. mal abwarten, was amd preislich fuer navi aufrufen wird und vor allem fuer deren highend chip in 2020.
Ja das stimmt schon. Moores Law gilt nicht mehr und Speicher ist teuer. Jedoch gibt es eine weitere Teilursache: und das ist der asymetrische Markt. Ohne starken Wettbewerb werden Margen (das ist betriebswirtschaftlich hoch sinnvoll!) immer größer. Der Kunde muss das bezahlen. Das kann man kritisieren - ist jedoch wirkungslos, da jedes Unternehmen seinen Profit maximieren will. Die einzige Gegenmaßnahme ist gesunder Wettbewerb. AMD ist im Moment zu schwach. Ggf. kommt man dank Einnahmen aus der CPU Sparte ja wieder zurück und ggf. gibt es etwas Wettbewerb von Intel ab 2020. Das führt zwangsläufig (wenn der Wettbewerb stark ist) zu sinkenden Margen und somit sinkenden Konsumentenpreisen.

N0rG
2018-08-28, 12:21:38
Vielleicht muss NV die Preise ja auch so hoch ansetzen, um die Nachfrage bedienen zu können. Solche Riesenchips sind halt nicht so eingach herzustellen wie die kleinen pascals.

Troyan
2018-08-28, 12:22:16
Ja das stimmt schon. Moores Law gilt nicht mehr und Speicher ist teuer. Jedoch gibt es eine weitere Teilursache: und das ist der asymetrische Markt. Ohne starken Wettbewerb werden Margen (das ist betriebswirtschaftlich hoch sinnvoll!) immer größer. Der Kunde muss das bezahlen. Das kann man kritisieren - ist jedoch wirkungslos, da jedes Unternehmen seinen Profit maximieren will. Die einzige Gegenmaßnahme ist gesunder Wettbewerb. AMD ist im Moment zu schwach. Ggf. kommt man dank Einnahmen aus der CPU Sparte ja wieder zurück und ggf. gibt es etwas Wettbewerb von Intel ab 2020. Das führt zwangsläufig (wenn der Wettbewerb stark ist) zu sinkenden Margen und somit sinkenden Konsumentenpreisen.

Dir ist klar, dass die Entwicklung und Produktion der GPUs ebenfalls Geld kostet? Dir ist klar, dass das Ökosystem nicht nur aus den Transistoren, dem PCB und dem Speicher besteht?

Turing ist 60% größer als Pascal. Alleine rein auf die Produktionskosten des Dies gemünzt, müsste er dem Endkunden doppelt soviel Kosten, um auf die selbe Marge zu kommen.

Außerdem ist die Aussage bzgl. dem Wettbewerb ja auch so eine Sache: Wäre der Markt groß genug für mehr Teilnehmer, gäbe es diese schon längst. Den im Gegensatz zum x86-Markt gibt es keine Beschränkungen den PCIe GPU-Markt zu betreten.

robbitop
2018-08-28, 12:31:53
Mir sind leider keine BOMs bekannt, um eine entsprechende Analyse fahren zu können. Jedoch sieht man aber in den offen sichtbaren Jahresberichten, dass die Gewinnspanne von NV extrem gut ist. Und das ist auch richtig so. Das würde jedes Unternehmen machen. Das kritisiere ich nicht. Wir sind im Kapitalismus. Die Marktökonomie lässt dies derzeit zu. Wettbewerb ist eben kaum gegeben.

Ich spreche nicht ab, dass TU102 und TU104 in der BOM teurer sind als ihre Vorgänger. Aber dennoch wird NV sicherlich auf ihre Gewinnspanne achten. Alles andere wäre unternehmerisch unklug.
Sicherlich ist die BOM von TU102 nicht um ~600 € höher als die von GP102. Und bereits GP102 deckte sämtliche Kosten des Unternehmens inkl. Gewinnspanne ab. Die Gewinnspanne wird man sicherlich linear erhöhen, so dass diese relativ vielleicht nicht viel höher ist, absolut hingegen schon.

Schnoesel
2018-08-28, 12:33:50
Turing ist 60% größer als Pascal. Alleine rein auf die Produktionskosten des Dies gemünzt, müsste er dem Endkunden doppelt soviel Kosten, um auf die selbe Marge zu kommen.

Es ist doch Nvidias Entscheidung gewesen den Chip wegen RT so aufzublasen obwohl die Technik noch in den Kinderschuhen steckt. Mehr noch sie versuchen die Kosten auch auf RTX 2070 und RTX 2080 Nutzer abzuwälzen die vorraussichtlich noch nicht mal einen Nutzen davon haben werden weil schlicht die Power dafür fehlt. Nvidia versucht mit RT einen Bedarf zu erfinden der so gar nicht da war und wälzt die Kosten 1 zu1 auf den Kunden ab. Ob der Kunde da mit geht darf bezweifelt werden. Abgesehen davon, dass die Nutzung von DX12 und Co. abhängt die für sich allein schon problembehaftet ist.

Ist doch klar dass die Meisten hier nicht jubelnd das Geld gegen den Monitor werfen.

MiamiNice
2018-08-28, 12:35:52
Den im Gegensatz zum x86-Markt gibt es keine Beschränkungen den PCIe GPU-Markt zu betreten.

Ohne da wirklich im Thema zu sein kann ich mir aber trotzdem nicht vorstellen das die Aussage stimmt. Ich vermute das keiner so wirklich 3D Beschleuniger bauen kann außer NV, AMD und Intel. Mein Gedanke geht Richtung Patente.

Rancor
2018-08-28, 12:37:06
... Ob der Kunde da mit geht darf bezweifelt werden.

Wie man unschwer hier erkennen kann, wird der Kunde da dummerweise doch mitgehen... Leider.

RLZ
2018-08-28, 12:37:10
Mehr noch sie versuchen die Kosten auch auf RTX 2070 und RTX 2080 Nutzer abzuwälzen die vorraussichtlich noch nicht mal einen Nutzen davon haben werden weil schlicht die Power dafür fehlt.
Eine Firma wälzt Kosten auf die Kunden ab. Eine echte Unverschämtheit! :freak:

robbitop
2018-08-28, 12:37:11
Ich finde den Schritt zu RT sehr gut und mutig. Er bringt in der 1. Gen wahrscheinlich den meisten Spielern wenig. Aber mittelfristig (2-3 Gens weiter) werden wir hübschere Spiele bekommen. Endlich keine kaputte Spiegelung und Schatten mehr. Das hat mich schon immer genervt.

Ich denke mal mit 7 nm werden sich die Preise aus 2 Gründen normalisieren:

1. wird NV schauen, dass sich die Kerngrößen wieder normalisieren
2. wird es vermutlich mehr Wettbewerb geben (Intel's Arctic Sound und ggf. AMDs Navi / bzw deren Nextgen)

robbitop
2018-08-28, 12:39:19
Den im Gegensatz zum x86-Markt gibt es keine Beschränkungen den PCIe GPU-Markt zu betreten.
Das ist leider nicht wahr. Alle möglichen Tricks für effiziente Rasterizer µArchs sind patentiert. Auf alle möglichen Arten. Ohne Cross Licence Agreement kommt man auf keine konkurrenzfähige µArch.

Ohne da wirklich im Thema zu sein kann ich mir aber trotzdem nicht vorstellen das die Aussage stimmt. Ich vermute das keiner so wirklich 3D Beschleuniger bauen kann außer NV, AMD und Intel. Mein Gedanke geht Richtung Patente.
Intel, ARM, ImgTec, Apple, Qualcomm, S3 Graphics (ja die machen immernoch GPUs - IGPs)...
Aber die werden auch entsprechende Deals haben.

Schnoesel
2018-08-28, 12:41:01
Eine Firma wälzt Kosten auf die Kunden ab. Eine echte Unverschämtheit!

Wenn ich keinen Nutzen davon hab ist es genau das. Eine Unverschämheit. Ich zahle für ein Papierfeature. Kann sich ja jeder selbst Gedanken drüber machen ob er das möchte.

Screemer
2018-08-28, 12:43:55
Außerdem ist die Aussage bzgl. dem Wettbewerb ja auch so eine Sache: Wäre der Markt groß genug für mehr Teilnehmer, gäbe es diese schon längst. Den im Gegensatz zum x86-Markt gibt es keine Beschränkungen den PCIe GPU-Markt zu betreten.
konkurrenzfähige 3d-beschleuniger ohne patent-abkommen oder eigene patente? klaro. von den üblichen verdächtigen mal abgesehen kann da niemand in den markt.

Edit: zu spät

Käsetoast
2018-08-28, 12:47:51
Ich finde den Schritt zu RT sehr gut und mutig. Er bringt in der 1. Gen wahrscheinlich den meisten Spielern wenig. Aber mittelfristig (2-3 Gens weiter) werden wir hübschere Spiele bekommen. Endlich keine kaputte Spiegelung und Schatten mehr. Das hat mich schon immer genervt.

Ich denke mal mit 7 nm werden sich die Preise aus 2 Gründen normalisieren:

1. wird NV schauen, dass sich die Kerngrößen wieder normalisieren
2. wird es vermutlich mehr Wettbewerb geben (Intel's Arctic Sound und ggf. AMDs Navi / bzw deren Nextgen)
Sehe ich ganz genauso!
Warum einige sich so extrem von Nvidia auf den Schlips getreten fühlen verstehe ich nicht. Na dann ist diese Generation für den Gamer halt keine Offenbarung und sehr teuer. Kann man auch mal verschmerzen zumal die Gründe warum Nvidia das trotzdem so angeht ja auf der Hand liegen und wirtschaftlich Sinn machen. Die wollen auch jenseits der Zocker Fraktion Märkte bedienen und irgendwann werden auch wir ernsthaft von RT profitieren können...

PHuV
2018-08-28, 12:55:27
Dann Frage ich mich, warum die Herrschaften nicht schon lange eine TITAN V in Ihrem Rechner stecken haben, wenn Geld keine Rolle spielt und sie das schnellste und beste haben wollen :)

Die Titan V ist als günstige Einsteigerkarte für die Forschung gedacht gewesen, nicht fürs Spielen
Der Preis für mich hier auch zu hoch wäre. Nur starte ich deswegen nicht einen heiligen Krieg wie Du und andere hier, weil sich jemand sowas kauft


Die ganze Debatte auf Neid herunter zu brechen ist einfach nur ein billiger Ablenkungsversuch
Nein, es ist und bleibt blanker gezeigter Neid von Dir und Deinesgleichen! Neue Technik gibts nun mal nicht immer für lau!

damit man sich nicht mit seinem eigenen Konsumverhalten auseinander setzten muss und mal ein bischen hinterfragt was man da eigentlich tut.
Und ich frage mich immer noch, was der Schwachsinn von Dir soll. :facepalm: Konsumverhalten hinterfragen? Spendest Du etwa Dein sauer verdientes Geld für Afrika oder Bedürftige? Das tust Du auch nicht! Daher ist es eh verlogen. Konsumverhalten kann man hinterfragen, wenn es Schaden anrichtet, fragwürdig produziert wurde, Notsituationen für lebenswichtige Dinge ausgenutzt werden usw. Wo haben wir das hier bitte? :confused: Warum willst Du mir und anderen vorschreiben, was wir uns zum Spielen kaufen? :confused:

Ich kaufe mir aller Voraussicht nach auch die RTX 2080 ( bei 1080TI Perfromance ) und tue das einfach so aus der Portokasse. Daran, das man aber nun in der Performance Klasse, ehemalige High End Preise bezahlen darf, sind zu einem nicht gerade unwesentlichen Teil eben diese Herrschaften schuld, die alles einfach ohne ein bisschen Nachzudenken blind vorbestellen.
Dann warte doch einfach, anstatt immer wieder diese Neiddebatte anzufachen. Laß Nvidia die Early Adopters abschöpfen, freu Dich, daß Du nicht so viel bezahlst, wenn Du sie Dir später kaufst? Du tust ja gerade so, als ob Dein Leben von günstigen GKs abhängt. Meine Güte, komm mal wieder in die Spur, das ist nur eine blöde Grafikkarte fürs Spielen. :rolleyes:

Seidem ich ein TFT besitzte habe ich nie mehr unterhalb der native Auflösung gespielt, weil das automatsich Scheisse aussieht. Du willst mir doch nicht sagen, das die Leute hier mit Ihrem WQHD und 4K Displays primär die Auflösung runterstellen?
Klar mache ich das, Cod AW2 gabs mal ein paar kritische Stellen, und da habe ich trotz 4k mit 1080p gespielt, weils einfach flüssiger lief. Grafisch habe ich da nichts vermißt, ebenso mal bei der FC-Reihe, wenn die Performance wirklich in die Knie ging. Auflösung vor Details. Ganz zu schweigen von so was wie X3, weil man sonst die Schriften in 4k nicht mehr lesen konnte.

Ich kann mir kaum vorstellen, das jemand mit einer RTX 2080TI auf einem 4k Display in Full HD bei 50 FPS spielt und das geil findet, weil er nun ein paar Echtzeit Reflektionen hat.
Möglich, das ich da wirklich falsche Vorstellungen habe, aber sowas absurdes würde mir niemals in den Sinn kommen.
Das ist doch nicht absurd! Oder fährst Du im Straßenverkehr auch mit 200 Sachen, weil Du sonst Deinen Wagen unterforderst? :rolleyes:
Ich weiß ja nicht, wie lange Du schon spielst, aber Auflösungen und Details zu reduzieren ist das gängigste Mittel, wenn Du mehr FPS brauchst oder willst. Ich verstehe nicht, warum Du Dich sträubst.
@
Weil ich es nicht einsehe. Das ist ganz einfach. Das ist ne scheiss Grafikkarte zum Spielen, dafür bezahl ich doch keine 1300€. Das ist völlig behemmert. Die 850€ sind eigentlich schon zu viel, aber ich habe ja keine Wahl, wenn ich mein Hobby nicht an den Nagel hängen will. Dazu bin ich noch nicht bereit.
Dann warte und verzichte, sei es auf Leistung, Auflösung oder sonstwas, solange, bis für Dich ein akzeptabler Preis erzielt wird. Ich renne doch auch nicht gleich ins Kino für jeden Film für 15 €, oder mit Familie gleich 80 €, sondern warte, bis es den nach 6-9 Monaten als BR in der Videothek gibt oder bei einem Streaminganbieter.

Troyan
2018-08-28, 12:55:51
Ohne da wirklich im Thema zu sein kann ich mir aber trotzdem nicht vorstellen das die Aussage stimmt. Ich vermute das keiner so wirklich 3D Beschleuniger bauen kann außer NV, AMD und Intel. Mein Gedanke geht Richtung Patente.

IMGTEC, ARM mit Mali, Qualcomm... haben alle Patente und geben somit die Möglichkeit in den Markt einzutreten.

Es ist doch einfach so, dass Kosten und Markt immer weiter auseinander gehen. Ja, der Gaming-Markt wächst, aber die Kosten, um richtigen Fortschritt zu bringen, steigt proportional einfach stärker an.

Screemer
2018-08-28, 12:58:36
Na dann ist diese Generation für den Gamer halt keine Offenbarung und sehr teuer.
Ersteres ist zu verschmerzen, letzteres wird sich für die Nachfolgeneration nicht ändern. Und das ist auch der Grund warum sich mancher auf den Schlips getreten fühlt..

PHuV
2018-08-28, 13:02:54
Wenn ich keinen Nutzen davon hab ist es genau das. Eine Unverschämheit. Ich zahle für ein Papierfeature. Kann sich ja jeder selbst Gedanken drüber machen ob er das möchte.
Du mußt doch nicht kaufen? :confused:

uweskw
2018-08-28, 13:03:24
.........Nur noch soviel, in einem Markt in dem es nur 1,5 Anbieter gibt, wird es keine "faire" Preisgestaltung geben. NV ist am Drücker und das wissen sie und die Preisgestaltung lehnt sich klar an die Leistung des Mitbewerbers an........



Das ist ja nicht von heute auf morgen passiert. Seit der 7970, als teilweise AMD noch objektive Vorteile hatte,:eek: hat da die intensive Foren- und Presse-Arbeit von NV Fans und Mitarbeitern den Markt systematisch zu NV verschoben. Glückwunsch zu diesem Marketing.
Effekt war halt, dass AMD inzwischen wirklich bei Forschung und Entwicklung Einschränkungen hatte. Das Ergebnis sind die heutigen Preise. Also sollte es dem einen oder anderen doch klar werden, dass er mit dem Gehype des Marktführers nur einem hilft.

Aber nein, da fällt man im Rudel mit der Neidkeule über jeden her der es wagt Kritik am Marktführer zu äußern.


greetz
US

Rancor
2018-08-28, 13:07:37
Die Titan V ist als günstige Einsteigerkarte für die Forschung gedacht gewesen, nicht fürs Spielen
Der Preis für mich hier auch zu hoch wäre. Nur starte ich deswegen nicht einen heiligen Krieg wie Du und andere hier, weil sich jemand sowas kauft


Zu 1.) Dumme Ausrede
zu 2.) Da kommen wir der Sache schon näher


Nein, es ist und bleibt blanker gezeigter Neid von Dir und Deinesgleichen! Neue Technik gibts nun mal nicht immer für lau!

Das kannst du gerne noch 1000x behaupten, dadurch wird es nicht richtiger ;)

Und ich frage mich immer noch, was der Schwachsinn von Dir soll. :facepalm: Konsumverhalten hinterfragen? Spendest Du etwa Dein sauer verdientes Geld für Afrika oder Bedürftige? Das tust Du auch nicht! Daher ist es eh verlogen. Konsumverhalten kann man hinterfragen, wenn es Schaden anrichtet, fragwürdig produziert wurde, Notsituationen für lebenswichtige Dinge ausgenutzt werden usw. Wo haben wir das hier bitte? :confused: Warum willst Du mir und anderen vorschreiben, was wir uns zum Spielen kaufen? :confused:

Du weisst überhaupt nicht wo und wie ich mich sozial engagiere.
Ich schreibe niemand etwas vor. Das kann ich auch garnicht. Aber ich verurteile das Verhalten einfach, weils es bar jeder Vernuft ist. Ihr bestellt Ware zu überteuerten Preise ohne zu Wissen was die Ware letzendlich kann.
Das euch das selber nicht zu dumm ist wundert mich wirklich.

Dann warte doch einfach, anstatt immer wieder diese Neiddebatte anzufachen. Laß Nvidia die Early Adopters abschöpfen, freu Dich, daß Du nicht so viel bezahlst, wenn Du sie Dir später kaufst? Du tust ja gerade so, als ob Dein Leben von günstigen GKs abhängt. Meine Güte, komm mal wieder in die Spur, das ist nur eine blöde Grafikkarte fürs Spielen. :rolleyes:

Wird es dir langsam nicht langweilig mit dem Neid? Ich bedauere dich eher für deine Kaufentscheidung, anstatt dich zu beneiden...
Die letzte Generation hat gezeigt das es so nicht funktioniert. Man wird über die ganze Generation hinweg diese Preise bezahlen unter Umständen sogar noch mehr.

Klar mache ich das, Cod AW2 gabs mal ein paar kritische Stellen, und da habe ich trotz 4k mit 1080p gespielt, weils einfach flüssiger lief. Grafisch habe ich da nichts vermißt, ebenso mal bei der FC-Reihe, wenn die Performance wirklich in die Knie ging. Auflösung vor Details. Ganz zu schweigen von so was wie X3, weil man sonst die Schriften in 4k nicht mehr lesen konnte.

Ernsthaft? Du spielst auf einem TFT nicht in nativer Auflösung? Ist dir Bildqualität wirklich so scheiss egal? Krass.

Das ist doch nicht absurd! Oder fährst Du im Straßenverkehr auch mit 200 Sachen, weil Du sonst Deinen Wagen unterforderst? :rolleyes:
Ich weiß ja nicht, wie lange Du schon spielst, aber Auflösungen und Details zu reduzieren ist das gängigste Mittel, wenn Du mehr FPS brauchst oder willst. Ich verstehe nicht, warum Du Dich sträubst.
Natürlich ist das absurd. Wozu kaufst du dir denn die beste tollste und schnellste Grafikkarte? Um nachher Auflösung und Details zu reduzieren? Seems legit.... :freak:
Was für ein Unsinn.
Und der Autovergelich hinkt. Fahr ich permanent mit 200mk/h durch die Gegend, gefährde ich mich und andere Menschen, daher mache ich das nicht.

Aber ja, ich fahre die Autos in der Regel aus. Wenn ich 350PS habe, will ich die auch nutzen. Für in der Stadt rumgurken brauch ich so ein Auto nicht und würde es mir auch nicht kaufen.
Absurdere Argumente hast du nicht?

MasterElwood
2018-08-28, 13:09:28
Es ist doch Nvidias Entscheidung gewesen den Chip wegen RT so aufzublasen obwohl die Technik noch in den Kinderschuhen steckt. Mehr noch sie versuchen die Kosten auch auf RTX 2070 und RTX 2080 Nutzer abzuwälzen die vorraussichtlich noch nicht mal einen Nutzen davon haben werden weil schlicht die Power dafür fehlt. Nvidia versucht mit RT einen Bedarf zu erfinden der so gar nicht da war und wälzt die Kosten 1 zu1 auf den Kunden ab.

Early Adopters zahlen ÜBERALL und IMMER für die Entwicklung mit! Das is doch jetzt bitte nix neues. :facepalm:


PS: Bin ich der Einzige der sich wünscht dass wie die Diskussion in "Preis" und "Technik" aufteilen? Ich kann das Ganze "zu teuer!" Qua-qua-qua nicht mehr hören. So als ob sie jemand ZWINGEN würde die Dinger zu kaufen und sie das RECHT darauf hätten den Preis zu bestimmen :freak:

Troyan
2018-08-28, 13:09:43
Klar, der Kunde ist böse, wenn die AMD Produkte technisch veraltet und nicht konkurrenzfähig sind. Er war auch schuld, dass AMD 9 Monate für vernünftige Treiber benötigte, 300W braucht, um mit 150W Karten mithalten zu können, 4GB als "mehr als 12GB" versucht hat zu verkaufen und mit Polaris und Vega zwei Reinfälle par excellence hingelegt hat.

Schuld ist nicht der böse Kunde, sondern eine Firma, die seit Jahren keinen Fortschritt bringt und sich auf den Konsolendeals ausgeruht hat.

PHuV
2018-08-28, 13:16:12
Nvidia-KI generiert fotorealistische Videos (https://www.heise.de/newsticker/meldung/Nvidia-KI-generiert-fotorealistische-Videos-4146569.html?wt_mc=rss.ho.beitrag.atom)

sChRaNzA
2018-08-28, 13:17:41
Für mich ist, Stand jetzt, bei diesen Preisen auch Schluss. High End Grafikkarten haben mich schon immer fasziniert,aber die Preise sind es mir nicht mehr wert. Dann wird es Upgrades nur noch alle paar Jahre geben, wenn der Preis passt. Deswegen werden die Karten ja nicht langsamer, nur weil es deren Nachfolger gibt.

Im Moment hocke ich eh lieber gemütlich auf der Couch vor der Konsole.

Die Technik interessiert mich schon, ich kann sie mir schlichtweg nur einfach nicht mehr leisten.

kruemelmonster
2018-08-28, 13:17:49
Meine Güte, dermaßen viel Mimimi hier. Neue Technologien hat man als Early Adopter schon immer mitbezahlt und vllt im 3DMark eine Anwendung dafür gesehen. T&L auf der GF1 hat man mitbezahlt, die PS1.4 der Radeon 8500, den DX10-Ballast bei den 8600er Karten... die Liste ließe sich ewig fortsetzen. Jetzt sind es halt die Tensor- und RT-Cores, die in der ersten Generation wohl hauptsächlich Leerlauf haben werden. Und wenn die Spiele diese Cores ausreichend fordern werden sind wir mindestens eine Hardware-Generation weiter, und eine popelige 2080 dafür wiederum zu langsam.

Same procedure as every year.

<- bleibt erstmal bei seiner 1070.

unl34shed
2018-08-28, 13:19:28
Dir ist klar, dass die Entwicklung und Produktion der GPUs ebenfalls Geld kostet? Dir ist klar, dass das Ökosystem nicht nur aus den Transistoren, dem PCB und dem Speicher besteht?

Turing ist 60% größer als Pascal. Alleine rein auf die Produktionskosten des Dies gemünzt, müsste er dem Endkunden doppelt soviel Kosten, um auf die selbe Marge zu kommen.

Die Rechnung hätte ich gerne mal gesehen...

MiamiNice
2018-08-28, 13:20:39
IMGTEC, ARM mit Mali, Qualcomm... haben alle Patente und geben somit die Möglichkeit in den Markt einzutreten.


Sorry falls ich dumm frage aber Du listest mobile GPUs. Haben die das selbe Featureset wie Desktop Grafikkarten? Ich kann mir nicht vorstellen das eine von denen z.b. Direkt X unterstützt. Meines Wissen nach können nur zwei Hersteller ziemlich unabhängig Desktop Grafikkarten für Windows Gaming PCs herstellen. Das wären NV und AMD. Intel kann das, so weit ich weiß, nur weil sie ein Patentabkommen mit NV haben.

Es ist, so dachte ich immer, gar nicht möglich Grafikkarten für PC Spieler zu bauen ohne irgendein Patent von NV oder AMD zu verletzen.

yamo
2018-08-28, 13:20:59
Sehe ich ganz genauso!
Warum einige sich so extrem von Nvidia auf den Schlips getreten fühlen verstehe ich nicht. Na dann ist diese Generation für den Gamer halt keine Offenbarung und sehr teuer. Kann man auch mal verschmerzen zumal die Gründe warum Nvidia das trotzdem so angeht ja auf der Hand liegen und wirtschaftlich Sinn machen. Die wollen auch jenseits der Zocker Fraktion Märkte bedienen und irgendwann werden auch wir ernsthaft von RT profitieren können...

Das hoffe ich auch. Die Preisgestaltung und Speicherausstattung, insbesondere bei der 2080ti sind schon sehr frech. Mir gefiel die nüchterne Analyse von Angiesan. Ich muß mich leider auch als Konsum-Idiot entlarven:
Habe die 2080ti sc von Evga vorbestellt, dazu den Alphacool WK.
Nüchtern betrachtet ist das völliger Irrsin:freak:
Für die Kohle kann man sich einen high-end PC zusammenstellen, nen LG 4k 65"+PS/Xbone kaufen usw.
Dumm für mich, daß ich letzten Monat meinen Autokredit vorzeitig abgelöst habe und das Sparkonto durch die Ti richtig schrumpft:wink:
Nun denn, ich bin total neugierig auf die neuen Techniken und war schon immer GraKa-affektiv. Zum Glück habe ich noch meinen BenQ 1080p@120Hz als 2. Monitor:freak:
Warum ich das (schweren Herzens) mache?
Bevor die 1080 rauskam hatte ich ein 970 sli setup, eine Karte verreckte dann.
1080 bestellt und mit Mod-Bios läuft sie dann unter H2O 2050MHz.
Ein Sidegrade zur 2080 kommt nicht in Frage.
Natürlich ist es dumm, soviel Geld für eine Platine rauszublasen und NV in ihrer Preisgestaltung zu bestärken.

Mir tut´s (finanziell) im Herzen weh, aber ich freue mich auch.
Wenn das Teil suckt, geht´s zurück.
Speziell bin ich auf DLSS gespannt.

dargo
2018-08-28, 13:21:43
Ich hoffe das ist kein Fake.
https://wccftech.com/cyberpunk-2077-nvidia-rtx-hairworks/

Danke Nvidia für DX12 oder Vulkan. :up: Hatte schon etwas Bedenken, dass dieses Game noch mit der Steinzeit-API kommt.

MiamiNice
2018-08-28, 13:25:13
Ich hoffe das ist kein Fake.
https://wccftech.com/cyberpunk-2077-nvidia-rtx-hairworks/

Danke Nvidia für DX12 oder Vulkan. :up: Hatte schon etwas Bedenken, dass dieses Game noch mit der Steinzeit-API kommt.

Was die meisten jubeln lässt, lässt eine Minderheit gleich massiv aufschreien.

3,2,1 Flame on ;D

Ich finds btw. auch prall. Gogo NV.

Troyan
2018-08-28, 13:26:27
Sorry falls ich dumm frage aber Du listest mobile GPUs. Haben die das selbe Featureset wie Desktop Grafikkarten? Ich kann mir nicht vorstellen das eine von denen z.b. Direkt X unterstützt. Meines Wissen nach können nur zwei Hersteller ziemlich unabhängig Desktop Grafikkarten für Windows Gaming PCs herstellen. Das wären NV und AMD. Intel kann das, so weit ich weiß, nur weil sie ein Patentabkommen mit NV haben.

Es ist, so dachte ich immer, gar nicht möglich Grafikkarten für PC Spieler zu bauen ohne irgendein Patent von NV oder AMD zu verletzen.

Alle drei haben Patente. Außerdem unterstützen alle drei mit ihrer IP auch Vulkan. ARM und IMGTEC lizenzieren ihre Technik. Es kann also jeder sich seine eigene GPU bauen und per PCIe anbinden.

Rancor
2018-08-28, 13:27:33
Was die meisten jubeln lässt, lässt eine Minderheit gleich massiv aufschreien.

3,2,1 Flame on ;D

Ich finds btw. auch prall. Gogo NV.

Mir ist es egal :D Ich kauf das Game so oder so :biggrin:

Calypso
2018-08-28, 13:28:15
Klar, der Kunde ist böse, wenn die AMD Produkte technisch veraltet und nicht konkurrenzfähig sind. Er war auch schuld, dass AMD 9 Monate für vernünftige Treiber benötigte, 300W braucht, um mit 150W Karten mithalten zu können, 4GB als "mehr als 12GB" versucht hat zu verkaufen und mit Polaris und Vega zwei Reinfälle par excellence hingelegt hat.

Schuld ist nicht der böse Kunde, sondern eine Firma, die seit Jahren keinen Fortschritt bringt und sich auf den Konsolendeals ausgeruht hat.

1. Lesen
2. Denken
3. Antworten


@ 3DCenter - wieso gibts für gewisse Personen keine Sperren? Weil wir im Nvidia-Thread sind? Den Thread hier einfach mal 2 Wochen dicht machen würde vielleicht helfen.

Troyan
2018-08-28, 13:32:44
Die Rechnung hätte ich gerne mal gesehen...

60% größerer Die heißt minimum auch 37,5% weniger Dies vom Wafer. Dazu kommen die Ausfälle durch Fehler und den entsprechenden Rändern. Es werden also fast nur 50% an nutzbaren Turing Dies gegenüber Pascal übrig bleiben. Der Rest ist simple Mathematik, z.B:
GP104: $30 (simple Zahl) * 1,6 (NV Marge) * 1,2 (Zwischenhändler A) * 1,2 (Zwischenhändler B) = $69,12
TU104: $60 * 1,6 * 1,2 * 1,2 = 138,12

Aus $30 Unterschied werden am Ende der Kette plötzlich $69 Sind ja eher alleine für den Chip. Je länger die Kette wird, umso höher der Unterschied.

PHuV
2018-08-28, 13:36:32
Du weisst überhaupt nicht wo und wie ich mich sozial engagiere.
Ich schreibe niemand etwas vor. Das kann ich auch garnicht. Aber ich verurteile das Verhalten einfach, weils es bar jeder Vernuft ist. Ihr bestellt Ware zu überteuerten Preise ohne zu Wissen was die Ware letzendlich kann.
Das euch das selber nicht zu dumm ist wundert mich wirklich.
Wo ist das mit dem Fernabgabegesetz dumm? Die Käufer und Vorbesteller kaufen das alle vermutlich online. Wo ist da das Risiko? :confused::freak: Wenn die Karte nix ist, geht sie nach ein paar Tagen wieder zurück. Risiko liegt doch bei Nivida, nicht bei mir und den Vorbestellern. :confused:

Kapierst Du das nicht? Wenn Nvidia wirklich so einen Mist abliefern sollte, wie alle hier behaupten, werden die Karten reihenweise zurückgehen, und Nvidia hat einen Denkzettel verpaßt bekommen. So macht straft man spürbar einen Hersteller ab, und das war auch einer der Gründe, direkt bei Nvidia zu bestellen.

Die letzte Generation hat gezeigt das es so nicht funktioniert. Man wird über die ganze Generation hinweg diese Preise bezahlen unter Umständen sogar noch mehr.
Erstmal haben Dir zig Leute gezeigt, daß die Preise sich unwesentlich geändert haben, und Du ignorierst es dauernd. Pascal ist eine gute Generation gewesen, und das die Preise so hochschossen lag auch klar am Miningboom. Die AMD-Karten sind hier auch teuerer geworden.

Ernsthaft? Du spielst auf einem TFT nicht in nativer Auflösung? Ist dir Bildqualität wirklich so scheiss egal? Krass.
Genausowenig wie ich mit 32Bit/192 KHz im Studio aufnehme, obwohl das ginge. Ich bin nicht so ein Fanatiker wie Du, ich hänge die Auflösung und Qualität von Spiel und vom Bedürfnis ab. In meinem unreflektieren Konsumverhalten und Dekadenz spiele ich natürlich mit 2 verschiedenen Monitoren (UHD 40" und WQHD mit 27", G-Sync und 144 Hz), je nach Spiel. :freak: Stell Dir mal vor, ich habe mir für 800 € eine Monitor nur fürs PUBG spielen gekauft. Wenn ich daran denke, daß ich mehrfach in der Woche damit fast latenzfrei spiele und Spaß habe, hat sich die Investition für mich wirklich gelohnt. Und vorher nur mit VA und mäßigen Latenzen zu spielen, ist genauso ok.

In PUBG spiele ich auf alles LOW bis auf Weitsicht und AA, damit ich mehr FPS habe, auf einem 27" mit 2560x1440 mit G-Sync und 144 Hz.
In W3 spiele ich in UHD reduziert, so daß ich noch auf über 50 FPS komme.
In CoD AW2 habe ich alles höchste Stufe, aber FHD, weils sich besser spielte.
Bei Strategiespielen ist das Geruckel nicht so wild wie bei AoS, da alles nicht höchste Stufe, da macht UHD sehr wohl was aus, da mehr angezeigte Fläche.

Wenn man natürlich eine Auflösung wählt, die nicht zur nativen TFT-Auflösung passen, sieht das häßlich aus. Aber UHD (4xFHD) und FHD paßt optimal, man sieht wirklich wenig Unterschied, es muß wenig interpoliert werden (genau 4 Pixel auf einen).

Natürlich ist das absurd. Wozu kaufst du dir denn die beste tollste und schnellste Grafikkarte? Um nachher Auflösung und Details zu reduzieren? Seems legit.... :freak:
Was für ein Unsinn.
Echt jetzt? :facepalm: Du hat wirklich bis heute nicht verstanden, daß die Spiele-Engines seit fast 30 Jahren mit den Einstellungen immer mehr liefern können als die Hardware hergibt?

Rancor
2018-08-28, 13:39:44
Echt jetzt? :facepalm: Du hat wirklich bis heute nicht verstanden, daß die Spiele-Engines seit fast 30 Jahren mit den Einstellungen immer mehr liefern können als die Hardware hergibt?

Ja in Ausnahmetiteln ist das möglicherweise so. Aber sicher nicht die Regel.

Wenn ich mir ne neue Grafikkarte gekauft habe, konnte ich zudem Zeitpunkt immer alles @ MAX @ Meine native Monitorauflösung spielen. Und nichts weniger erwarte ich von der aktuellen Generation. Kann Sie das nicht leisten, ist sie einfach Fail. Klingt komisch ist aber so ;)

Zum Rest sage ich nichts mehr, weil wir das schon 100 mal durchgekauft haben und es mir einfach zu dumm wird.
Da kann ich nämlich auch mit Jensen persönlich sprechen, weniger biased ist der nämlich auch nicht :D

pilzsammler2002
2018-08-28, 13:47:02
Ich hoffe das ist kein Fake.
https://wccftech.com/cyberpunk-2077-nvidia-rtx-hairworks/

Danke Nvidia für DX12 oder Vulkan. :up: Hatte schon etwas Bedenken, dass dieses Game noch mit der Steinzeit-API kommt.

Ist für mich nen zweischneidiges Schwert...
Auf der einen Seite LL-Api auf der anderen wie erwartet und gesehen Gameworks ;(

Aus Witcher 3 wohl nix gelernt...

PHuV
2018-08-28, 14:02:33
Wenn ich mir ne neue Grafikkarte gekauft habe konnte ich immer alles @ MAX @ Meine native Monitorauflösung spielen. Und nichts weniger erwarte ich von der aktuellen Generation. Kann Sie das nicht leisten, ist sie einfach Fail. Klingt komisch ist aber so ;)
Mit was für Auflösungen hast Du denn vorher gespielt? :confused: Seit ich Computer spiele, konnte ich zu keinem Zeitpunkt aktuelle Spiele jemals in der maximal möglichen Auflösung mit allen Details spielen. Bei Crysis hats fast 7 Jahre gedauert, bis man alle Details auf höchste Stufe ohne FPS-Verlust spielen konnte. Daher kann ich das überhaupt nicht nachvollziehen. Da kann ich Dir auf Anhieb zig Spiele nennen:

Ryse: Son of Rome (mit frischen erschienen Maxwell auf GTX 980 nicht in UHD und allen Details spielbar)
CoDs in diversen Varianten
FarCry-Serie
Stalker-Reihe (läuft auch jetzt erst performant und flüssig, als ich es testweise vor einigen Monaten installierte)
Metro-Reihe

Die meisten Spiele hier kann/konnte man erst 2-3 GK-Generationen später auf höchsten Details spielen.

Liquaron
2018-08-28, 14:08:51
Mit was für Auflösungen hast Du denn vorher gespielt? :confused: Seit ich Computer spiele, konnte ich zu keinem Zeitpunkt aktuelle Spiele jemals in der maximal möglichen Auflösung mit allen Details spielen. Bei Crysis hats fast 7 Jahre gedauert, bis man alle Details auf höchste Stufe ohne FPS-Verlust spielen konnte. Daher kann ich das überhaupt nicht nachvollziehen. Da kann ich Dir auf Anhieb zig Spiele nennen:

Ryse: Son of Rome (mit frischen erschienen Maxwell auf GTX 980 nicht in UHD und allen Details spielbar)
CoDs in diversen Varianten
FarCry-Serie
Stalker-Reihe (läuft auch jetzt erst performant und flüssig, als ich es testweise vor einigen Monaten installierte)
Metro-Reihe

Die meisten Spiele hier kann/konnte man erst 2-3 GK-Generationen später auf höchsten Details spielen.

Dabei sollte man jedoch erwähnen, dass das bei einigen der genannten Spiele nicht unbedingt an der überragenden Optik lag, sondern einfach crappy programmiert war (Cod, Stalker usw.).

Rancor
2018-08-28, 14:10:57
Mit was für Auflösungen hast Du denn vorher gespielt? :confused: Seit ich Computer spiele, konnte ich zu keinem Zeitpunkt aktuelle Spiele jemals in der maximal möglichen Auflösung mit allen Details spielen. Bei Crysis hats fast 7 Jahre gedauert, bis man alle Details auf höchste Stufe ohne FPS-Verlust spielen konnte. Daher kann ich das überhaupt nicht nachvollziehen. Da kann ich Dir auf Anhieb zig Spiele nennen:

Ryse: Son of Rome (mit frischen erschienen Maxwell auf GTX 980 nicht in UHD und allen Details spielbar)
CoDs in diversen Varianten
FarCry-Serie
Stalker-Reihe (läuft auch jetzt erst performant und flüssig, als ich es testweise vor einigen Monaten installierte)
Metro-Reihe

Die meisten Spiele hier kann/konnte man erst 2-3 GK-Generationen später auf höchsten Details spielen.

Bis vor einem Jahr Full HD, jetzt WQHD. Vor Full HD ( hatte ich aber sicher 5 oder 6 Jahre ) 1680x1050.
Und jedes Spiel konnte ich mit meinen Grafikkarten maxen, als ich sie gekauft habe. Wenn ich mir jetzt eine 2080 kaufe erwarte ich dasselbe in WQHD. Aber ich sehe schon, das das mit @MAX und Raytracing nichts wird.

Ich bevorzuge zwar Details und FPS vor Auflösung, aber ich würde trotzdem niemals unter der nativen Auflösung meines Monitors spielen.
4k kommt dann wenn die Grafikkarten das ohne Einschränkungen beherrschen.

Troyan
2018-08-28, 14:11:56
Monster Hunter World kann man auch nicht in 4K@60FPS mit allen Effekten spielen. Also auch hier müsste man deutliche Abstriche mit seiner 700€ GTX1080TI machen. Und eine 500€ GTX1080 schafft auch nur mit ach und krach die 60FPS in 1080p...

Rancor
2018-08-28, 14:14:43
Monster Hunter World kann man auch nicht in 4K@60FPS mit allen Effekten spielen. Also auch hier müsste man deutliche Abstriche mit seiner 700€ GTX1080TI machen. Und eine 500€ GTX1080 schafft auch nur mit ach und krach die 60FPS in 1080p...

@WQHD muss man das mit einer 1080TI nicht

Aber ich spiele das auch nicht auf dem PC.

Abgesehen davon kam Monster Hunter World auch wesentlich später auf den Markt als die 1080TI.
Würde ich mir jetzt eine VGA für 1300€ kaufen und könnte das dann immer noch nicht @ 60FPS @4k @ MAX Settings spielen, würde mich das derbe ankotzen, wenn ich einen 4k Monitor hätte.

SKYNET
2018-08-28, 14:24:27
Im Schnitt geht GP104 etwas höher als GP102 nach meiner Empfindung. Die meisten GP102 schaffen 20xx MHz (nach dem was ich so gesehen habe) und die GP104 eher 21xx MHz.

Verwundert auch nicht, da weniger Leistungsaufnahme und weniger potenziell limitierende kritische Pfade.

kann ich "bestätigen", 1070 & 1080 liefen beide über 2100MHz, die Ti weigert sich auch nur die 2000Mhz zu überschreiten... :mad:

MiamiNice
2018-08-28, 14:26:14
Bis vor einem Jahr Full HD, jetzt WQHD. Vor Full HD ( hatte ich aber sicher 5 oder 6 Jahre ) 1680x1050.
Und jedes Spiel konnte ich mit meinen Grafikkarten maxen, als ich sie gekauft habe. Wenn ich mir jetzt eine 2080 kaufe erwarte ich dasselbe in WQHD. Aber ich sehe schon, das das mit @MAX und Raytracing nichts wird.

Ich bevorzuge zwar Details und FPS vor Auflösung, aber ich würde trotzdem niemals unter der nativen Auflösung meines Monitors spielen.
4k kommt dann wenn die Grafikkarten das ohne Einschränkungen beherrschen.

Geh mal bitte her und erechne für alle Bildschirme die Du hattest die Anzahl der Pixel. Das selbe machst du mal mit 4 und 8k. Jetzt kannst Du % Zahlen dazu schreiben, wie viel % mehr Pixel hat z.b. 4k ggü. WQHD.
Dann gehst her und holst Dir eine Tabelle wieviel % Mehrleistung es pro Grafikgen in der Vergangenheit gab.
Vergleich mal und poste was Dir auffällt :)

dargo
2018-08-28, 14:29:54
Ist für mich nen zweischneidiges Schwert...
Auf der einen Seite LL-Api auf der anderen wie erwartet und gesehen Gameworks ;(

Aus Witcher 3 wohl nix gelernt...
Sehe ich nicht so eng, sowohl RT als auch Hairworks sind optional.

pilzsammler2002
2018-08-28, 14:30:46
Sehe ich nicht so eng, sowohl RT als auch Hairworks sind optional.
Das schon, aber man erinnere sich an Crysis 2 Tessellation :D

drdope
2018-08-28, 14:31:36
Geh mal bitte her und erechne für alle Bildschirme die Du hattest die Anzahl der Pixel. Das selbe machst du mal mit 4 und 8k. Jetzt kannst Du % Zahlen dazu schreiben, wie viel % mehr Pixel hat z.b. 4k ggü. WQHD.
Dann gehst her und holst Dir eine Tabelle wieviel % Mehrleistung es pro Grafikgen in der Vergangenheit gab.
Vergleich mal und poste was Dir auffällt :)

--> https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11778889&postcount=6747
Hatte ich auch schon mal erwähnt, scheint aber niemanden zu interessieren...
;)

Rancor
2018-08-28, 14:32:31
Geh mal bitte her und erechne für alle Bildschirme die Du hattest die Anzahl der Pixel. Das selbe machst du mal mit 4 und 8k. Jetzt kannst Du % Zahlen dazu schreiben, wie viel % mehr Pixel hat z.b. 4k ggü. WQHD.
Dann gehst her und holst Dir eine Tabelle wieviel % Mehrleistung es pro Grafikgen in der Vergangenheit gab.
Vergleich mal und poste was Dir auffällt :)

Daher habe ich mir ja auch nur Monitore geholt, mit denen die aktuellen Grafikkarten jeweils klar kamen.
Ich wäre nie auf die Idee gekommen mir vor 4 oder 5 Jahren nen 4k Monitor zu holen, weil die Karten damals einfach zu schwach für diese Auflösung waren/sind.

Im Jahr 2018 kann aber ja von einer neuen VGA - Generation ja wohl erwarten, das sie wenigsten Monitore mit WQHD Auflöung ausreichend mit Bildern @ Max Settings beliefern kann ;)

PHuV
2018-08-28, 14:34:47
Bis vor einem Jahr Full HD, jetzt WQHD. Vor Full HD ( hatte ich aber sicher 5 oder 6 Jahre ) 1680x1050.
Das ist jetzt nicht böse gemeint, Du hast nichtmal UHD, und willst mir erklären, wie der Unterschied von FHD zu UHD aussieht? :rolleyes: Von Deiner Signatur mal ganz zu schweigen. Da muß ich Dir leider mal glatt wenig praktische Erfahrungen und Ahnungslosigkeit attestieren. Ich war ja auch einer der ersten hier, die mit einem UHD-Monitor und G-Sync spielten, und sogar einer der wenigen hier mit einem echten 4k-Monitor. :cool:

Um mal wieder die Hand zu reichen: Glaub mir, UHD ist zwar nett, bringt aber nicht immer und überall etwas. Und dann ist die Frage, was gilt als Referenzauflösung? Ich habe seit 2007 mit 30" 2560x1600 angefangen, wo die meisten gerade noch mit 1024x768 spielten. Jetzt könnte man schon beispielsweise 5120x2880 als die maximale Auflösung als "Referenz" annehmen. Daher wirst Du zu keinem Zeitpunkt im PC-Bereich schaffen, eine Hardware zu einem Spiel mit einer entsprechend aktuellen Engine zu liefern. Fast alle Engines sind quasi überdimensioniert mit Einstellungen, die bisher jede neue Hardware schnell an Limits bringt. Daher meine Frage, wie lange Du schon per Computer spielst. Bei mir sind das 36 Jahre (wenn man 64er als Computer sieht), und nach meinen Erinnerungen gabs nirgendwo mal neue HW, die auf Anhieb das optimalste Spielererlebnis lieferte. Erinnert sich jemand beispielsweise an Wing Commander 3? :freak: Nagelneuer Pentium mit 166 MHz, 32 MB RAM, und ruckel ruckel ruckel beim Einfliegen in die Station. Nur die Auflösung weiß ich gar nicht mehr.

Troyan
2018-08-28, 14:35:50
--> https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11778889&postcount=6747
Hatte ich auch schon mal erwähnt, scheint aber niemanden zu interessieren...
;)

Richtig. Viele heutige Probleme müssen über andere Wege gelöst werden. Einfach sinnbefreit per Brute-Force Pixel zu berechnen, wird nicht mehr länger gehen. DLSS ist ein Ansatz, wo man mit geringem Die-Platzeinsatz ein entsprechendes Ergebnis erzielen könnte. TensorCores sind spottbillig im Vergleich zu weiteren kompletten SM-Einheiten.

SKYNET
2018-08-28, 14:37:05
Klar, der Kunde ist böse, wenn die AMD Produkte technisch veraltet und nicht konkurrenzfähig sind. Er war auch schuld, dass AMD 9 Monate für vernünftige Treiber benötigte, 300W braucht, um mit 150W Karten mithalten zu können, 4GB als "mehr als 12GB" versucht hat zu verkaufen und mit Polaris und Vega zwei Reinfälle par excellence hingelegt hat.

Schuld ist nicht der böse Kunde, sondern eine Firma, die seit Jahren keinen Fortschritt bringt und sich auf den Konsolendeals ausgeruht hat.


sorry, selbst die custom vegas zeihen max 260W aus der dose, und der gegenspieler(nehmen wir auch mal ne custom) die 1080 220W, macht nur noch 40W differenz, oder auch 18%... und nicht wie du darstellen willst 150W bzw. 100% :freak: und wenns wir weiter treiben: ne vega lässt sich besser undervolten als pascal, wenn man da bei beiden das maximum rausholt liegt gleichstand an.

und polaris und vega als reinfälle zu bezeichnen... ehhh... also polaris hält seine widersacher(1050/Ti & 1060) gut unter kontrolle, genau wie Vega(1070 & 1080)...

also, komm, geh woanders trollen :P

drdope
2018-08-28, 14:39:19
Erinnert sich jemand beispielsweise an Wing Commander 3? :freak: Nagelneuer Pentium mit 166 MHz, 32 MB RAM, und ruckel ruckel ruckel beim Einfliegen in die Station.

Oder WC2...
--> http://www.kultboy.com/index.php?site=t&id=12684&s=2

Damals hatten HDDs im PC iirc so im Schnitt 40MB...

Rancor
2018-08-28, 14:42:47
Das ist jetzt nicht böse gemeint, Du hast nichtmal UHD, und willst mir erklären, wie der Unterschied von FHD zu UHD aussieht? :rolleyes: Von Deiner Signatur mal ganz zu schweigen. Da muß ich Dir leider mal glatt wenig praktische Erfahrungen und Ahnungslosigkeit attestieren. Ich war ja auch einer der ersten hier, die mit einem UHD-Monitor und G-Sync spielten, und sogar einer der wenigen hier mit einem echten 4k-Monitor. :cool:

Junge ich habe aber nen 4k TV und spiele da auch ab und zu drauf. Meine Güte. Du regst mich langsam echt auf mit deinem Gelaber.
Abgesehen davon sieht man schon auf nem WQHD Monitor nen deutlichen Unterschied zu Full HD.

Und wenn du ernsthaft kein Unterschied zwischen UHD und FHD siehst, dann geh bitte wirklich zum Augenarzt...

MiamiNice
2018-08-28, 14:44:34
Daher habe ich mir ja auch nur Monitore geholt, mit denen die aktuellen Grafikkarten jeweils klar kamen.
Ich wäre nie auf die Idee gekommen mir vor 4 oder 5 Jahren nen 4k Monitor zu holen, weil die Karten damals einfach zu schwach für diese Auflösung waren/sind.

Im Jahr 2018 kann aber ja von einer neuen VGA - Generation ja wohl erwarten, das sie wenigsten Monitore mit WQHD Auflöung ausreichend mit Bildern @ Max Settings beliefern kann ;)

Mh, wenn Du das doch alles weißt verstehe ich Deine Posts hier im Thread nicht. Du vertrittst hier einen Standpunkt den ich als Spieler absolut nicht nachvollziehen kann. Und wenn man Dich eingekreist hat, springst Du gefühlt zu einem anderem Punkt :biggrin:

Btw: Eine schnöde 1080 befeuert schon einen WQHD Schirm bestens. Du kommst jetzt wieder mit RTX Power reicht nicht für WQHD? Dann mein bester solltest Du endlich realisieren das die Geforce RTX nicht zu dem Zweck geschaffen worden ist RT Bild füllend zu rendern, sondern es geht hier um Effekte und um Verminderung des Rechenaufwands für die klassischen Einheiten.

"Echtes" RT wird wohl noch 5-10 Jahre dauern.

Und jetzt lass es bitte gut sein, Rancor :wink:

Savay
2018-08-28, 14:46:07
Das ist jetzt nicht böse gemeint, Du hast nichtmal UHD, und willst mir erklären, wie der Unterschied von FHD zu UHD aussieht?


Sorry...aber wenn man den Unterschied zwischen FHD und UHD nicht sieht sollte man es mit UHD einfach sein lassen!! :freak:

Offensichtlich hängt die Einschätzung wie viel es bringt da aber extremst vom Visus ab...und der ist bei jedem nunmal Unterschiedlich (Sehhilfen hin oder her), weshalb sich das sowieso einfach überhaupt nicht pauschalisieren lässt.

BTW für mich wäre in FHD spielen absolut keine Option...egal wie gut das Upsampling funktioniert...auf Armlänge@27"+ kann es in meinem Fall dafür gar nicht gut genug sein.
Deswegen wird dieses RT Gedöns für mich ebenfalls erst dann interessant wenn es wenigstens ab 1440p Renderauflösung spielbar (40-50FPS++) läuft...und die entsprechende GPU gleichzeitig kein vollkommen unverschämtes Preis verlangt wird.

Screemer
2018-08-28, 14:48:07
Oder WC2...
--> http://www.kultboy.com/index.php?site=t&id=12684&s=2

Damals hatten HDDs im PC iirc so im Schnitt 40MB...
damals wurde sowas noch von der presse kritisiert. heute ist man neidisch auf die die sichs leisten können, wenn man sowas kritisiert.

Rancor
2018-08-28, 14:50:01
Mh, wenn Du das doch alles weißt verstehe ich Deine Posts hier im Thread nicht. Du vertrittst hier einen Standpunkt den ich als Spieler absolut nicht nachvollziehen kann. Und wenn man Dich eingekreist hat, springst Du gefühlt zu einem anderem Punkt :biggrin:

Wat? Was verstehst du nicht daran? Gerade du solltest das verstehen. Du verlangst doch immer High FPS, möglichst hohe Auflöung und Max Settings. Das wirst du mit der RTX wohl nicht bekommen, sobald es an komplexere Raytracing Effekte ala Echtzeitreflexionen etc. geht. Wenn ich jetzt Full HD @ Sub 60 FPS am PC gehen soll, damit ich nen paar Raytracing effekt sehe, dann kann ich auch weiterhin an der Konsole spielen.

Wenn ich mir eine Grafikkarte kaufe, dann erwarte ich, das sie mir für die aktuellen Spiele, in meiner Auflösung @ MAX Settings ausreichend Frames liefert.

Btw: Eine schnöde 1080 befeuert schon einen WQHD Schirm bestens. Du kommst jetzt wieder mit RTX Power reicht nicht für WQHD? Dann mein bester solltest Du endlich realisieren das die Geforce RTX nicht zu dem Zweck geschaffen worden ist RT Bild füllend zu rendern, sondern es geht hier um Effekte und um Verminderung des Rechenaufwands für die klassischen Einheiten.

Ne 1080 befeuert nen scheiss in WQHD heute. Das reicht nicht. Das muss schon min ne 1080TI her.
RTX Power mit Raytracing reicht wohl nicht für WQHD. Ohne Raytracing brauch ich auch keine RTX.

DLSS muss man sehen wie die BQ live ist. Das ist der einzige Punkt der die RTX vor nem Desaster retten kann, wenn es ausreichend Spiele unterstützen.

Daredevil
2018-08-28, 14:55:53
Bis vor einem Jahr Full HD, jetzt WQHD. Vor Full HD ( hatte ich aber sicher 5 oder 6 Jahre ) 1680x1050.

1600x1200@100hz hatte ich auch schon vor 15 Jahren auf meinem 21" Monitor. Trotzdem konnte ich Jahrelang nicht alles in Max spielen, nicht mal mit ner 9800pro.
Heute würde das ebenfalls nicht gehen mit einer GTX1080, selbst wenn ich noch den Monitor von früher hätte.

Ex3cut3r
2018-08-28, 14:58:49
Ne 1080 befeuert nen scheiss in WQHD heute. Das reicht nicht. Das muss schon min ne 1080TI her.


Was? :facepalm:

Eine 1070 liefert schon in 10 AAA+ Titeln der letzen 2 Jahre stets über 60FPS in WQHD. Was laberst du für einen scheiß...ich habe eine 1070 für UWQHD (3440x1440) 2 Jahre benutzt, und hatte stets über 50-60 FPS mit OC. Ich kann mich eigentlich nur an ACO erinnern, wo die Bildrate mal unter 40 FPS war.

Blediator16
2018-08-28, 14:59:57
Der schlimmste Speku Thread seit vielen vielen Generationen :rolleyes:

MasterElwood
2018-08-28, 15:00:35
Ja in Ausnahmetiteln ist das möglicherweise so. Aber sicher nicht die Regel.

Wenn ich mir ne neue Grafikkarte gekauft habe, konnte ich zudem Zeitpunkt immer alles @ MAX @ Meine native Monitorauflösung spielen. Und nichts weniger erwarte ich von der aktuellen Generation. Kann Sie das nicht leisten, ist sie einfach Fail. Klingt komisch ist aber so ;)



Dann bist du immer eine Auflösung oder 2 hinter dem Möglichen - weil das geht seit 1440p und 4K gaaaanz sicher nimmer...

Rancor
2018-08-28, 15:01:36
Was? :facepalm:

Eine 1070 liefert schon in 10 AAA+ Titeln der letzen 2 Jahre stets über 60FPS in WQHD. Was laberst du für einen scheiß...ich habe eine 1070 für UWQHD (3440x1440) 2 Jahre benutzt, und hatte stets über 50-60 FPS mit OC. Ich kann mich eigentlich nur an ACO erinnern, wo die Bildrate mal unter 40 FPS war.

JA der letzten 2 Jahre. Ich rede von aktuellen Titeln, die jetzt kommen. Langsam wird es da eng.

Schon das neue COD gespielt? Da gewinnst du keinen Blumentopf mehr. Und 60 FPS sind doch auch nur das Minimum was man am PC haben will. Besser sind da eher 90+. In Destiny 2 schaffst du auch nicht immer über 60 FPS mit der Karte. Und ich bin mir ziemlich sicher, das das in BF V auch ganz eng wird.

Dann bist du immer eine Auflösung oder 2 hinter dem Möglichen - weil das geht seit 1440p und 4K gaaaanz sicher nimmer...
Das habe ich ja auch geschrieben.

PHuV
2018-08-28, 15:02:04
Sorry...aber wenn man den Unterschied zwischen FHD und UHD nicht sieht sollte man es mit UHD einfach sein lassen!! :freak:
Ich bestreite doch gar nicht, daß man hier einen Unterschied sieht? Meine Güte, wie gesagt, ich war einer der ersten hier mit UHD-Monitoren im PC-Bereich. Natürlich ist UHD super, gerade für Bildbearbeitung oder Strategiespiele, weil man mehr sieht. Aber trotzdem kann man die Frage stellen, ob es spielerische Vorteile bringt. Bei einem schnellen Egoshooter sind Details nicht so entscheidend, außer vielleicht für Entfernungen. PUBG spiele ich lieber mit WQHD als in UHD, dafür mehr FPS. W3 spiele ich mit UHD, aber eigene Test zeigen, daß mit in FHD nicht wesentlich mehr entgehen würde.
Was spricht denn dagegen, daß man seine Spielweise an die Auflösung anpasst? :confused:

Offensichtlich hängt die Einschätzung wie viel es bringt da aber extremst vom Visus ab...und der ist bei jedem nunmal Unterschiedlich (Sehhilfen hin oder her), weshalb sich das sowieso einfach überhaupt nicht pauschalisieren lässt.
Genau, um mehr gings doch gar nicht. Spielerisch mußte man schon immer Kompromisse machen, egal wo und wie. Daher verstehe ich das Argument von Rancor bei aller Liebe nicht. Ich hab nun mal 36 Jahre Computerspielen hinter mir, auch wenn er meint, ich labbere hier nur. :rolleyes: Das sind Erfahrungen. Entweder sind meine Erfahrungen getrübt und falsch erinnert, oder er liegt mit seinen Behauptungen falsch.
Oder WC2...
--> http://www.kultboy.com/index.php?site=t&id=12684&s=2

Damals hatten HDDs im PC iirc so im Schnitt 40MB...
Danke für diesen Link. Das zeigt mir eben, daß ich mir das nicht einbilde.

PHuV
2018-08-28, 15:05:49
JA der letzten 2 Jahre. Aber langsam wirds da eng. Schon das neue COD gespielt? Da gewinnst du keinen Blumentopf mehr. Und 60 FPS sind doch auch nur das Minimum was man am PC haben will. Besser sind da eher 90+.
Aber auch nur, wenn die Bildwiederholfrequenz des TFTs das auch hergibt. Da die meisten TFTS nur 60 Hz liefern, reicht das aus. 90 Hz ist wichtig für VR, aber selbst das haben doch nur wenige hier.

Ravenhearth
2018-08-28, 15:05:53
Was? :facepalm:

Eine 1070 liefert schon in 10 AAA+ Titeln der letzen 2 Jahre stets über 60FPS in WQHD. Was laberst du für einen scheiß...ich habe eine 1070 für UWQHD (3440x1440) 2 Jahre benutzt, und hatte stets über 50-60 FPS mit OC. Ich kann mich eigentlich nur an ACO erinnern, wo die Bildrate mal unter 40 FPS war.
Die forderndsten Spiele/Einstellungen laufen erst auf einer GTX 1080 mit stabilen (!) 60fps in 1080p, für 1440p muss da tatsächlich ne GTX 1080 Ti her. Sei das nun Ghost Recon Wildlands, AC Origins, TW3 mit Hairworks oder selbst GTA V auf max (ohne MSAA).

Rancor
2018-08-28, 15:08:55
Die forderndsten Spiele/Einstellungen laufen erst auf einer GTX 1080 mit stabilen (!) 60fps in 1080p, für 1440p muss da tatsächlich ne GTX 1080 Ti her. Sei das nun Ghost Recon Wildlands, AC Origins, TW3 mit Hairworks oder selbst GTA V auf max (ohne MSAA).

Danke!

Thunder99
2018-08-28, 15:09:44
Obwohl ich den Preis unverschämt finde gibt es endlich Fortschritte in der Grafik. DX12 war ja nicht daß, was man sich erhofft hat. DX12 brachte bei einer schwachen CPU mehr FPS als DX11 (insbesondere bei AMD) aber das war's. Neue Effekte? Fehlanzeige!

Jetzt muss sich RT nur durchsetzen, AMD mit vergleichbarer Hardware kommen und wir haben dann wieder normalisierte Preise ;) ;)

SKYNET
2018-08-28, 15:11:53
1600x1200@100hz hatte ich auch schon vor 15 Jahren auf meinem 21" Monitor. Trotzdem konnte ich Jahrelang nicht alles in Max spielen, nicht mal mit ner 9800pro.
Heute würde das ebenfalls nicht gehen mit einer GTX1080, selbst wenn ich noch den Monitor von früher hätte.

welches game sollte mit ner 1080 und in 1600*1200 nicht mit allen reglern auf rechts flüssig = 60fps+ laufen?

MiamiNice
2018-08-28, 15:12:36
RTX Power mit Raytracing reicht wohl nicht für WQHD. Ohne Raytracing brauch ich auch keine RTX.


Wir scheinen sehr unterschiedliche Vorstellungen zu haben.
Lassen wir das - führt zu nichts.

PHuV
2018-08-28, 15:20:49
Jahrelang glaubte man, der Flaschenhals liegt bei Spielen und Ruckeln im Nachladen, siehe Gothic 3. Nun haben wir sogar NVMe SSDs, und die Spiele ruckeln immer noch, weil eben das nicht die Ursache war. Ebenso mehr RAM.
Als Flaschenhälse haben wir nach wie vor CPU und GPU, verwendete APis, und supoptimale Programmierung.

drdope
2018-08-28, 15:21:44
damals wurde sowas noch von der presse kritisiert. heute ist man neidisch auf die die sichs leisten können, wenn man sowas kritisiert.

Was soll man auch bei der aktuellen Info-Lage kritisieren?
Außer ausgewählten Devs hat doch noch niemand eine Karte, oder?

Alle vorhanden Infos über die GPUs stammen aktuell aus dem Marketing von NV.
Momentan ist alles reine Spekulation...

Lurtz
2018-08-28, 15:22:23
Gamestar hat sich an einem Preisvergleich der letzten Geforce-Generationen versucht:
https://www.gamestar.de/artikel/steigende-preise-bei-nvidia-rtx-2080-ti2070-bis-gtx-580570-im-vergleich,3333987.html

Thunder99
2018-08-28, 15:23:28
Die Wahrheit liegt wohl dazwischen oder es kommt darauf an.

Nebenbei bekomme ich auf 1440p meine 1080Ti auf ca. 30fps. Auf die Einstellung kommt es darauf an. (WoWs mit SGSSAA aus 1440p)

Daredevil
2018-08-28, 15:26:35
welches game sollte mit ner 1080 und in 1600*1200 nicht mit allen reglern auf rechts flüssig = 60fps+ laufen?
Finalfantasy 15 z.B. :D
1600x1200 klingt wenig, hat aber fast die Pixelanzahl von FullHD. :)

Und da ich mit Full Settings und einer 1080ti schon Probleme hatte bei 25% Downsampling die 60fps zu halten, möchte ich das mal der 1080 ohne DS ebenfalls unterstellen.
Aber genug OT nun zu Steinzeitauflösungen.

PrinceGSC
2018-08-28, 15:28:37
Der schlimmste Speku Thread seit vielen vielen Generationen :rolleyes:

Ja da stimme ich dir zu, sowas hab ich seit Jahren nicht mehr gelesen.
Jeder meint er wäre der Profi und seine Meinung/Berechnung ist die einzige richtige.
Dabei zeigt sich doch das selbst die großen Zeitschriften und Seiten nur am rätseln sind weil einfach zu viele Variablen aktuell berücksichtigt werden müssen.

BigKid
2018-08-28, 15:30:49
Sorry...aber wenn man den Unterschied zwischen FHD und UHD nicht sieht sollte man es mit UHD einfach sein lassen!! :freak:

Offensichtlich hängt die Einschätzung wie viel es bringt da aber extremst vom Visus ab...und der ist bei jedem nunmal Unterschiedlich (Sehhilfen hin oder her), weshalb sich das sowieso einfach überhaupt nicht pauschalisieren lässt.

Oder zB schlicht von der Größe der Glotze und der Sitzentfernung. Ferner ist dann uU noch ein Upscaler im TV im Spiel sodaß bei Oberflächlicher Betrachtung durchaus kein Unterschied auffallen mag...

PHuV
2018-08-28, 15:32:21
Was ist eigentlich aktuell das Spiel/Engine mit den höchsten Anforderungen, bin da aktuell etwas außen vor (zuviel PUBG :redface:)? Far Cry 5 fand ich jetzt nicht so krass.

MorPheuZ
2018-08-28, 15:39:33
Ist der 3DMark leak hier schon bekannt?

Troyan
2018-08-28, 15:41:02
Ja, wurde heute morgen gepostet.

PHuV
2018-08-28, 15:44:20
Leider nur der Link, nicht das Bild:
https://cdn.wccftech.com/wp-content/uploads/2018/08/NVIDIA-GeForce-RTX-2080-TimeSpy-Benchmark-Leaked.png

Besser wäre es, wenn man mal den Vergleich bei identischem Kerntakt hätte.

MiamiNice
2018-08-28, 15:44:24
Gamestar hat sich an einem Preisvergleich der letzten Geforce-Generationen versucht:
https://www.gamestar.de/artikel/steigende-preise-bei-nvidia-rtx-2080-ti2070-bis-gtx-580570-im-vergleich,3333987.html

Imo nichts sagendes Geschreibsel mit einem absolut leeren Fazit um Klicks zu erhaschen.
Also genau das was Du auch auf allen anderen Tech Seiten lesen kannst ;D

Das sich da niemand aufregt ;D
Werbung ohne Ende, kaum Infos, absolut leeres Geschreibsel auf allen Webseiten und wir sollen zahlen indem wir uns diese "§$%"§$% Werbung rein fahren. Klickt man auf ein Video -> Werbung. Das klaut alles Lebenszeit.
Lebenszeit ist wertvoller als Geld! Lieber kaufe ich für 1300 eine Grafikkarte, als auch nur eine Sekunde meiner Lebenszeit mit Werbung zu verschwenden. Noch dazu mit Werbegeldern diese leere Geschreibsel zu unterstützen was sich Redakteur nennt. Dann lieber in Rahmen des Fernabsatzgesetzes ordern und selbst testen.

Darüber könnte ich mich so aufregen ...
GPU für 1300 lässt mich aber weitestgehend kalt ;D