PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 2080/Ti Review-Thread


Seiten : 1 2 3 4 [5] 6 7 8 9 10 11 12 13 14 15 16 17 18 19

Lowkey
2018-09-24, 13:39:59
Wirklich gespannt bin ich auf Tests mit MAX OC 1080Ti VS MAX OC 2080Ti
Eben das alte Beste gegen das neue Beste ;)


Raff sagte was von 40%

MiamiNice
2018-09-24, 13:44:28
Ihr solltet definitiv mal eine gegenüberstellung zwischen sozialen und ««unsozialen»» Unternehmen machen, aber dann im separaten Thread.^^

Es gibt keine soziale Unternehmen weil es per Definition das Ziel eines Unternehmen ist, Gewinn zu machen. Je größer Unternehmen werden desto gieriger und menschenverachtender werden sie.
Bei Unternehmen von sozial zu sprechen ist daher völlig sinnfrei. Generell wenn es in unserer gierigen und kapitalistischen Gesellschaft ums Geld geht, ist vorbei mit der Sozialität.
Der Mensch ist grundsätzlich erst mal schlecht und nur auf seinen Vorteil bedacht. Sozialität? Vielleicht auf dem Mars oder so ;)
Liste daher überflüssig.

Digidi
2018-09-24, 14:21:39
Es gibt keine soziale Unternehmen weil es per Definition das Ziel eines Unternehmen ist, Gewinn zu machen. Je größer Unternehmen werden desto gieriger und menschenverachtender werden sie.
Bei Unternehmen von sozial zu sprechen ist daher völlig sinnfrei. Generell wenn es in unserer gierigen und kapitalistischen Gesellschaft ums Geld geht, ist vorbei mit der Sozialität.
Der Mensch ist grundsätzlich erst mal schlecht und nur auf seinen Vorteil bedacht. Sozialität? Vielleicht auf dem Mars oder so ;)
Liste daher überflüssig.
Pff... Wenn die Menschen so wären wie du sagst, gäb es die Menschheit heut nicht...

aufkrawall
2018-09-24, 14:36:05
Immerhin hat Nvidia noch keine Affenversuche mit Grafikkarten-Abluft durchgeführt. :cool:

Lowkey
2018-09-24, 14:40:45
Hmm wird das hier der Sammelthread für Aprilscherz Ideen? PCGH testet Grafikkartenabluft mit Schimpansen?

Mr.Bug
2018-09-24, 16:09:11
Hmm wird das hier der Sammelthread für Aprilscherz Ideen? PCGH testet Grafikkartenabluft mit Schimpansen?

Leider nicht...es sind Gerüchten zufolge erste, zutiefst verstörende Bilder aufgetaucht! :freak:

http://fs5.directupload.net/images/180924/a3ypcy8x.jpg

:D

JaniC
2018-09-24, 16:38:01
@MiamiNice: Weiss nicht was mich mehr stört, dein Essentialismus und Determinismus oder das man klar rausliest, dass du das eigentlich so richtig geil findest und daher als Rechtfertigung für dein Gewissen immer wieder anbringst.

Aber das ist jetzt komplett offtopic.

JVC
2018-09-24, 17:58:25
Raff sagte was von 40%

Er sagte aber auch ...
Turing bringt ein zu kleines Plus gegenüber Pascal. Darüber sind wir uns einig. Ihr tut nun aber so, als wäre mit den starken Founders-Designs alles anders. Wir reden hier über einstellige prozentuale Unterschiede (Schätzung, Karten gibt es ja nicht). Ob's am Ende nun +35 oder +29 Prozent sind, ändert am Gesamtbild, dass es zu wenig ist, gar nichts. Wie immer werden die stärksten Custom-Karten zeigen, wo man bestenfalls (beim manuellen OC) landet.

MfG,
Raff


Oder du meinst schon das Ergebnis von MAX oc zu MAX oc... hm ok das ginge grad noch so für Fanatiker ;)
Gut das ich diese runde sowieso auslassen will ;)

m.f.g. JVC

dargo
2018-09-24, 19:17:27
Das Argument ist nicht besonders stark, da zu Erhöhung von yieldraten immer Teile eines Chips deaktiviert werden, deswegen von Abfall zu sprechen ist stark zugespitzt und vereinfacht.
Dann ist der Threadripper 2950x mit zwei deaktivierten Dies auch Abfall, ohne Kühler und PCB sowie teurem Speicher ausgestattet und dennoch teurer als eine Nvidia GPU.

Bin mir jetzt zwar nicht sicher ob es vom TR 2950X teildeaktivierte Chips gibt, AM4 ist eher mein Gebiet. Sollte es die geben ist es natürlich genauso Abfall. Wenn du ein Problem mit dem Begriff hast wie wärs mit Resteverwertung?

Daredevil
2018-09-24, 19:23:16
Das, was ihr als "Abfall" bezeichnet, nennt man auch Mischkalkulation.
Die schönen Äpfel kosten 3€ das Kilo, die B Ware kostet 2€ das Kilo und Apfelmus kostet 50c das Kilo. Am Ende kommt dann das erwartete Ziel raus.


So gesehen ist AM4 und meinetwegen auch Turing dann Apfelmus. :D ( Oha, das gibt Hate. )
Die Kunst ist aber dann, aus dem Apfelmus was tolles zu zaubern, wo die Leute dann Bock drauf haben. ( Features, Preis/Leistung, Performance )

dildo4u
2018-09-24, 21:09:59
M6t0rkKGRtI

MiamiNice
2018-09-25, 02:02:42
Turing auf Steroiden: der8auer testet RTX 2080 mit Trockeneis und Powermod

https://www.pcbuildersclub.com/2018/09/turing-auf-steroiden-der8auer-testet-rtx-2080-mit-trockeneis-und-powermod/

-D05zXJsuxs

SKYNET
2018-09-25, 02:06:15
Raff sagte was von 40%


also die guten 1080Tis unter wasser, gehen über 2150MHz... wenn er so eine hat, wird's nix mit 40%... eher weniger als FE zu FE... und zwar signifikant, weil ne 1080Ti mit 2150/6200 ist im schnitt bereits 27% schneller als ne FE. :wink:

SKYNET
2018-09-25, 02:12:59
Turing auf Steroiden: der8auer testet RTX 2080 mit Trockeneis und Powermod

https://www.pcbuildersclub.com/2018/09/turing-auf-steroiden-der8auer-testet-rtx-2080-mit-trockeneis-und-powermod/

http://youtu.be/-D05zXJsuxs


lächerlich, die 1080Tis gingen mit trockeneis auf über 2500...

MiamiNice
2018-09-25, 02:21:49
Ja, Turing ist kein OC Wunder.
Den WaKü Block kann man sich total sparen wenn es nur um die Leistung geht.
Das nenne ich mal langweilig :(

Digidi
2018-09-25, 03:00:00
Turing auf Steroiden: der8auer testet RTX 2080 mit Trockeneis und Powermod

https://www.pcbuildersclub.com/2018/09/turing-auf-steroiden-der8auer-testet-rtx-2080-mit-trockeneis-und-powermod/

http://youtu.be/-D05zXJsuxs


Aus Steroiden? Auf Narkotikum passt eher...

Freestaler
2018-09-25, 07:36:11
Turing, Build to overclock... Gibts die Folie auch mit RTX ON ;-)?

dargo
2018-09-25, 08:17:54
Turing auf Steroiden: der8auer testet RTX 2080 mit Trockeneis und Powermod

https://www.pcbuildersclub.com/2018/09/turing-auf-steroiden-der8auer-testet-rtx-2080-mit-trockeneis-und-powermod/

http://youtu.be/-D05zXJsuxs
Der erste Versuch ist geil. 17% mehr Stromaufnahme auf den zusätzlichen Anschlüssen (PCIe ist offen) ergeben 2% mehr Leistung. :freak: Vega reloaded. :D

GSXR-1000
2018-09-25, 08:21:08
Tja. Wie war das noch mit der folie von NV: "Built to overclock"? Vor nicht mal 2 wochen. Hier im forum.
Gott was bin ich angesickt worden ob des hinweises, das man aussagen von NV selbst wohl eher marketinggesteuert verstehen muesste. Was hat man sich empoert und darauf bestanden das lederjoppe niemals falsche aussagen in diesem punkt gemacht haette, AMD mit overclockers dream hingegen schon, wie ich den ueberhaupt solch blasphemische zweifel haben koennte.
Und nun das. Man lese dazu auch igors artikel.
Natuerlich wird keiner der empoerten nun auch nur ein wort der entschuldigung bringen..nein, man wird die gleiche fanboytour reiten wie immer, und relativieren, relativieren und relativieren. Denn lederjoppe hat immer recht.

Rancor
2018-09-25, 08:32:22
Seit der legendären FX Reihe hat Nvidia nicht mehr so ein mieses Produkt rausgebracht. Thermie war da auch besser ^^

Ätznatron
2018-09-25, 08:33:10
Ein trauriger Herbst für OC-Freunde.

Und wenn dann noch der (nicht ohne Grund verlötete) Intel 9900K mindestens 1,4 V für den 5,0 GHz-Allcorebetrieb benötigt, wird sich die Laune sicher nicht verbessern, zumindest nicht bei den Leuten, die noch herkömmliche Luft- und AIO-Kühlungen verwenden.

rentex
2018-09-25, 08:40:34
https://www.techpowerup.com/reviews/NVIDIA/GeForce_RTX_2080_Ti_PCI-Express_Scaling/

Ist das Ende von PCI Express 3.0 langsam erreicht?

Daredevil
2018-09-25, 08:40:54
Build to overclock bedeutet einfach, dass man die Karte übertakten muss, da sie sich sonst nicht so sehr abheben kann...... :D

Ja, Turing ist kein OC Wunder.
Den WaKü Block kann man sich total sparen wenn es nur um die Leistung geht.
Das nenne ich mal langweilig :(
Das hatte ich bei ner GTX1080 Ref aber auch schon gespürt.
Mit ( lautem ) Luftkühler kam ich auf 2000-2050Mhz, mit WaKü Block und Shuntmod hatte ich stable 2130Mhz. Dat Performance. :D
Aber immerhin wars leise.

Irgendwie verhält sich Turing halt wie Pascal + RT.

Stretcher
2018-09-25, 08:43:59
Sollte es die geben ist es natürlich genauso Abfall. Wenn du ein Problem mit dem Begriff hast wie wärs mit Resteverwertung?

Da beides Blödsinn ist, mit gar keinem der Begriffe.
Tja. Wie war das noch mit der folie von NV: "Built to overclock"? Vor nicht mal 2 wochen. Hier im forum.


Wieso, was soll denn an built to overclock falsch sein bei der FE?
Solange man nicht Overclockers Dream hinschreibt, sondern die Spannungswandler, Kühlung etc. pp. erklärt gibts doch kein Problem?

Das OC Potential ist völlig OK, im Gegensatz zu so Lösungen wie der Fury X, bei der einfach mal nur 50 MHz gingen, da hätte man sich den Overclockers Dream lieber mal gespart.

Mit ordentlich RAM OC sind die Werte gar nicht so schlecht.

dildo4u
2018-09-25, 08:55:23
Schätze mal die 2080 läuft schon eher am Takt Limit,die 2080 Ti scheint 10% Luft zu haben.

https://farm2.staticflickr.com/1916/44182837254_f54a157f05_h.jpg (https://flic.kr/p/2ajhAd7)2080tih (https://flic.kr/p/2ajhAd7) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

https://youtu.be/Y5_Lxjt2Fus

GSXR-1000
2018-09-25, 08:56:39
Da beides Blödsinn ist, mit gar keinem der Begriffe.


Wieso, was soll denn an built to overclock falsch sein bei der FE?
Solange man nicht Overclockers Dream hinschreibt, sondern die Spannungswandler, Kühlung etc. pp. erklärt gibts doch kein Problem?

Das OC Potential ist völlig OK, im Gegensatz zu so Lösungen wie der Fury X, bei der einfach mal nur 50 MHz gingen, da hätte man sich den Overclockers Dream lieber mal gespart.

Mit ordentlich RAM OC sind die Werte gar nicht so schlecht.

Relativierung, relativierung, relativierung. Wie vorhergesagt.
Q.e.d.
Danke

Und es ist alleine deshalb nicht built to overclock, weil bewusst extrem harte grenzen eingezogen sind seitens nv,welche den spielraum powerseitig etc extrem begrenzen, was so extrem bei keiner generation vorher war. Das dann als "built to overclock" zu bezeichnen wirkt schon wie hohn.
Ich empfehle nochmal igors artikel zu den technischen faktoren zu lesen.
Btw: built to overclock klingt auch dann geil wenn nv den partnern untersagt, den speicher wesentlich fuer ihre karten zu uebertakten. Eigentlich kann das "built to overclock" seitens nvidia nur sarkastisch gemeint sein.

Dural
2018-09-25, 09:10:30
@GSXR-1000NV

"Built to overclock"

Wo hat das NV gesagt?

GSXR-1000
2018-09-25, 09:17:33
@GSXR-1000NV

"Built to overclock"

Wo hat das NV gesagt?
Besagte Folie findest du hier mehrfach in den einschlaegigen threads verlinkt.

SKYNET
2018-09-25, 09:22:12
@GSXR-1000NV

"Built to overclock"

Wo hat das NV gesagt?


https://eteknix-eteknixltd.netdna-ssl.com/wp-content/uploads/2018/09/1-58.jpg

Dural
2018-09-25, 09:26:36
OK, da geht man aber auf die Strom Versorgung ein die wirklich gut ist.

Ich hatte ja schon seit 2 Wochen die Vermutung das Turing am Limit läuft, das die Erhöhung des PT aber praktisch nichts bringt ist schon eine Überraschung. Das dürfte bei der 2070 und 2080Ti aber leicht anders sein, da die nicht so hoch takten wie die 2080.

Der Herstellungsprozess ist einfach komplett am Limit, schade.

Menace
2018-09-25, 09:32:31
OK, da geht man aber auf die Strom Versorgung ein die wirklich gut ist.


Und so könnte man sagen, dass AMD ihre Software gemeint hat und gar nicht die Hardware. Weder AMD noch Nvidia tun sich mit solchen Aussagen einen Gefallen.

Dural
2018-09-25, 09:37:59
Ja sehe ich auch so, aber was will man bei einer verbesserten Strom Versorgung auch sonst sagen? Sie ist jetzt einfach besser, (bringt bei Stock Takt aber nichts) :freak:

Fragman
2018-09-25, 09:39:57
Der Herstellungsprozess ist einfach komplett am Limit, schade.

Jep,
und dann gibt es hier einige Leute, die machen sich drueber lustig, statt die Implikation fuer die Zukunft zu sehen. Da wird denen die Schadenfreude noch vergehen.

PHuV
2018-09-25, 09:50:17
Nachricht von Nvidia heute:
Vielen Dank für deinen Einkauf im NVIDIA Online Store.

Deine bestellte GeForce RTX™ 2080 Ti Founders Edition wird zwischen dem 5. und 9. Oktober als Eillieferung versendet. Sobald deine Bestellung unterwegs ist, erhältst du per E-Mail eine Versandbestätigung.
Fast 14 Tage später.:frown:

Dural
2018-09-25, 09:50:17
Ich hoffe das 7nm wenigstens das bringt was es auch verspricht, sonst sieht es ja richtig düster aus. Preislich wird es aber sicher auch teuer.

Ich bin mir relativ sicher das Turing eh nicht lange auf dem Markt bleiben wird, er ist einfach zu gross für die Masse.

SKYNET
2018-09-25, 09:51:27
1080 --> 2080 +18,66%
2080 --> 1080Ti +13,36%
1080TI --> 2080Ti +17,43%
2080TI --> Titan V +3,21%
( das sind brauchbare Fakten )



sinds nicht... sind genau 32.7% ggü der 1080Ti was die 2080Ti bei gleichem takt hat(nur games, ohne 3dquark gerechnet, bei den avr / 99th% wurden beide werde zusammen gezählt und durch 2 geteilt = ergebniss was für die rechnung genommen wurde)

SKYNET
2018-09-25, 09:55:13
Das dürfte bei der 2070 und 2080Ti aber leicht anders sein, da die nicht so hoch takten wie die 2080.



du hast schon das video vom 8auer gesehen? das ist derbe peinlich für turing.... mit trockeneis kommt das ding nichtmal so hoch wie ne 1080Ti im winter am offenen fenster.... denke die HCOCer dürfen froh sein, wenn mit LN2 die 2.5-2.6GHz gehen.

Ätznatron
2018-09-25, 09:55:32
Ich hoffe das 7nm wenigstens das bringt was es auch verspricht, sonst sieht es ja richtig düster aus. Preislich wird es aber sicher auch teuer.

Ich bin mir relativ sicher das Turing eh nicht lange auf dem Markt bleiben wird, er ist einfach zu gross für die Masse.

Turing ist halt die finale und hochpreisige Verwertung einer am Ende angelangten Fertigungstechnologie.

Triniter
2018-09-25, 09:58:07
Igor hat die MSI 2080ti gaming x trio (https://www.tomshw.de/2018/09/25/msi-geforce-rtx-2080-ti-gaming-x-trio-im-test-dicke-backen-cooler-auftritt/) getestet.
Ergebnis quasi wie zu erwarten war.

Dural
2018-09-25, 10:01:21
du hast schon das video vom 8auer gesehen? das ist derbe peinlich für turing.... mit trockeneis kommt das ding nichtmal so hoch wie ne 1080Ti im winter am offenen fenster.... denke die HCOCer dürfen froh sein, wenn mit LN2 die 2.5-2.6GHz gehen.

Ich meine damit das die Skalierung nicht ganz so schlecht wie bei der 2080 sein wird. Da die 2070 und 2080Ti Stock einen niedrigen Takt als die 2080 haben.

Der reine Takt wird sich natürlich kaum ändern.

Lowkey
2018-09-25, 10:10:30
https://www.techpowerup.com/reviews/NVIDIA/GeForce_RTX_2080_Ti_PCI-Express_Scaling/

Ist das Ende von PCI Express 3.0 langsam erreicht?


Nice to know: um die 10% verliert man mit PCI-E 3.0 x16 im worst Case, aber nicht immer.

Denn einige Ryzen CPUs können nur x8 bzw. x8 ist an bei Gebrauch des zweiten m.2


Mich würde interessieren ob Pascal nach 2 Jahren besser taktet. Ist die Qualität heute besser?

MiamiNice
2018-09-25, 10:23:15
Ein trauriger Herbst für OC-Freunde.

Und wenn dann noch der (nicht ohne Grund verlötete) Intel 9900K mindestens 1,4 V für den 5,0 GHz-Allcorebetrieb benötigt, wird sich die Laune sicher nicht verbessern, zumindest nicht bei den Leuten, die noch herkömmliche Luft- und AIO-Kühlungen verwenden.


So fu..... true ... :mad:
Was passiert hier gerade?
Ich bin völlig überfordert mit der Situation.
Glaub ich nehm die Kohle für 2080TI, 9900K + Board und Speicher und fahre in den Urlaub.
War ich zwar schon dieses Jahr aber was soll der geiz -.-

Lowkey
2018-09-25, 10:29:02
https://www.computerbase.de/2018-09/nvidia-turing-geforce-rtx-2080-ti-verzoegerung/


Schrecklich... sie quälen die Käufer mit Wartezeit.

Sweepi
2018-09-25, 10:29:13
Ein trauriger Herbst für OC-Freunde.
Ich überlege mir, in die "andere Richtung" zu optimieren.
Also welche günstige (auch DHE) Karte reicht aus, um 90-95% der FE zu erreichen ;D

MiamiNice
2018-09-25, 10:34:16
Meh, einen auf Perf/Watt zu machen ist doch kein Weg. Wo bleibt den da der Spaß? Ohne dicken langen Balken, keinen dicken Spaß, imo :biggrin:
Da kann man auch gleich beim Mitbewerber einkaufen.

SKYNET
2018-09-25, 10:34:26
Nice to know: um die 10% verliert man mit PCI-E 3.0 x16 im worst Case, aber nicht immer.

Denn einige Ryzen CPUs können nur x8 bzw. x8 ist an bei Gebrauch des zweiten m.2


Mich würde interessieren ob Pascal nach 2 Jahren besser taktet. Ist die Qualität heute besser?

sind aber nur die avr frames die "weniger" werden, die minimumframes bleiben konstant bis zu dem lebel wo die max frames unter das level der min frames rutschen, da sinken diese natürlich auch auf das level der max frames.

kann man auch prima bei eGPU lösungen beobachten, die minimum frames sind trotz grottiger anbindung kaum schlechter als im PCIe 3.0 16x slot... einzig die max frames sind massiv weniger. :smile:

BigKid
2018-09-25, 10:43:32
Meh, einen auf Perf/Watt zu machen ist doch kein Weg. Wo bleibt den da der Spaß? Ohne dicken Balken, keinen dicken Spaß, imo :biggrin:
Wenns nur um den Basteltrieb geht ? zB das kleinste, leiseste luftgekühlte Package zu haben und den längsten perf/watt und perf/preis Balken zu haben...
Ausserdem dachte ich immer bei DEN Balken käme es nicht auf die Dicke sondern auf die Länge an :)

Dural
2018-09-25, 10:46:11
noch eine 2080ti lieferbar :freak:

https://www.steg-electronics.ch/de/article/product-25272121.aspx?parnr=12833572

AffenJack
2018-09-25, 10:46:52
https://www.computerbase.de/2018-09/nvidia-turing-geforce-rtx-2080-ti-verzoegerung/


Schrecklich... sie quälen die Käufer mit Wartezeit.

Langsam fragt man sich schon etwas, was da los ist, dass man die Lieferungen so versemmelt. Manhce Läden und Leute haben ja die TI schon bekommen, wenn auch nur sehr wenige.

Dural
2018-09-25, 10:48:29
Was los ist? Ein 750mm2 Chip der schon nahe am Limit läuft.

Überrascht doch gar nicht gross. Die 2080 sind bei uns relativ gut Lieferbar.

PHuV
2018-09-25, 10:56:12
Langsam fragt man sich schon etwas, was da los ist, dass man die Lieferungen so versemmelt. Manhce Läden und Leute haben ja die TI schon bekommen, wenn auch nur sehr wenige.
:uponder: Hat Nvidia gemerkt, daß die TIs weggehen wie warme Semmeln, und dann die Chips zuerst an die Hersteller verscherbelt? Und dann deswegen die ersten Käufer hingehalten? :uponder:

Troyan
2018-09-25, 10:56:21
Bingo. Deswegen ist die Preisdiskussion bei der RTX2080 TI auch so sinnlos. Das Ding wird kaum lieferbar sein. Im Grunde die neue GTX780 mit 512MB, die auch nur vereinzelt anzutreffen war.

Raff
2018-09-25, 11:00:43
7800 GTX/512. ;)

MfG,
Raff

MiamiNice
2018-09-25, 11:01:37
Wenns nur um den Basteltrieb geht ? zB das kleinste, leiseste luftgekühlte Package zu haben und den längsten perf/watt und perf/preis Balken zu haben...

Ne, Du ich bin da eher im Tim Taylor Style unterwegs. Mooooooooore Pooooower ;D
Leute die auf Perf/Watt und Perf/Preis Balken stehen kann ich nicht verstehen und sind mir suspekt. Sind meiner Meinung nach Werte für Leute die sich Ihre HW Fehlkäufe schönreden müssen. Am Desktop wohlgemerkt, mobile sieht das anders aus.


Ausserdem dachte ich immer bei DEN Balken käme es nicht auf die Dicke sondern auf die Länge an :)

Schon lang gefixt :up:

Troyan
2018-09-25, 11:04:02
7800 GTX/512. ;)

MfG,
Raff

Ja. :redface:

BigKid
2018-09-25, 11:04:32
Ne, Du ich bin da eher im Tim Taylor Style unterwegs. Mooooooooore Pooooower ;D

Ich stell mir das grade vor:
"Schaaaatz - die Klimaanlage ist grad trotz Minusgraden angesprungen und der Stromerzeuger hat angerufen. Zockst zu schon wieder in 3x8k in deiner Mancave ?"

SKYNET
2018-09-25, 11:04:44
Die 2080 sind bei uns relativ gut Lieferbar.

wundert dich das bei der leistung? die 2080er werden schöne ladenhüter sein solange die nicht unter signifikant 600€ sinken.... weil für 600€*bekommst ne 1080Ti mit 11GB.

AffenJack
2018-09-25, 11:05:02
Was los ist? Ein 750mm2 Chip der schon nahe am Limit läuft.

Es würde mich ja nicht wundern, wenn sie überall ausverkauft wären und nur die Preorder bedient werden. Aber im Moment kriegen ja nichtmal die Preorderleute ihre Karten in größeren Mengen. Z. B. bei Overclockers.uk hat der Ladenbesitzer geposted, dass sie 1k Vorbestellungen haben für die Ti, bis alle versorgt sind kann es da dauern, aber bisher hat da niemand Karten gekriegt.

Bei Auslieferung im Oktober hätte man sich den Ti Launch auch gleich sparen können und warten bis man ordentliche Mengen liefern kann, wenn das Windows Update da ist und man vll RTX in Tomb Raider anspielen kann.

BigKid
2018-09-25, 11:08:52
wundert dich das bei der leistung? die 2080er werden schöne ladenhüter sein solange die nicht unter signifikant 600€ sinken.... weil für 600€*bekommst ne 1080Ti mit 11GB.
Ich vermute das auch... Die Leute für die Geld keine Rolle spielt und die einfach das schnellste haben müssen was es gibt kaufen sich 1-3x 2080Ti. Ich berfürchte von denen gibt es immernoch genug. Da spielt der Preis einfach keine Rolle - hauptsache schneller.
Bei den anderen (also spricht ab 2080 abwärts) ist der Preis halt einfach meistens doch noch ein Kaufkriterium und das verdirbt einem bei RTX aktuell noch den Spass...
Und FALLS jetzt ein findiger Miner einen Weg findet wie sich die RTXen vlt. doch sehr effizient zum Minen nutzen lassen - DANN beginnt ein echter Albtraum für jeden Gamer der das Mining Spiel dann nicht einfach aus Notwehr mitspielt... Dann finanziert sich die Karte ggF selbst wieder ein bisschen gegen...

Dural
2018-09-25, 11:27:23
noch eine 2080ti lieferbar :freak:

https://www.steg-electronics.ch/de/article/product-25272121.aspx?parnr=12833572

Und schon ist sie weg :freak:

Digidi
2018-09-25, 11:50:23
Und wweitere Lieferschwierigkeiten:
https://www.computerbase.de/2018-09/nvidia-turing-geforce-rtx-2080-ti-verzoegerung/

Vielleicht will man so tun das die 2080 ti ausverkauft ist.

Kriegsgeier
2018-09-25, 12:04:43
Der Chip ist einfach zu riesig. Physik halt. Ausbeute sehr gering! Daher auch der Preis. Jeder der 2080Ti kauft bezahlt mindestens einen toten Chip mit...

Digidi
2018-09-25, 12:14:23
Der Chip ist einfach zu riesig. Physik halt. Ausbeute sehr gering! Daher auch der Preis. Jeder der 2080Ti kauft bezahlt mindestens einen toten Chip mit...

Glaube ich nicht GV100 läuft auch schon 1Jahr und ist größer. Die yields sollten also passen.

Kriegsgeier
2018-09-25, 12:17:54
Wie viele von GV100 wurden verkauft? Keine Millionen oder?
Und wieviel kostet so ein GV100? Wohl keine 1299$ oder?

dargo
2018-09-25, 12:20:13
Und wweitere Lieferschwierigkeiten:
https://www.computerbase.de/2018-09/nvidia-turing-geforce-rtx-2080-ti-verzoegerung/

Vielleicht will man so tun das die 2080 ti ausverkauft ist.
Oder es läuft noch nicht genug Abfall vom Band. Wenn man wo anders den zehnfachen Preis verlangen kann warum sollte man nicht dieses Segment vorrangig versorgen? ;)

Digidi
2018-09-25, 12:23:37
Wie viele von GV100 wurden verkauft? Keine Millionen oder?
Und wieviel kostet so ein GV100? Wohl keine 1299$ oder?

Vega kostetet mit 500mm in der Produktion 80 Dollar. 12nm ist in etwa der gleiche Prozess wie 16nm plus. Da sollte es genug Erfahrung geben....

Kriegsgeier
2018-09-25, 12:29:02
500 mm sind keine fast 800mm

Oder Quadros fressen alle Bestände direkt auf

AffenJack
2018-09-25, 12:33:39
Vega kostetet mit 500mm in der Produktion 80 Dollar.

Woher kommen die 80 Dollar?

Fragman
2018-09-25, 12:38:13
weil für 600€*bekommst ne 1080Ti mit 11GB.

Die falschen Preisvorstellungen Deinerseits erklaeren zumindest dein Gemecker ueber die RTX Preise. :D

Lowkey
2018-09-25, 12:56:18
Naja streng genommen ist der Preis hoch und wenn du ihn dir nicht leisten kannst/willst, dann ist jeder dein Feind, der sich aktuell eine 2000er Geforce kauft, denn das bestätigt die hohen Preise und widerspricht deiner Meinung.

Linmoum
2018-09-25, 13:14:19
Irgendwann wird's den Papiertiger 2080Ti schon geben.

SKYNET
2018-09-25, 14:07:46
Die falschen Preisvorstellungen Deinerseits erklaeren zumindest dein Gemecker ueber die RTX Preise. :D

mhhh... nö, hier ist die gigabyte immernoch bei knapp über 600€ umgerechnet... :tongue: und selbst wenn man die 700€*ranzieht, ist die 1080Ti immer noch der bessere deal... die 2080 ist halt nur 600€*wert, gleicher speed wie die 1080Ti(bzw. sogar langsamer wie die customs) und nur 8GB speicher... weil das featureset kann man nicht ranziehen als argument, weils dafür halt nix gibt ;D

Dural
2018-09-25, 14:19:19
Jetzt noch eine 1080ti zu kaufen ist einfach dumm, die 2080 wird schon in wenigen Monaten den Abstand vergrössern können dazu hat man die ganzen Turing Vorteile.
Und ob man jetzt 8GB hat oder so verkrüppelte 11GB ;) wird kaum was ausmachen, jaja man wird sicher was finden... Wenn ich jetzt eine Karte kaufen müsste wäre es aber klar die 2080ti oder als Übergang eine 2070.

Irgendwann wird's den Papiertiger 2080Ti schon geben.

Falls es du noch nicht bekommen hättest, die ersten 2080ti Karten wurde schon letzte Woche ausgeliefert.

Papiertiger ist völlig fehl am Platz.

SKYNET
2018-09-25, 14:20:37
Irgendwann wird's den Papiertiger 2080Ti schon geben.

nur papiertiger bei den FE karten, die boardpartner liefern schon

Fragman
2018-09-25, 14:43:06
Die 1080TI muss man aktuell mit 750-800 Euro ansetzen, in Deutschland, auch wenn ich die Zotac Mini fuer knapp 690 bekomme. 700 Euro kosten die Blower, ka wer sowas empfehlen wuerde. Von den richtig guten Customs reden wir da noch nicht. Die sind alle ueber 800, kratzen an den 900 oder sind auch mal darueber. Ein bisschen sollte man da schon ehrlich sein und nicht irgendwelche Angebotspreise in irgendeinem Land als Standard picken.

SKYNET
2018-09-25, 15:10:11
Jetzt noch eine 1080ti zu kaufen ist einfach dumm, die 2080 wird schon in wenigen Monaten den Abstand vergrössern können dazu hat man die ganzen Turing Vorteile.
Und ob man jetzt 8GB hat oder so verkrüppelte 11GB ;) wird kaum was ausmachen, jaja man wird sicher was finden... Wenn ich jetzt eine Karte kaufen müsste wäre es aber klar die 2080ti oder als Übergang eine 2070.


sorry, aber FFXV mit meinen einstellungen könnte ich mit ner 2080 grad vergessen, gestern abend wieder über 11.000MB grafikspeicher gefüllt gehabt(in 1920*1200)... und wenn ich bei ner karte für DEN preis, nichtmal volle settings fahren kann, ehm, nein! die karte ist einfach ne nullnummer, und die erfahrungen haben gezeigt das über den treiber -wenns nicht grad nen bug war- max. 5% noch rausgekitzelt werden, und damit wäre sie dann gleich schnell wie die schlechteren customs der 1080Ti, wärend die fetten customs ihr immernoch die rücklichter zeigen. ;)

einzig in DX12 titeln -solange der speicher nicht ausgeht- ist sie schneller.... und unter vulkan ist NV immernoch sonen krüppel, denn selbst in doom kann sie die 1080Ti FE nicht schlagen bzw. die 1080Ti ihre höhere rohleistung ausspielen.

Ein bisschen sollte man da schon ehrlich sein und nicht irgendwelche Angebotspreise in irgendeinem Land als Standard picken.

das land mit den welthöhsten durchschnittspreisen... :tongue:

Troyan
2018-09-25, 15:21:35
sorry, aber FFXV mit meinen einstellungen könnte ich mit ner 2080 grad vergessen, gestern abend wieder über 11.000MB grafikspeicher gefüllt gehabt(in 1920*1200)... und wenn ich bei ner karte für DEN preis, nichtmal volle settings fahren kann, ehm, nein! die karte ist einfach ne nullnummer, und die erfahrungen haben gezeigt das über den treiber -wenns nicht grad nen bug war- max. 5% noch rausgekitzelt werden, und damit wäre sie dann gleich schnell wie die schlechteren customs der 1080Ti, wärend die fetten customs ihr immernoch die rücklichter zeigen. ;)

Man, wieviele ausgedachten Sachen willst du hier noch schreiben? RTX2080 ist schneller als GTX1080TI. Einfach akzeptieren und weiterleben...


einzig in DX12 titeln -solange der speicher nicht ausgeht- ist sie schneller.... und unter vulkan ist NV immernoch sonen krüppel, denn selbst in doom kann sie die 1080Ti FE nicht schlagen bzw. die 1080Ti ihre höhere rohleistung ausspielen.

... und dann kann man sogar Wolfenstein 2 als "aktuelleres" Vulkan-Spiel nehmen. Wobei, lass mich raten: Das nimmst du nicht, weil die RTX2080 hier 20% vorne liegt, gell?

dargo
2018-09-25, 15:26:19
Dass ich das noch erleben darf... Troyan findet mittlerweile MachineGames mit Wolfenstein 2 toll. Vor Turing waren die noch von AMD manipuliert und Pascal wurde extra ausgebremst. ;D ;D ;D

Blediator16
2018-09-25, 15:37:32
Turing auf Steroiden: der8auer testet RTX 2080 mit Trockeneis und Powermod

https://www.pcbuildersclub.com/2018/09/turing-auf-steroiden-der8auer-testet-rtx-2080-mit-trockeneis-und-powermod/

http://youtu.be/-D05zXJsuxs

Alter Verwalter. Das nennt man aber nun wirklich einen "overclockers dream" inkl. Folien und Präsi:freak:
Köstlich ;D

Dass ich das noch erleben darf... Troyan findet mittlerweile MachineGames mit Wolfenstein 2 toll. Vor Turing waren die noch von AMD manipuliert und Pascal wurde extra ausgebremst. ;D ;D ;D

Oh ja :D Keine Betrüger mehr, die mit AMD unter einer Decke sind.

Troyan
2018-09-25, 15:44:46
Dass ich das noch erleben darf... Troyan findet mittlerweile MachineGames mit Wolfenstein 2 toll. Vor Turing waren die noch von AMD manipuliert und Pascal wurde extra ausgebremst. ;D ;D ;D

Tja - ist es nicht so? Wieso sonst sollte Turing in Wolfenstein 2 =>20% schneller sein? ;D

https://www.youtube.com/watch?v=ZCA9O8zLfh4

SKYNET
2018-09-25, 15:47:49
Man, wieviele ausgedachten Sachen willst du hier noch schreiben? RTX2080 ist schneller als GTX1080TI. Einfach akzeptieren und weiterleben...


... und dann kann man sogar Wolfenstein 2 als "aktuelleres" Vulkan-Spiel nehmen. Wobei, lass mich raten: Das nimmst du nicht, weil die RTX2080 hier 20% vorne liegt, gell?

nö, isse eben nicht... aber irgendwie muss man seinen -zukünftigen- fehlkauf ja schönreden ;D

nö, W2 hatte ich garnicht auf dem radar, da es auf meinen favorisierten seiten nicht getestet wurde :P

du kannst einfach nicht akzeptieren das die 2080 -ausser in DX12 und ausgewählten vulkan games- langsamer als ne billige custom einer 1080Ti ist... = <1% der games

SKYNET
2018-09-25, 15:53:13
Dass ich das noch erleben darf... Troyan findet mittlerweile MachineGames mit Wolfenstein 2 toll. Vor Turing waren die noch von AMD manipuliert und Pascal wurde extra ausgebremst. ;D ;D ;D

man legt sich halt immer so alles zurecht wie man es gerne hätte, erstrecht wenn man fantro... ehh boy ist. :smile:

Fragman
2018-09-25, 15:56:20
man legt sich halt immer so alles zurecht wie man es gerne hätte, erstrecht wenn man fantro... ehh boy ist. :smile:


,,,langsamer als ne billige custom einer 1080Ti ist...


Trollen kannst du gut, muss man Dir zugestehen. ;D

SKYNET
2018-09-25, 16:12:00
Trollen kannst du gut, muss man Dir zugestehen. ;D

ne msi armor gaming oc, mit vollem powertarget boostet höher als ne 2080 FE, und bei gleichem takt ist ne 1080Ti schneller als ne 2080 FE unter DX11 ;)

btw. von igor kommt dann demnächst ein ausführlicher test von pascal vs. turing bei gleichem takt. :wink:

Fliwatut
2018-09-25, 17:17:29
btw. von igor kommt dann demnächst ein ausführlicher test von pascal vs. turing bei gleichem takt. :wink:
Gibt es schon: https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/47377-die-geforce-rtx-2080-ti-und-rtx-2080-founders-edition-im-test.html?start=26

Die 2080 ist bei gleichem Takt öfter auch mal schneller als die 1080 ti.

Schnoesel
2018-09-25, 17:25:16
Oder eben anders herum. Sieht für mich nach Gleichstand aus und OCs Liebling ist Turing auch nicht wirklich.

Ätznatron
2018-09-25, 17:31:29
Die 2080 ist bei gleichem Takt öfter auch mal schneller als die 1080 ti.

Mag ja alles sein, trotzdem hat sie den Riesennachteil von 3 GB weniger Speicher.

Und damit scheidet sie halt für einige Spiele bereits jetzt aus.

Hätte nVidia da nicht so gegeizt, wäre die Karte vielleicht sogar zu empfehlen gewesen.

Fliwatut
2018-09-25, 17:34:21
2080 macht in den Spielen des Tests im Schnitt 57,26 fps vs. 56,6 fps der 1080ti. Mit dem OC bin ich mir nicht so sicher, ich habe schon 2080 mit 2,1 GHz gesehen, das wird natürlich nicht dauernd anliegen.

Im Grunde ist es wurscht, welche Karte man jetzt kauft, man wird es in den Spielen eher nicht merken. Man muss für sich die Entscheidung treffen, ob man in Zukunft RT und/oder DLSS haben will oder nicht. Will man es nicht, nimmt man besser die 1080ti, damit kann man auch noch etwas sparen, die imho beste günstige Custom kostet derzeit 739,- € (Phoenix GS).

Edit: ja, ohne 11GB kann man heutzutage nicht zocken, Riesennachteil, scnr :biggrin: Sollte der Speicher wirklich mal limitieren, dann muss man die Texturen eben einen Klick runterstellen. Will man das nicht, dann kauft man eben die 1080 ti.

Lowkey
2018-09-25, 17:37:49
Die Kühler der Gigabyte Aorus Geforce RTX 2080 Xtreme sieht massiv aus, also noch stärker wie bei der 1080 Ti. Man könnte annehmen, dass das Kühlpotential irgendwann ausgeschöpft ist, denn die Kühler werden von Generation zu Generation größer.

Schnoesel
2018-09-25, 17:38:45
Keine Ahnung wo du nachsiehst aber lieferbar ist die bei https://www.computerbase.de/preisvergleich/gainward-geforce-rtx-2080-phoenix-gs-4146-a1870929.html?hloc=at&hloc=de

849€, wie jede andere Custom 2080 derzeit auch. Macht also ca. 150€ die du auf die "günstigste" lieferbare 1080Ti draufzahlen musst:

https://www.computerbase.de/preisvergleich/msi-geforce-gtx-1080-ti-duke-11g-oc-912-v360-024-a1860466.html?hloc=at&hloc=de

Muss jeder selbst wissen ob einem das Wert ist.

Ätznatron
2018-09-25, 17:40:52
Edit: ja, ohne 11GB kann man heutzutage nicht zocken, Riesennachteil :biggrin: Sollte der Speicher wirklich mal limitieren, dann muss man die Texturen eben einen Klick runterstellen. Will man das nicht, dann kauft man eben die 1080 ti.

Ja, genau.

Wer Wert auf möglichst gute Optik legt, der muss zur 1080 ti greifen.

Und nicht zur nagelneuen RTX 2080. Deswegen ist die in der Hinsicht ein teurer Flop.

SKYNET
2018-09-25, 17:51:51
2080 macht in den Spielen des Tests im Schnitt 57,26 fps vs. 56,6 fps der 1080ti. Mit dem OC bin ich mir nicht so sicher, ich habe schon 2080 mit 2,1 GHz gesehen, das wird natürlich nicht dauernd anliegen.

Im Grunde ist es wurscht, welche Karte man jetzt kauft, man wird es in den Spielen eher nicht merken. Man muss für sich die Entscheidung treffen, ob man in Zukunft RT und/oder DLSS haben will oder nicht. Will man es nicht, nimmt man besser die 1080ti, damit kann man auch noch etwas sparen, die imho beste günstige Custom kostet derzeit 739,- € (Phoenix GS).

Edit: ja, ohne 11GB kann man heutzutage nicht zocken, Riesennachteil, scnr :biggrin: Sollte der Speicher wirklich mal limitieren, dann muss man die Texturen eben einen Klick runterstellen. Will man das nicht, dann kauft man eben die 1080 ti.


nur das RT wohl zuviel leistung für die 2080 kosten wird selbst in FHD, bleibt noch DLSS das hochskaliert wird und wohl gerne artefakte bei bewegung produziert...

und texturen reduzieren bei eyecandy games... ehhhh... ketzer, verbrennt ihn!! :tongue: :wink:

Fliwatut
2018-09-25, 17:55:05
Es lebe der Konjunktiv. Einfach mal abwarten, was in Zukunft passiert.

SKYNET
2018-09-25, 17:56:25
Die Kühler der Gigabyte Aorus Geforce RTX 2080 Xtreme sieht massiv aus, also noch stärker wie bei der 1080 Ti. Man könnte annehmen, dass das Kühlpotential irgendwann ausgeschöpft ist, denn die Kühler werden von Generation zu Generation größer.

jupp, hat auch eine heatpipe mehr bekommen... also mindestens 40W(6mm heatpipe bzw. 60W bei 8mm) die mehr abgeführt werden können

=Floi=
2018-09-25, 17:58:25
Es lebe der Konjunktiv. Einfach mal abwarten, was in Zukunft passiert.

der vram wird sicher nicht wachsen. Und das mit dem runterdrehen um eine stufe funktioniert auch nicht mehr, wenn 10gb min sind.

Fliwatut
2018-09-25, 18:04:58
Also bisher hat noch bei jedem Test in Ultra auf 4k/UHD der Speicher der 2080 gereicht, erst bei 5k wurde es für die 2080 schwierig, da lief die 1080ti zwar noch, aber mit unspielbaren fps.

Ätznatron
2018-09-25, 18:10:57
Dann spiele mal X-Plane 11 mit besseren Foto-Texturen so ab Zoomlevel 17 und schau dir den Speichergebrauch an (Texturen kosten keine Leistung in dem Fall, überlaufender Speicher hingegen massiv). 8 GB reichen da bei weitem nicht mehr.

Fliwatut
2018-09-25, 18:13:06
Oh Mann, wie oft soll ich es noch schreiben: für solche Fälle kauft man sich eine 1080ti.

Ätznatron
2018-09-25, 18:18:00
Oh Mann, wie oft soll ich es noch schreiben: für solche Fälle kauft man sich eine 1080ti.

Und ich halte es für peinlich, dass die zweitstärkste Karte der neuen Generation nicht mal reicht, die stärkste (von der Titan mal abgesehen) der alten in jeder Beziehung hinter sich zu lassen.

Und das vor allem beim durch nichts zu ersetzenden Speicherausbau.

Fliwatut
2018-09-25, 18:36:57
Dagegen habe ich ja auch nichts, es sind aber bisher nur recht exotische Dinge, wo die 8GB nicht reichen. Ich will diese Karte ja auch nicht schön reden, für den Preis sollte man eigentlich die Lesitung der 2080 ti bekommen.

Lowkey
2018-09-25, 19:20:56
Wurde irgendwo ein CPU Vergleich angestellt, also zB. 2700x vs 8700k?


Hwluxx haben wohl als Einzige mit AMD getestet, wobei der TR bestimmt nicht die beste Wahl sein kann. Wo ist Skynet der Verschwörungstheoretiker?

rentex
2018-09-25, 19:48:50
Können wir uns einigen, den Preis der Turings nicht mehr zu thematisieren?!
Wichtiger ist der RTX Aspekt und ob er in Zukunft überhaupt relevant wird?

Lowkey
2018-09-25, 19:53:28
Wäre der Preis bei 100 Euro, dann wäre die Diskussion über RT Nebensache.

-=Popeye=-
2018-09-25, 20:13:29
Tja - ist es nicht so? Wieso sonst sollte Turing in Wolfenstein 2 =>20% schneller sein? ;D

https://www.youtube.com/watch?v=ZCA9O8zLfh4

Da ganze Bitte nochmal maxout und in UHD.

Siehe: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11590250#post11590250

Troyan
2018-09-25, 20:22:45
Da ganze Bitte nochmal maxout und in UHD.

Siehe: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11590250#post11590250

Scheint nVidia mit den neusten Treiber gefixt zu haben: http://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Tests/Review-1265133/3/

Schau dir Wolfenstein 2 an. In 4K ist die RTX2080 doppelt so schnell als die GTX1080.

-=Popeye=-
2018-09-25, 20:30:24
Mein Leben! Setting ist nicht maxout. ;)

Fliwatut
2018-09-25, 20:34:20
Siehe: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11590250#post11590250
Wo ist denn auf den Bildern das Problem? FPS und Framerate sind gleich.

-=Popeye=-
2018-09-25, 20:40:28
Wo ist denn auf den Bildern das Problem? FPS und Framerate sind gleich.

Text gelesen und Bilder verglichen?

In UHD geht den 8GB Karten offensichtlich der Speicher aus.

Ein wenig hoch und runter scrollen im Thread muss man schon.:wink:

Troyan
2018-09-25, 20:41:12
Habe ich. Text oder die Zahlen stimmen nicht.

-=Popeye=-
2018-09-25, 20:43:49
Die Screens sind also alle Fake.

Troyan
2018-09-25, 20:47:32
Der Screen ist von einer Ti mit 11GB. Das heißt nicht, dass 8GB zu wenig sind. Und laut den Balken, ist die RTX2080 18% schneller als die GTX1080TI und 100% zur GTX1080.

So ja, entweder sind die Balken falsch oder der Text.

Fliwatut
2018-09-25, 20:53:20
Ein wenig hoch und runter scrollen im Thread muss man schon.
Das könnte ja mal jemand mit einer 8GB 2080 gegenchecken, ob dann die fps einbrechen.

-=Popeye=-
2018-09-25, 20:57:47
Der Screen ist von einer Ti mit 11GB. Das heißt nicht, dass 8GB zu wenig sind.

Welcher Screen? Mein Beitrag zeigt ganz offensichtlich das 8GB eben nicht reichen.



So ja, entweder sind die Balken falsch oder der Text.

Häh?

Das könnte ja mal jemand mit einer 8GB 2080 gegenchecken, ob dann die fps einbrechen.

Genau darauf will ich hinaus.

SKYNET
2018-09-26, 01:02:02
Dagegen habe ich ja auch nichts, es sind aber bisher nur recht exotische Dinge, wo die 8GB nicht reichen. Ich will diese Karte ja auch nicht schön reden, für den Preis sollte man eigentlich die Lesitung der 2080 ti bekommen.


final fantasy XV ist also exotisch... :confused:

Stretcher
2018-09-26, 01:18:34
Relativierung, relativierung, relativierung. Wie vorhergesagt.
Q.e.d.
Danke

Du bist ziemlich voreilig mit deinen Interpretationen, dort geht es um die Spannungsversorgung, die wirklich gut ist , im Rahmen dessen was möglich ist.

Und es ist alleine deshalb nicht built to overclock, weil bewusst extrem harte grenzen eingezogen sind seitens nv,welche den spielraum powerseitig etc extrem begrenzen,

Für OC ergibt es eh nicht viel Sinn das PT noch stärker zu erhöhen, sonst säuft die Karte zu viel und bringt trotzdem keinen Takt.
Die Chips machen bei 2000 bis 2100 MHz einfach zu.

Du solltest erst einmal die Folie lesen und schauen was dort steht.
Hier wird gar nichts relativiert, du vermengst einfach nur Dinge und mischst sie wild durcheinander, weil du krampfhaft nach Bashing Material gegen Turing suchst.

SKYNET
2018-09-26, 09:06:44
Wurde irgendwo ein CPU Vergleich angestellt, also zB. 2700x vs 8700k?


Hwluxx haben wohl als Einzige mit AMD getestet, wobei der TR bestimmt nicht die beste Wahl sein kann. Wo ist Skynet der Verschwörungstheoretiker?


naja, bei den 4k auflösungen dürfte da wohl eher kaum eine rolle spielen ob sie den TR genommen haben.


btw:
xjI9k6kdfKA

Fragman
2018-09-26, 09:12:17
Ja, genau.

Wer Wert auf möglichst gute Optik legt, der muss zur 1080 ti greifen.

Und nicht zur nagelneuen RTX 2080. Deswegen ist die in der Hinsicht ein teurer Flop.

Wenn die ersten RT Titel erscheinen, schaut man mit einer 1080TI ein bissel dumm aus der Waesche. Und das, fuer fast denselben Preis. ;)

nordic_pegasus
2018-09-26, 09:18:25
Wenn die ersten RT Titel erscheinen...
haben wir das Jahr 2020, Nvidia released die RTX 4080Ti. Diese Spiele sind dann mit "RTX on" unspielbar auf Turing.

Erinnert mit an DX8 und die Geforce3. Außer dem Nature-Test in 3DMark hat die Karte zu Lebzeiten doch kein einziges DX8 "Spiel" gesehen.

Fragman
2018-09-26, 09:29:44
haben wir das Jahr 2020, Nvidia released die RTX 4080Ti. Diese Spiele sind dann mit "RTX on" unspielbar auf Turing.

Erinnert mit an DX8 und die Geforce3. Außer dem Nature-Test in 3DMark hat die Karte zu Lebzeiten doch kein einziges DX8 "Spiel" gesehen.

:confused:
Die Spiele wurden live gezeigt mit fruehen Implementierungen.

Solltest Du natuerlich eine Turingkarte haben und RT Games, dann poste doch bitte mal Frameratebeispiele, die zeigen, das es nicht nutzbar ist, Danke.

SKYNET
2018-09-26, 09:38:17
Wenn die ersten RT Titel erscheinen, schaut man mit einer 1080TI ein bissel dumm aus der Waesche. Und das, fuer fast denselben Preis. ;)

nur das man RT anstellen kann, oder es aus lässt.... heisst keinerlei nachteil für die 1080Ti, ausser das man keine superduper effekte hat... und ja, ich als eyecandy verteidiger werde auf lange sicht sicherlich auch eine RT karte haben, aber sicherlich nicht das beta stadium das NV da grad gebracht hat, weil wirklich nutzbar wirds nicht sein mit der ersten gen... war schon immer so: 1st gen mit irgendwas neuen = am besten auslassen.

Ätznatron
2018-09-26, 09:50:14
Wenn die ersten RT Titel erscheinen, schaut man mit einer 1080TI ein bissel dumm aus der Waesche. Und das, fuer fast denselben Preis. ;)

Ja, das wird bestimmt ein tolles RT-Erlebnis, aber nur für low FPS-Gamer.

Die neuen Karten sind doch allesamt zu schwach fürs Raytracing.

nordic_pegasus
2018-09-26, 09:52:57
:confused:
Die Spiele wurden live gezeigt mit fruehen Implementierungen.

Solltest Du natuerlich eine Turingkarte haben und RT Games, dann poste doch bitte mal Frameratebeispiele, die zeigen, das es nicht nutzbar ist, Danke.

von den 11 angekündigten Spielen mit RTX sind vielleicht 4 Stück wirkliche Mainstream-Titel (Battlefield, Tomb Raider, Assetto Corsa, Metro).

Bis der Tomb Raider Patch mit RTX kommt, kräht kein Hahn mehr nach dem Spiel. Die Metro Demo bricht in unspielbare FPS ein, wenn RTX on ist. Niemand wird freiwillig in einem Racing Game die Frame Rate halbieren, nur um schöne Schatten zu sehen. Dann bleibt noch Battlefield, dass vielleicht dieses Jahr RTX mit sich bringt.

Die finanzielle Einstiegshürde ist mit 600 € für die RTX 2070 einfach zu hoch, dazu muss man zwingend das aktuellste Windows 10 Update haben und Entwickler müssen es implementieren (wie lange dauert bereits die Marktdurchdringung von DX12 oder Vulkan?).

Ich bleibe dabei, innerhalb des Lebenszyklus der Turing Reihe wird RTX nur ein Gimmick ohne echten Nutzen bleiben. Von daher sollte man aktuell in Pascal investieren, wenn man aufrüsten will.

dildo4u
2018-09-26, 09:53:33
Ja, das wird bestimmt ein tolles RT-Erlebnis, aber nur für low FPS-Gamer.

Die neuen Karten sind doch allesamt zu schwach fürs Raytracing.

Dafür ist DLSS da,das bringt dich von 1080p auf 1440p.Das dürften selbst im High-End Bereich noch die meisten Displays sein.

SKYNET
2018-09-26, 10:07:17
Dafür ist DLSS da,das bringt dich von 1080p auf 1440p.Das dürften selbst im High-End Bereich noch die meisten Displays sein.


DLSS ist ausschliesslich für 4k auflösung... :freak:

Fragman
2018-09-26, 10:16:23
von den 11 angekündigten Spielen mit RTX sind vielleicht 4 Stück wirkliche Mainstream-Titel (Battlefield, Tomb Raider, Assetto Corsa, Metro).

Bis der Tomb Raider Patch mit RTX kommt, kräht kein Hahn mehr nach dem Spiel. Die Metro Demo bricht in unspielbare FPS ein, wenn RTX on ist. Niemand wird freiwillig in einem Racing Game die Frame Rate halbieren, nur um schöne Schatten zu sehen. Dann bleibt noch Battlefield, dass vielleicht dieses Jahr RTX mit sich bringt.

Die finanzielle Einstiegshürde ist mit 600 € für die RTX 2070 einfach zu hoch, dazu muss man zwingend das aktuellste Windows 10 Update haben und Entwickler müssen es implementieren (wie lange dauert bereits die Marktdurchdringung von DX12 oder Vulkan?).

Ich bleibe dabei, innerhalb des Lebenszyklus der Turing Reihe wird RTX nur ein Gimmick ohne echten Nutzen bleiben. Von daher sollte man aktuell in Pascal investieren, wenn man aufrüsten will.

Diese Rumgetrolle hier in dem Thread nervt langsam.

Du hast expliziet die Optik genannt und die wird mit RT nunmal deutlich aufgewertet. Und nein, damit faellt Pascal als Investition einfach weg, vor allem bei diesen absurd hohen 1080TI Preisen im Moment.

BigKid
2018-09-26, 10:18:39
DLSS ist ausschliesslich für 4k auflösung... :freak:
DLSS sieht NVidia _aktuell_ nur bei 4k, über WQHD denkt man aber zumindest schon nach - die Aussage war etwa "später vielleicht" ... Da sie dazu "nur trainieren" müssen denke ich das wird schon kommen. Aktuell hat 4k halt die höhere Prio in ihrer Pipeline...

Diese Rumgetrolle hier in dem Thread nervt langsam.

Du hast expliziet die Optik genannt und die wird mit RT nunmal deutlich aufgewertet. Und nein, damit faellt Pascal als Investition einfach weg, vor allem bei diesen absurd hohen 1080TI Preisen im Moment.
Da beist sich die Argumentation doch in den Schwanz... Die 1080ti Preise sind doch nur deshalb so abartig hoch weil die 2080ti Preise so abartig hoch sind und es schon eine 2080ti braucht um die 1080ti wirklich sicher zu schlagen...

BigKid
2018-09-26, 10:20:43
Mist - Doppelpost... verklickt... sorry...

SKYNET
2018-09-26, 10:46:04
DLSS sieht NVidia _aktuell_ nur bei 4k, über WQHD denkt man aber zumindest schon nach - die Aussage war etwa "später vielleicht" ... Da sie dazu "nur trainieren" müssen denke ich das wird schon kommen. Aktuell hat 4k halt die höhere Prio in ihrer Pipeline...


Da beist sich die Argumentation doch in den Schwanz... Die 1080ti Preise sind doch nur deshalb so abartig hoch weil die 2080ti Preise so abartig hoch sind und es schon eine 2080ti braucht um die 1080ti wirklich sicher zu schlagen...

ich glaube nicht vor frühjahr 2019 an WQHD... eher richtung herbst, wenn überhaupt, weil dann steht schon die 3080er serie vor der tür und man sagt "ja ne, die ist so schnell, da brauchs nun auch kein WQHD mehr" :freak: halt so typisch NV style "ja evtl., vielleicht, kann sein und mal sehen" um die kunden bei der stange zu halten. :mad:

darum war der schlaue fuchs, der, der kurz vor turing erscheinen eine 1080Ti (gebraucht) gekauft hat, weil da gingen die für 400-500€*weg, zum teil erst ein paar monate alt ;D

Bambuslooter
2018-09-26, 12:17:52
Hab gerade ein gutes Performance Plus für die 2080ti entdeckt: VR.
Wurde sicherlich schon mal angesprochen, aber 50 Seiten zu lesen ...nee ;)

https://www.reddit.com/r/oculus/comments/9h59un/nvidia_rtx_2080_ti_vr_benchmarks/

Von 44-51% ist hier die Rede.
Nächsten Monat kann man die vielversprechende Pimax 5k+ VR Brille bestellen.
Da sind solche Zugewinne natürlich schon notwendig.

Da komm ich wieder ins Grübeln.

y33H@
2018-09-26, 12:24:45
44-51 Prozent hast in diversen normalen Spielen in 4K auch, zudem ist VRMark jez nicht zwingend repräsentativ. Ich würde Benches mit FCAT VR machen, ist aber sack aufwendig und leider lesen sich VR-Benchmarks meist schlecht. Wäre hier Interesse an drei vier Benches in diesem Stil?

https://www.golem.de/news/virtual-reality-benchmarks-geforce-gegen-radeon-in-vr-spielen-1712-131425.html

Schnoesel
2018-09-26, 12:44:22
Bevor ich mir auch nur Gedanken darüber machen würde auf eine neue Technologie zu setzen würde ich erstmal abwarten wie denn die Performance dieser überhaupt ist.

Wir haben Stand jetzt keine Ahnung wie DLSS und RTX aussehen oder performen werden. Also warum sollte ich Geld auf Verdacht ausgeben?

BTW: DLSS ausgehend von 1440p oder gar 1080p sehe ich gar nicht auch nicht für die Zukunft, denn 1. es ist wohl erheblicher Mehraufwand und 2. die dadurch entstehenden Performancesprünge rechtfertigen diesen nicht.

Es gibt derzeit keine! Anwendungen weder für DLSS noch für RTX. Keine einzigen. Das braucht man sich doch nicht schönzureden.

Meiner Meinung nach sollten man nicht mit ungelegten Eiern argumentieren. Das war übrigens ein Grund warum ich von AMD zu Nvidia gewechselt bin wegen dieser fine wine scheiße und Nvidia machts nun genauso und gerade die größten Kritiker des fine wines verteidigen das jetzt. Bezeichnend!

Rancor
2018-09-26, 12:55:12
Verstehe ich das jetzt richtig das man für DLSS zwingend nen 4k Monitor braucht?

MiamiNice
2018-09-26, 12:58:37
Verstehe ich das jetzt richtig das man für DLSS zwingend nen 4k Monitor braucht?

Bis jetzt -> ja.
Wird sich aber ändern.

Pumpi74
2018-09-26, 13:25:04
Bis jetzt -> ja.


Hä? Wenn ich an meinem 1440p Monitor die UHD Auflösung per Downsampling frei schalte sollte ich doch auch in den Genuss von DLSS kommen können ! Wie gut das dann funktioniert bleibt abzuwarten.

PHuV
2018-09-26, 13:33:11
Nein, weil Dir der KI-Algorithmus fehlt. Nochmals, DLSS wurde nur für 4k bisher auf den Großrechner trainiert.

Mangel76
2018-09-26, 13:41:46
Hä? Wenn ich an meinem 1440p Monitor die UHD Auflösung per Downsampling frei schalte sollte ich doch auch in den Genuss von DLSS kommen können ! Wie gut das dann funktioniert bleibt abzuwarten.

Yo, dass wär ja geil ;D. Erst am Monitor die Auflösung virtuell hochdrehen, damit die GraKa in höherer Auflösung rechnet. Dann DLSS einschalten, damit die GraKa wieder in geringerer Auflösung rechnet, um das niedrig aufgelöste Bild (hat dass dann eigentlich mehr oder weniger als 1440p?) per DLSS hochzurechnen, damit es dann wieder auf Monitorauflösung runtergerechnet werden kann. Bringt denn so etwas überhaupt noch irgendwas, also Geschwindigkeits- oder Optikvorteile gegenüber 1440p mit gescheitem AA???

Ich glaube nicht, dass NVIDIA DLSS für FHD oder QHD anbieten wird. Der Aufwand ist sehr hoch und der Geschwindigkeitsvorteil wohl zu gering bei vergleichbarer Optik. Wird die Renderauflösung zu gering, gehen irgendwann zwangsläufig Details verloren, die auch durch DLSS nicht wieder hergestellt werden können. Und wenn ich die Auflösung nicht weit genug absenken kann, springt auch kein großer Geschwindigkeitsvorteil mehr raus.

Pumpi74
2018-09-26, 13:43:04
@ PHUV : Sehe ich anders. Das die Nummer nur auf UHD klappt ist mir btw schon klar.

Lowkey
2018-09-26, 13:43:05
44-51 Prozent hast in diversen normalen Spielen in 4K auch, zudem ist VRMark jez nicht zwingend repräsentativ. Ich würde Benches mit FCAT VR machen, ist aber sack aufwendig und leider lesen sich VR-Benchmarks meist schlecht. Wäre hier Interesse an drei vier Benches in diesem Stil?

https://www.golem.de/news/virtual-reality-benchmarks-geforce-gegen-radeon-in-vr-spielen-1712-131425.html


Den VR Markt beobachte ich noch etwas, aber irgendwie ist es kein Vergleich zu der Euphorie von vor 2-3 Jahren. Ergo halbtot. Der Aufwand rechtfertigt kaum den Nutzen für die sehr kleine Zielgruppe und bleibt theoretischer Natur.

Andererseits ... wenn man einen Monopol auf einen Nischenbenchmark hat...

Mich interessiert nur noch die CB Ankündigung zur Verwendung eines Ryzen statt eines 8700k. Liefert ein 2700x unter 4k identische FPS?

OC_Burner
2018-09-26, 13:56:27
Hä? Wenn ich an meinem 1440p Monitor die UHD Auflösung per Downsampling frei schalte sollte ich doch auch in den Genuss von DLSS kommen können ! Wie gut das dann funktioniert bleibt abzuwarten.

Genau so sollte das möglich sein. Ein 4K Monitor ist also nicht zwingend nötig. Nötig ist nur das Spiel in 4K zu spielen.

Yo, dass wär ja geil ;D. Erst am Monitor die Auflösung virtuell hochdrehen, damit die GraKa in höherer Auflösung rechnet. Dann DLSS einschalten, damit die GraKa wieder in geringerer Auflösung rechnet, um das niedrig aufgelöste Bild (hat dass dann eigentlich mehr oder weniger als 1440p?) per DLSS hochzurechnen, damit es dann wieder auf Monitorauflösung runtergerechnet werden kann. Bringt denn so etwas überhaupt noch irgendwas, also Geschwindigkeits- oder Optikvorteile gegenüber 1440p mit gescheitem AA???

Benchmarks und Optikvergleiche wären für diesen Fall wären ganz interessant

- 1440p
- 4K DSR/Downsampling @ 1440p
- 4K DSR/Downsampling + DLSS @ 1440p

Optikunterschiede dürften zwischen DLSS on und off in Kombination mit DSR kaum auffallen. Der Geschwindigkeitsvorteil mit DLSS sollte aber deutlich positiv ausfallen.

SKYNET
2018-09-26, 14:00:01
Hä? Wenn ich an meinem 1440p Monitor die UHD Auflösung per Downsampling frei schalte sollte ich doch auch in den Genuss von DLSS kommen können ! Wie gut das dann funktioniert bleibt abzuwarten.


was bringt dir das? DLSS wird eh in 1440p gerechnet, dann kannst auch grad bei 1440p SSAA reinstopfen, dann hast wenigstens keine artefakte und auch keine schwammigen texturen.

Leonidas
2018-09-26, 14:00:45
von hier:
Launch-Analyse nVidia GeForce RTX 2080 & 2080 Ti (https://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-rtx-2080-2080-ti)

https://www.3dcenter.org/dateien/abbildungen/GeForce-RTX-2080-2080-Ti-Performance-Summary.png

SKYNET
2018-09-26, 14:01:01
Den VR Markt beobachte ich noch etwas, aber irgendwie ist es kein Vergleich zu der Euphorie von vor 2-3 Jahren. Ergo halbtot. Der Aufwand rechtfertigt kaum den Nutzen für die sehr kleine Zielgruppe und bleibt theoretischer Natur.

Andererseits ... wenn man einen Monopol auf einen Nischenbenchmark hat...

Mich interessiert nur noch die CB Ankündigung zur Verwendung eines Ryzen statt eines 8700k. Liefert ein 2700x unter 4k identische FPS?


hast du das YT video nicht angeschaut was ich verlinkt hatte? :confused:

dildo4u
2018-09-26, 14:05:31
CPUs von AMD & Intel im Test: Core i5/i7 & Ryzen 5/7 mit GeForce RTX im Vergleich

https://www.computerbase.de/2018-09/ryzen-7-2700x-core-i7-8700k-geforce-rtx-2080-ti/

TurricanM3
2018-09-26, 14:08:50
AquaComputer hat den Kühler vorgestellt:

https://forum.aquacomputer.de/wasserk-hlung/108610-preview-kryographics-next-2080ti/?75203855

https://abload.de/thumb/kryographics_next_208f9d13.jpg (https://abload.de/image.php?img=kryographics_next_208f9d13.jpg) https://abload.de/thumb/kryographics_next_208okibf.jpg (https://abload.de/image.php?img=kryographics_next_208okibf.jpg)

Ich finde den spitze.

SKYNET
2018-09-26, 14:14:55
AquaComputer hat den Kühler vorgestellt:

https://forum.aquacomputer.de/wasserk-hlung/108610-preview-kryographics-next-2080ti/?75203855

https://abload.de/thumb/kryographics_next_208f9d13.jpg (https://abload.de/image.php?img=kryographics_next_208f9d13.jpg) https://abload.de/thumb/kryographics_next_208okibf.jpg (https://abload.de/image.php?img=kryographics_next_208okibf.jpg)

Ich finde den spitze.

klasse, für die pascals haben sie nur sonen schmund, und das ding strotzt nur vor "technik" :mad:

denjudge
2018-09-26, 14:15:24
CPUs von AMD & Intel im Test: Core i5/i7 & Ryzen 5/7 mit GeForce RTX im Vergleich

https://www.computerbase.de/2018-09/ryzen-7-2700x-core-i7-8700k-geforce-rtx-2080-ti/

Was das wieder soll, wenn ich ne 2080ti hätte, hätte ich auch nen höher aufgelösten Bildschirm und wenn nicht, würde ich downsampling reinkloppen das es kracht.

BigKid
2018-09-26, 14:18:00
was bringt dir das? DLSS wird eh in 1440p gerechnet, dann kannst auch grad bei 1440p SSAA reinstopfen, dann hast wenigstens keine artefakte und auch keine schwammigen texturen.
Naja im Prinzip hast du damit das "inoffizielle DLSSx2"...
Ich vermute, dass es ohne Training in WQHD auch kein DLSSx2 geben wird. Also kurz: Wo kein DLSS da auch kein DLSSx2...
Mit dem Vorschlag einfach 4k als Ausgabeauflösung zu wählen und den Monitor auf WQHD runtersampeln zu lassen machst du dann durch die Hintertür was ähnliches wie es DLSSx2 macht... Allerdings macht DLSSx2 das ganze mit 8k - oder ? Also aufblasen von 4k nach 8k und dann downsampling auf 4k...
Ich DENKE (bzw. aus dem Bauch raus) dass Downsampling deutlich einfacher ist als Upscaling - insofern kann der Monitor da durchaus nen gut (genuge) Job machen sodaß das wirklich funktioniert... Aber gibts Monitore die 8k als Eingangssignal akzeptieren ? Gibt das das Kabel überhaupt her mit 60Hz+ (also HDMI, DP ) ?

Aber das eigentlich geilste Feature - nämlich die Regler einfach alle ganz rechts lassen zu können und wenn der Karte dann mal die Luft ausgeht auf DLSS zu schalten und je nach Empfinden, Trainingserfolg der AI und Spiel vlt. gar keinen großen Unterschied zu sehen - aber dafür wieder +30-40% fps zu haben - den Luxus gibts offiziell nur für 4k und vielleicht mal fü WQHD - was extrem Schade ist...

MiamiNice
2018-09-26, 14:20:56
Was das wieder soll, wenn ich ne 2080ti hätte, hätte ich auch nen höher aufgelösten Bildschirm und wenn nicht, würde ich downsampling reinkloppen das es kracht.

Darum geht es bei einem CPU Vergleichstest aber nicht. Wann verstehen das endlich die Leute. Auch unter 4K ist ein Intel schneller wird nur durch die GPU ausgebremst. Spielzeug bleibt halt Spielzeug auch wenn man den Flaschenhals verschiebt. Und was Du machen würdest, tut bei einem CPU Test auch nicht zur Sache. Kein Rot oben -> Schaum vorm Mund?

Was mich stutzig macht ist eher das hier:

https://abload.de/img/unbenanntlbd7v.png

Schnoesel
2018-09-26, 14:24:48
Es scheint die RTX 2080Ti weiß nicht was sie sein möchte. Eine 1080p Karte (für RTX) oder eine 4K Karte (für DLSS). Beides zusammen geht nicht. Strange.

Traxx
2018-09-26, 14:25:57
AquaComputer hat den Kühler vorgestellt:

https://forum.aquacomputer.de/wasserk-hlung/108610-preview-kryographics-next-2080ti/?75203855

https://abload.de/thumb/kryographics_next_208f9d13.jpg (https://abload.de/image.php?img=kryographics_next_208f9d13.jpg) https://abload.de/thumb/kryographics_next_208okibf.jpg (https://abload.de/image.php?img=kryographics_next_208okibf.jpg)

Ich finde den spitze.

Top. Gefällt mir extrem gut. Ich hoffe auf bewährte AquaComputer Qualität mit dem Design, erinnert mich optisch etwas an meinen aktuellen Phanteks Glacier auf der 1080Ti.

denjudge
2018-09-26, 14:26:05
Darum geht es bei einem CPU Vergleichstest aber nicht. Wann verstehen das endlich die Leute. Auch unter 4K ist ein Intel schneller wird nur durch die GPU ausgebremst. Spielzeug bleibt halt Spielzeug auch wenn man den Flaschenhals verschiebt.

Was mich stutzig macht ist eher das hier:

https://abload.de/img/unbenanntlbd7v.png

Natürlich verstehe ich das, ich weiß nur nicht welche Relevanz das haben soll. Den gleichen Test in 4k würde ich mir sogar durchlesen.

Linmoum
2018-09-26, 14:27:44
CPUs von AMD & Intel im Test: Core i5/i7 & Ryzen 5/7 mit GeForce RTX im Vergleich

https://www.computerbase.de/2018-09/ryzen-7-2700x-core-i7-8700k-geforce-rtx-2080-ti/
Sollte man mal mit dem CB-Parcours vergleichen.

Der Test dort zeigt +43% für den 8700K ggü. dem 2700X in PC2 mit einer 1080Ti. Im normalen Index bei CB sind's nur +17%. Selbe Auflösung, selbe GPU. Kurios, mal wieder.

SKYNET
2018-09-26, 14:29:59
Darum geht es bei einem CPU Vergleichstest aber nicht. Wann verstehen das endlich die Leute. Auch unter 4K ist ein Intel schneller wird nur durch die GPU ausgebremst. Spielzeug bleibt halt Spielzeug auch wenn man den Flaschenhals verschiebt. Und was Du machen würdest, tut bei einem CPU Test auch nicht zur Sache. Kein Rot oben -> Schaum vorm Mund?

Was mich stutzig macht ist eher das hier:

https://abload.de/img/unbenanntlbd7v.png


alter, schaut euch das video oben an, da ist nen 2700X vs. 8700k in 4k mit ner 2080Ti getestet... der unterschied ist minimal

MiamiNice
2018-09-26, 14:36:00
Es scheint die RTX 2080Ti weiß nicht was sie sein möchte. Eine 1080p Karte (für RTX) oder eine 4K Karte (für DLSS). Beides zusammen geht nicht. Strange.

Die 1080Ti schneller als die 2080TI.
Mit AMD ist die 2080 schneller als die 2080TI?!?

WTF?!?


alter, schaut euch das video oben an, da ist nen 2700X vs. 8700k in 4k mit ner 2080Ti getestet... der unterschied ist max. 2fps

Ist halt toll wenn die GPU limitiert. Was soll der schnellere 8700K da reißen?
Solltest Du besser wissen.

Natürlich verstehe ich das, ich weiß nur nicht welche Relevanz das haben soll. Den gleichen Test in 4k würde ich mir sogar durchlesen.

Es ist ein CPU Test, was daran nicht zu verstehen? Was soll da 4K? Ist ja kein GPU Test.

SKYNET
2018-09-26, 14:39:29
Ist halt toll wenn die GPU limitiert. Was soll der schnellere 8700K da reißen?
Solltest Du besser wissen.



es wird hier von 4k geredet, und da ist es absolut puppe ob du nen 2700X oder nen 8700k hast.... wahrscheinlich ist selbst nen 8600k oder 2600X gleich schnell... und was interessiert nen CPU test wenn wir hier über grakas reden O_o

MiamiNice
2018-09-26, 14:45:09
es wird hier von 4k geredet, und da ist es absolut puppe ob du nen 2700X oder nen 8700k hast.... wahrscheinlich ist selbst nen 8600k oder 2600X gleich schnell... und was interessiert nen CPU test wenn wir hier über grakas reden O_o

Hab ich den Test hier im Thread verlinkt oder jemand anderes? Tip: Nicht ich :biggrin:
Was ist wenn ich 4K Gamer bin und trotzdem die schnellste CPU haben möchte? Muss ich mir dann 4K Benches anschauen? Schneller bleibt der Intel auch in 4K auch wenn er es aufgrund der lahmen GPU nicht zeigen kann.
Wer nur in 4K spielt und sonst nichts mit seinem PC macht (vielleicht noch Cinebench oder Blender spielen) fährt sicher auch mit einem Ryzen toll. Alle anderen greifen zu den CPUs mit "Mooore Power".

dildo4u
2018-09-26, 14:46:18
Ein Argument wäre VR,man braucht z.b ne dicke CPU für Projekt Cars 2@90fps.
Für 60fps hat das natürlich weniger Relevanz.

Lowkey
2018-09-26, 14:48:10
hast du das YT video nicht angeschaut was ich verlinkt hatte? :confused:

Den ganzen Artikel im Link? :confused:

SKYNET
2018-09-26, 14:51:58
Den ganzen Artikel im Link? :confused:


naja, bei den 4k auflösungen dürfte da wohl eher kaum eine rolle spielen ob sie den TR genommen haben.


btw:
http://youtu.be/xjI9k6kdfKA


:smile:

Lowkey
2018-09-26, 14:57:06
Joar

Die 2080 Ti limitiert einfach unter 4k. Da spielt die CPU keine Rolle.

MiamiNice
2018-09-26, 15:06:32
Ein Argument wäre VR,man braucht z.b ne dicke CPU für Projekt Cars 2@90fps.
Für 60fps hat das natürlich weniger Relevanz.

PC2 braucht nicht nur für VR massig Strom auf der CPU sondern auch auf dem Bildschirm. Da braucht man mit P/L CPUs gar nicht anrücken wenn man noch spielbare min FPS haben möchte im MP. Da kannst Du jeden AMD Proz direkt vergessen, PC2 skaliert nicht so gut über Kerne. Hier fehlt wohl der Takt oder PC2 stört sich an den cross CCX Latenzen bei Ryzen. Bencht nur keine Seite mit 32 Mann auf der Strecke wegen der Vergleichbarkeit. Sollte man vielleicht trotzdem mal machen.

dildo4u
2018-09-26, 15:16:21
Oder sie bringen mal DX12 was sie schon für Teil 1 versprochen haben nur mal so ne Idee.

http://www.pcgameshardware.de/Project-CARS-Spiel-28603/News/Project-Cars-starker-Leistungsschub-nur-auf-PC-1160380/

DrumDub
2018-09-26, 15:19:01
Es scheint die RTX 2080Ti weiß nicht was sie sein möchte. Eine 1080p Karte (für RTX) oder eine 4K Karte (für DLSS). Beides zusammen geht nicht. Strange. das beschreibts sehr gut.

JVC
2018-09-27, 10:16:35
Preislich sehen wir ja das "beides zusammen geht" ... es wird ja trotzdem gekauft ;)

m.f.g. JVC

Dural
2018-09-27, 11:16:33
Neue Technologien haben noch nie für die höchsten Auflösungen gereicht.
Von dem her verstehe ich nicht wie so ständig an den 1080p / 60FPS rum gerieten wird!? Ich nenne das sehr gut spielbar, in einer Grafikpracht die es zuvor nicht gab.

Wenn man sich mit 30FPS begnügt dürfte auch eine klar höhere Auflösung möglich sein. Ich Zocke gerade TR mit einer 1080FE in 4K und alles Max, laut Benchmark sind es 35FPS und es ist nicht gerade so das es unspielbar wäre.

Schnoesel
2018-09-27, 11:19:11
Wer noch mit Mäusekino spielt beeindruckt das vielleicht.

RTX on wird bereits bei 1440p nicht mehr spielbar sein. Höchste Auflösung ist das sicher nicht.

Monsta
2018-09-27, 11:22:13
Neue Technologien haben noch nie für die höchsten Auflösungen gereicht.

Von dem her verstehe ich nicht wie so ständig an den 1080p / 60FPS rum gerieten wird!? Ich nenne das sehr gut spielbar, in einer Grafikpracht die es zuvor nicht gab.


Weil zb in meinem Haushalt kein Anzeigegerät mit so einer niedrigen Auflösung existiert.
Habe auch nicht nochmal vor durch ein Fliegengitter zu spielen.
Auflösung > Schatten.
Ich habe aber auch sehr gute Augen. Ich finde 4K noch zu mau.

Dural
2018-09-27, 11:29:19
Höher als 4K halte ich für unnötig, da hätte ich lieber sonstige bessere Grafik.

Aber jedem das seine.

SKYNET
2018-09-27, 11:44:35
Weil zb in meinem Haushalt kein Anzeigegerät mit so einer niedrigen Auflösung existiert.
Habe auch nicht nochmal vor durch ein Fliegengitter zu spielen.
Auflösung > Schatten.
Ich habe aber auch sehr gute Augen. Ich finde 4K noch zu mau.

ansichtssache(welch wortspiel :freak: ) mir kommt kein monitor grösser als 24" auf den tisch(und da ist bei 1920*1200 wie mein dell eher nix mit fliegengitter), weil bei weniger als nem meter sitzabstand gehen einfach dem menschlichen auge die informationen am bildrand sonst flöten... man "sieht" zwar das sich da zb was bewegt, aber bevor mans fokussiert nicht genau was --> kontraproduktiv, grad in sehr schnellen games... hat schon gründe warum im e-sport "kleine" monitore mit max. 24" genutzt werden. :smile:

aber bigger is better.... NOT!

JVC
2018-09-27, 12:04:27
https://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-rtx-2080-2080-ti/launch-analyse-rtx-2080-2080-ti-seite2
FHD --- 1080Ti FE ~238W ---> 2080Ti FE ~271W =+~14% Verbrauch +~20,1% Leistung
WQHD -1080Ti FE ~238W ---> 2080Ti FE ~271W =+~14% Verbrauch +~28,4% Leistung
4K ---- 1080Ti FE ~238W ---> 2080Ti FE ~271W =+~14% Verbrauch +~34,8% Leistung

Jetzt ist nur noch die Frage wie viele 1080Ti FE oder 1080Ti Partner Karten (+~10% )
getestet wurden :confused:
1080Ti Partner Karte ---> 2080Ti FE =~ +10-25% Leistung bei ~ gleichem Verbrauch.
( die Mehrkosten beachten wir besser gar nicht )
...

m.f.g. JVC

p.s.: Ich sehe beim besten Willen noch immer keine +40% Leistung ... egal wo ...
Die Skalierung mit der Auflösung finde ich trotzdem beachtlich !
Wobei ja angeblich noch sehr wenige wirklich mit 4K + zocken ...
Also für die FHD 144HZ Fraktion ist sie auf jeden fall nicht wirklich geeignet ;)
Und für mich als 4K Zocker ist das + , wen man es auch noch im Verhältnis zum Preis betrachtet,
VIEL zu wenig .
( und ich hätte auch zu erst lieber flüssige 8K oder 4K+120Fps ... alles darüber kann man dann von mir aus in Features versenken ;) )

@SKYNET. 1K zu 4K = 4 fache Bild Information ... und ich fühle mich vor Meinem 65" eigentlich recht wohl und sehe sehr viel ;)
Das Reaktionszeit und 120Fps+ in vielen Spielen weit mehr bringen ist natürlich klar ...
Beides, 120HZ +4K mit ner schnellen Reaktionszeit, wäre natürlich am allerbesten :cool:
gibt's nur leider noch nicht ...
Das dir ein Bildschirm "zu groß" ist kann durchaus sein ( wegen platz oder beengtem Sicht Feld oder so ... )
Aber ich denke auch du würdest lieber einen 24" OLED 4K 240Hz anstelle eines 24" 1K IPS 120Hz nehmen ;)
Ich stehe eher auf viel Fläche und eine möglichst kleine Lochmaske und empfinde 65" mit ~1,5m sitzabstand als wesentlich angenehmer als 24" und "Nase drauf" ...
Platz hätte ich vor dem PC auch noch für einen 80" .... aber da will ich dann auch schon 8K dazu ;)

Monsta
2018-09-27, 13:18:40
ansichtssache(welch wortspiel :freak: ) mir kommt kein monitor grösser als 24" auf den tisch(und da ist bei 1920*1200 wie mein dell eher nix mit fliegengitter), weil bei weniger als nem meter sitzabstand gehen einfach dem menschlichen auge die informationen am bildrand sonst flöten... man "sieht" zwar das sich da zb was bewegt, aber bevor mans fokussiert nicht genau was --> kontraproduktiv, grad in sehr schnellen games... hat schon gründe warum im e-sport "kleine" monitore mit max. 24" genutzt werden. :smile:

aber bigger is better.... NOT!

Ich lese sehr viel am PC, da ist Auflösung durchs nichts zu ersetzen. Beim Smartphone hat man ja auch ordentliche Pixeldichten. Und 1920x1200 auf 24Zoll ist fürs Lesen krümelig.

BigKid
2018-09-27, 13:31:40
Ich lese sehr viel am PC, da ist Auflösung durchs nichts zu ersetzen. Beim Smartphone hat man ja auch ordentliche Pixeldichten. Und 1920x1200 auf 24Zoll ist fürs Lesen krümelig.
Beim Smartphone hast du auch oft keinen Sitz- bzw. Sehabstand von einem Meter. Und wenn du an deinem Monitor näher drann bist solltest du mal zum Augenarzt :wink:
Abgsehen davon steigt die Auflösung bei den Smartphones seit Retina (V1) auch nur noch weil die Hersteller gemerkt haben, dass sich das genauso gut verkaufen lässt wir stur mehr Megapixel bei den Kameras... Hinterher machen die Algos eh nur noch Brei draus aber egal... Moar Pixel...

y33H@
2018-09-27, 13:35:50
p.s.: Ich sehe beim besten Willen noch immer keine +40% Leistung ... egal wo ...Ich sehe bei mir in 4K die +40 Prozent von 1080 Ti auf 2080 Ti und das ohne Quantum Break (+66%). Es kommt halt auf die Spiele, die Szene, das CPU-Limit etc an.

Monsta
2018-09-27, 13:40:36
Beim Smartphone hast du auch oft keinen Sitz- bzw. Sehabstand von einem Meter. Und wenn du an deinem Monitor näher drann bist solltest du mal zum Augenarzt :wink:
Abgsehen davon steigt die Auflösung bei den Smartphones seit Retina (V1) auch nur noch weil die Hersteller gemerkt haben, dass sich das genauso gut verkaufen lässt wir stur mehr Megapixel bei den Kameras... Hinterher machen die Algos eh nur noch Brei draus aber egal... Moar Pixel...

Ich sitze bei meinem Firmenmonitor der 24 Zoll hat, definitiv unter einem Meter vor dem Monitor.
Die Tiefe eines Bürotisches ist unter einem Meter. Da ist schwer weiter weg zu kommen, außer man lehnt sich im Stuhl an.
So kann ich aber nicht konstruieren, vielleicht nen Netflix Film gucken.
Wenn ich den Kopf mti einer Hand aufstütze bin ich rel nah am Schirm, da kann ich die Pixel zählen.

JVC
2018-09-27, 13:48:45
Ich sehe bei mir in 4K die +40 Prozent von 1080 Ti auf 2080 Ti und das ohne Quantum Break (+66%). Es kommt halt auf die Spiele, die Szene, das CPU-Limit etc an.

Natürlich gibt es überall Spitzen und Täler ...
Aber all zu sehr zerpflücken darf man das auch nicht da man sonnst
für "jedes" Spiel andere Hardware benötigen würde ... ^^

Um so neuer die Titel sind um so eher ist es was für neue Hardware.
Ich bin aber auch schon etwas Älter und hänge hauptsächlich in MMO´s herum ...
( WoW, D3, Rift, Wild Star, GW2 , Desteny2 ... da ist der große Bildschirm hald einfach nur geil)

m.f.g. JVC

BigKid
2018-09-27, 13:58:17
Ich sehe bei mir in 4K die +40 Prozent von 1080 Ti auf 2080 Ti und das ohne Quantum Break (+66%). Es kommt halt auf die Spiele, die Szene, das CPU-Limit etc an.
Wie würdest du den Gain bei WQHD einschätzen ? Grob ?

Raff
2018-09-27, 14:11:01
Genauso, sofern die CPU nicht limitiert.

MfG,
Raff

SKYNET
2018-09-27, 14:16:18
@SKYNET. 1K zu 4K = 4 fache Bild Information ... und ich fühle mich vor Meinem 65" eigentlich recht wohl und sehe sehr viel ;)
Das Reaktionszeit und 120Fps+ in vielen Spielen weit mehr bringen ist natürlich klar ...
Beides, 120HZ +4K mit ner schnellen Reaktionszeit, wäre natürlich am allerbesten :cool:
gibt's nur leider noch nicht ...
Das dir ein Bildschirm "zu groß" ist kann durchaus sein ( wegen platz oder beengtem Sicht Feld oder so ... )
Aber ich denke auch du würdest lieber einen 24" OLED 4K 240Hz anstelle eines 24" 1K IPS 120Hz nehmen ;)
Ich stehe eher auf viel Fläche und eine möglichst kleine Lochmaske und empfinde 65" mit ~1,5m sitzabstand als wesentlich angenehmer als 24" und "Nase drauf" ...
Platz hätte ich vor dem PC auch noch für einen 80" .... aber da will ich dann auch schon 8K dazu ;)


zu gross wegen sichtfeld, platz hätte ich genug nen 100" auf den "schreibtisch" zu stellen :ulol:

und deine 65" haben ja mit UHD ne 28% geringere pixeldichte als meine WUXGA mit 24" :freak: und eben gemessen, tatsächlich ist mein monitor von meiner sitzposition(stirn bis oberkante monitor) 101cm +/- nach sitzposition(meist eher im hocker drinnen, also +20cm ca) entfernt...

und klar sinds die 4fachen bildinformationen, aber auch nur bei games die nativ in 4k vom hersteller kommen, das ist aber eher selten der fall, heisst du hast zwar die 4-fache pixelzahl bei gleicher grösse, aber 4 pixel stellen genau das dar, was 1 pixel bei mir macht ;)

und nein, ich würde NIEMALS!! ein OLED TV, monitor oder auch smartphone haben wollen, schon aus dem grund weil die dinger altern und deutlich häufiger pixelausfälle haben und nach wie vor unter einbrennen leiden(90% der zeit wo meine kiste läuft, ist die taskleiste unten zu sehen und oben die menüleiste vom programm, kein nerv das die dann dauerhaft da ist) als IPS, da verzichte ich gerne auf perfektes schwarz.

desweiteren gibt es derzeit keinen grund einen monitor zu wechseln, weil all das was mein dell kann(100% adobergb und srgb) in 24" auch nur in 1920*1200 gibt, alle anderen liegen drunter, sehen zwar inzwischen mehr sexy aus, durch schmaleren rand, aber ich will ja kein wohnzimmer designcontest gewinnen, sondern das teil muss meinen ansprüchen genügen, und die sind halt etwas höher gesteckt als beim casualgamer ;)

BigKid
2018-09-27, 14:17:07
Genauso, sofern die CPU nicht limitiert.

MfG,
Raff
Danke !
Hmm... Jetzt mal ne blöde Frage: Dann müsste doch auch DLSS für WQHD eigentlich grob genausoviel bringen wie für 4k ? (Wenn es unterstützt würde...)

Raff
2018-09-27, 17:31:24
Geforce 411.70 WHQL beseitigt hohe Leistungsaufnahme bei Geforce RTX 2080 und RTX 2080 Ti (http://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/News/Geforce-RTX-Idle-Power-Fix-1266048/)

... allerdings nicht beim Multi-Monitoring. Der Treiberfix zeigt aber, dass man vieles ohne BIOS geradebiegen kann.

MfG,
Raff

crux2005
2018-09-27, 17:38:10
Geforce 411.70 WHQL beseitigt hohe Leistungsaufnahme bei Geforce RTX 2080 und RTX 2080 Ti (http://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/News/Geforce-RTX-Idle-Power-Fix-1266048/)

... allerdings nicht beim Multi-Monitoring. Der Treiberfix zeigt aber, dass man vieles ohne BIOS geradebiegen kann.

MfG,
Raff

Leistung in Forza Horizon 4 ist gleich geblieben? :)

Menace
2018-09-27, 17:51:24
... allerdings nicht beim Multi-Monitoring.


Ist es das gleiche Problem, welches AMD bei einigen Modelle hatte und nicht abstellen konnte (ich glaube Polaris war die erste Serie, die das abstellte).

JVC
2018-09-27, 18:14:14
Ich freu mich wirklich auf MAX OC vergleiche :)
Hoffe da kommt bei euch was vernünftiges Raff ;)
(obwohl es so gut wie sicher ist das ich diese Gen auslasse,
da müsste sich schon der preis fast halbieren oder die Leistung
"noch einmal" um 40% steigen ... = +50%im aller schlechtesten fall
zu einer MAX OC 1080Ti . )

m.f.g. JVC

@SKYNET
So findet jeder für sich das richtige, ist doch gut so :)
Ja ich weis die Pixeldichte ist bei mir, trotz relativ hohem sitzabstand,
auch mir etwas zu niedrig :/
Darum würde ich mir ja 80" 8K wünschen ( was ich eben platztechnisch schon berücksichtigt habe im Spielzimmer ^^) aber dann schon mit OLED da mir auch ein guter statischer Kontrast und schwarzes Schwarz wichtig ist ( zocke gern im Dunkeln und JA MM nach muss ne Blendgranate blenden :O ).
Vielleicht leg ich mir ja sowas https://geizhals.at/philips-65oled873-a1765829.html?hloc=at als Übergangslösung zu ( 8K wird wohl noch ein paar Jahre brauchen) ... ich mag Ambilight weil es das Bild gefühlt noch größer macht :)

SKYNET
2018-09-28, 09:10:25
Ich freu mich wirklich auf MAX OC vergleiche :)
Hoffe da kommt bei euch was vernünftiges Raff ;)
(obwohl es so gut wie sicher ist das ich diese Gen auslasse,
da müsste sich schon der preis fast halbieren oder die Leistung
"noch einmal" um 40% steigen ... = +50%im aller schlechtesten fall
zu einer MAX OC 1080Ti . )

m.f.g. JVC

@SKYNET
So findet jeder für sich das richtige, ist doch gut so :)
Ja ich weis die Pixeldichte ist bei mir, trotz relativ hohem sitzabstand,
auch mir etwas zu niedrig :/
Darum würde ich mir ja 80" 8K wünschen ( was ich eben platztechnisch schon berücksichtigt habe im Spielzimmer ^^) aber dann schon mit OLED da mir auch ein guter statischer Kontrast und schwarzes Schwarz wichtig ist ( zocke gern im Dunkeln und JA MM nach muss ne Blendgranate blenden :O ).
Vielleicht leg ich mir ja sowas https://geizhals.at/philips-65oled873-a1765829.html?hloc=at als Übergangslösung zu ( 8K wird wohl noch ein paar Jahre brauchen) ... ich mag Ambilight weil es das Bild gefühlt noch größer macht :)

das mit dem max oc einer turing hat igor im fall schon gemacht....

https://www.tomshw.de/2018/09/26/geforce-rtx-2080-ti-warum-wasserkuehlung-wichtiger-ist-als-manuelle-uebertaktung-und-diese-herzlich-wenig-bringt/

Dural
2018-09-28, 10:02:29
Also ich verstehe nicht wie so Ingor da schreibt das sich OC nicht lohnt.

Es ist doch völlig normal das die letzten paar MHz mit deutlich höherem Verbrauch erkauft werden müssen. Ich würde die 60W für 200MHz mehr gerne in Kauf nehmen, erst recht wenn man so wie so eine WaKü montiert.

Übrigens finde ich die 60W bei einem so grossen Chip nicht mal viel, da gab es in der Vergangenheit deutlich kleinere Chips die mit OC zum teil über 100Watt mehr gezogen habe.

Das einzig wo richtig schade bei Turing ist: 100-200MHz mehr OC wären richtig Genial. Aber da Limitiert wohl einfach die Fertigung.

JVC
2018-09-28, 10:09:34
Also macht die 2080Ti bei ~2GHZ zu obwohl es ein selektierter FE Chip ist ...
Ich weis das meine 1080Ti ziemlich gut läuft , bei vielen macht der auch bei ~2GHZ zu.

Es wird wohl auf ~2GHZ vs ~2Ghz hinauslaufen.
Da die 2080Ti etwas mehr shader hat nehme ich an das sie etwas besser skaliert ...
Vielleicht kommen dann ja doch mehr als 25% dabei rum bei ~gleichem verbrauch.
Die 2080 müsste noch mehr an Boden verlieren und merklich hinter einer 1080Ti landen.

m.f.g. JVC

Manchmal beneide ich Hardwaretester fast da sie den ganzen tag das machen was ich (früher) gerne als mein Hobby bezeichnet habe ...

y33H@
2018-09-28, 10:15:25
Geforce 411.70 reduziert Leistungsaufnahme im Leerlauf

https://www.golem.de/news/geforce-rtx-leistungsaufnahme-im-leerlauf-verringert-1809-136845.html
https://www.techpowerup.com/247985/nvidia-fixes-rtx-2080-ti-rtx-2080-power-consumption-tested-better-but-not-good-enough

Dural
2018-09-28, 10:21:22
@JVC

Du musst nicht immer alles glauben was das Marketing sagt, bis jetzt sieht man keinen OC Vorteil bei den FE.

Was ich übrigens schon immer angezweifelt habe... :wink:

Menace
2018-09-28, 10:22:30
Geforce 411.70 reduziert Leistungsaufnahme im Leerlauf

Aber (noch) nicht bei Multi-Monitor-Betrieb.

Ätznatron
2018-09-28, 10:27:23
Geforce 411.70 reduziert Leistungsaufnahme im Leerlauf

https://www.golem.de/news/geforce-rtx-leistungsaufnahme-im-leerlauf-verringert-1809-136845.html
https://www.techpowerup.com/247985/nvidia-fixes-rtx-2080-ti-rtx-2080-power-consumption-tested-better-but-not-good-enough

Mit zwei 4K60-Monitoren liegen bei den Geforce RTX 2080 (Ti) volle 7 GHz GDDR6-Takt an. Wird er bewusst reduziert, gibt es Bildfehler.

Und da hilft dann auch kein NV Inspector?

Bisher habe ich den immer für den Multimonitorbetrieb genommen (oder gilt das mit den Bildfehlern nur für Turing-Karten?).

JVC
2018-09-28, 10:39:12
@JVC

Du musst nicht immer alles glauben was das Marketing sagt, bis jetzt sieht man keinen OC Vorteil bei den FE.

Was ich übrigens schon immer angezweifelt habe... :wink:

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11811763#post11811763

@BigKid Fragte ...
Darunter @Raff Antwortete ...

Kombiniere 10xx vs 20xx = im schnitt +40% in der Praxis ... oder doch nicht :confused:
( oder ist das auch Marketing ? )

m.f.g. JVC

Armaq
2018-09-28, 19:13:27
http://www.pcgameshardware.de/Forza-Horizon-4-Spiel-61748/Specials/Forza-Horizon-4-Technik-Test-Benchmarks-1265758/

Erstmal finde ich es gut, dass PCGH jetzt Customs mitlaufen lässt.

Forza Benchmarks, neuer geht es ja nicht und es sind 27% für eine 2080 (custom) and 2080Ti (custom) 44% über eine 1080 Custom in WQHD. Die Werte verändern sich nur ein wenig bei 4k für die Ti.

Die 1080Ti ist nur 17% vor der 1080, also wo bitte sind denn die 30% hier 50% da und die 80% woanders?

Wie viele Transistoren gehen denn nun für die neuen Elemente drauf und wie viele für die Alten? Es gibt bei den Tests auf fixed clock ja Vorteile für die RTX, aber wie sind da die Verhältnisse? Gibt es Erkenntnisse?

Dural
2018-09-29, 09:48:31
Forza würde ich jetzt nicht als referenz nehemen. Zudem das game ziemlich sicher hoch auf gcn optimiert ist.

gnomi
2018-09-29, 10:32:19
Eventuell geht bei FH4 und nvidia Performance seitig auch noch was.
Forza 7 wurde jedenfalls nach Release auch noch beschleunigt.
Andererseits reicht eine 1080 OC selbst für 60 fps in Ultra HD oder 100 fps in WQHD.
Also das Spiel sieht zwar nochmals ein wenig besser aus als Teil 3, aber es ist grafisch selbst für Pascal keine Herausforderung. (Target Xbox One X @ Ultra HD & High mit 30 fps)


Die 200TI ist für sowas einfach uninteressant.
Da wäre Quantum Break ohne Upscaling und anderes extrem anspruchsvolles Material einfach interessanter.
Trotzdem. Die GPU hat genau die Power, die man auf dem HDR 4K Display dann gebrauchen könnte. (3,5-3,8k Extra Kosten sind allerdings ein ganz schlechter Scherz - vor 4 Jahren mit GSync WQHD plus GPU langten 1,3K etwa)
Bei der 2080 weiß ich nicht so recht, was ich von halten soll.
Der Sprung ist - anders als bei 680 auf 980 und 980 auf 1080 - halt einfach ein Witz. Das geht so nicht nvidia.

SKYNET
2018-09-29, 11:48:03
@SKYNET
So findet jeder für sich das richtige, ist doch gut so :)
Ja ich weis die Pixeldichte ist bei mir, trotz relativ hohem sitzabstand,
auch mir etwas zu niedrig :/
Darum würde ich mir ja 80" 8K wünschen ( was ich eben platztechnisch schon berücksichtigt habe im Spielzimmer ^^) aber dann schon mit OLED da mir auch ein guter statischer Kontrast und schwarzes Schwarz wichtig ist ( zocke gern im Dunkeln und JA MM nach muss ne Blendgranate blenden :O ).
Vielleicht leg ich mir ja sowas https://geizhals.at/philips-65oled873-a1765829.html?hloc=at als Übergangslösung zu ( 8K wird wohl noch ein paar Jahre brauchen) ... ich mag Ambilight weil es das Bild gefühlt noch größer macht :)

hätte ja gerne WQHD in 24" mit den anforderungen die ich habe an die farbräume... aber das gibts leider nicht...

perfekt wäre 24", WQHD, 10bit, 100% SRGB & adobeRGB, <3ms, freesync(ja, trotz NV karte, weil NV wird sich irgendwann beugen müssen und es freischalten) und KEIN OLED!! :freak: aber das gibts wohl in 5 jahren noch nicht so :frown:

Fliwatut
2018-09-29, 12:07:12
Der Sprung ist - anders als bei 680 auf 980 und 980 auf 1080 - halt einfach ein Witz. Das geht so nicht nvidia.
Hm, in QHD von einer schnellen Custom 1080 sind es 24-28%, in UHD sind es 25-30%: http://www.comptoir-hardware.com/articles/cartes-graphiques/37116-test-nvidia-geforce-rtx-2080-2080-ti.html?start=15 Das sehe ich jetzt nicht als "Witz", aber sicherlich wäre mehr drin gewesen, wenn man den gleichen Chip mit Shadern vollgestopft hätte, da hätten wir dann wohl den gleichen Sprung wie von Maxwell zu Pascal gesehen, das wäre mir auch entgegengekommen. Jetzt hat Nvidia viel Chipfläche für RT und DLSS verbraten, von dem niemand weiß, ob es das nächstes Jahr noch gibt.

SKYNET
2018-09-29, 12:34:58
Hm, in QHD von einer schnellen Custom 1080 sind es 24-28%, in UHD sind es 25-30%: http://www.comptoir-hardware.com/articles/cartes-graphiques/37116-test-nvidia-geforce-rtx-2080-2080-ti.html?start=15 Das sehe ich jetzt nicht als "Witz", aber sicherlich wäre mehr drin gewesen, wenn man den gleichen Chip mit Shadern vollgestopft hätte, da hätten wir dann wohl den gleichen Sprung wie von Maxwell zu Pascal gesehen, das wäre mir auch entgegengekommen. Jetzt hat Nvidia viel Chipfläche für RT und DLSS verbraten, von dem niemand weiß, ob es das nächstes Jahr noch gibt.

wenn AMD bzw. sony und MS da nicht mitziehen, wird RT verpuffen... die konsolenhersteller geben vor was "toll" ist und was nicht, von daher denke ich das wird noch min. bis zur PS6 dauern(6-7 jahre?)... aber lassen wir uns mal überraschen :smile:

Troyan
2018-09-29, 12:39:13
Entwickler werden Sony und Microsoft die Hölle heis machen, wenn die keine gleichwertige Raytracing Leistung unterstützen. Die Büchse der Pandora ist nun geöffnet. Da gibt kein zurück mehr.

/edit: Auf meiner täglichen Suche nach der TI gesehen, dass die KFA RTX 2080 für 799€ erwerbbar ist: https://www.mindfactory.de/product_info.php/8GB-KFA2-GeForce-RTX-2080-OC-Aktiv-PCIe-3-0-x16--Retail-_1276297.html

aufkrawall
2018-09-29, 12:43:23
Entwickler werden Sony und Microsoft die Hölle heis machen, wenn die keine gleichwertige Raytracing Leistung unterstützen. Die Büchse der Pandora ist nun geöffnet. Da gibt kein zurück mehr.

Entwickler können Microsoft und Sony gar nichts...

AffenJack
2018-09-29, 12:46:04
wenn AMD bzw. sony und MS da nicht mitziehen, wird RT verpuffen... die konsolenhersteller geben vor was "toll" ist und was nicht, von daher denke ich das wird noch min. bis zur PS6 dauern(6-7 jahre?)... aber lassen wir uns mal überraschen :smile:

Kommt ganz drauf an, ob AMD sich aus dem Grafikkartenmarkt verabschieden will. Anscheinend glauben das hier viele, denn das wäre die Konsequenz aus dem Ignorieren von RT auf längere Sicht. Da ich das nicht glaube, bin ich überzeugt, dass wir 2020 von AMD ebenso RT Beschleunigung sehen werden, genauso wie von Intel direkt zu Anfang.

Fliwatut
2018-09-29, 12:53:35
Ich frage mich allerdings schon, wie AMD und Intel das machen wollen, wenn Nvidia schon so einen Riesenchip dafür braucht. Und wie soll das dann in eine PS oder Xbox passen?

Troyan
2018-09-29, 12:54:39
Entwickler können Microsoft und Sony gar nichts...

Ein Großteil der AAA-Spiele werden von einer handvoll Publisher veröffentlicht, die ebenfalls börsennotiert sind.

EA arbeitet schon aktiv an der Implementierung von Raytracing mit SEED. Die werden Sony und Microsoft sicher schon mal mitgeteilt haben, was man für die nächste Generation erwarten werde...

SKYNET
2018-09-29, 13:07:36
Entwickler werden Sony und Microsoft die Hölle heis machen, wenn die keine gleichwertige Raytracing Leistung unterstützen. Die Büchse der Pandora ist nun geöffnet. Da gibt kein zurück mehr.

/edit: Auf meiner täglichen Suche nach der TI gesehen, dass die KFA RTX 2080 für 799€ erwerbbar ist: https://www.mindfactory.de/product_info.php/8GB-KFA2-GeForce-RTX-2080-OC-Aktiv-PCIe-3-0-x16--Retail-_1276297.html

was wollen sie heiss machen? sony und MS sitzen am längeren hebel... und die entwickler werden schön den hofknicks bei den beiden machen, egal was sie sagen, weil wenn MS und sony sagen "wenn ihr zickt, kommt das game nicht auf unsere konsolen" was so ziemlich den bankrott für jedes studio bedeuten dürfte, dann ist es so.

Mangel76
2018-09-29, 13:11:11
Ein Großteil der AAA-Spiele werden von einer handvoll Publisher veröffentlicht, die ebenfalls börsennotiert sind.

EA arbeitet schon aktiv an der Implementierung von Raytracing mit SEED. Die werden Sony und Microsoft sicher schon mal mitgeteilt haben, was man für die nächste Generation erwarten werde...

Ja, genau. EA zwingt MS und Sony eine 1000EUR Technologie in eine 500EUR Konsole zu bringen und droht damit, sonst auf Millionen Euro Umsatz zu verzichten. Und MS/Sony machen dann mit jeder Konsole Verlust, weil das besser ist als nichts zu verkaufen? Oder sie setzen den Konsolenpreis so hoch, dass sich kaum welche verkaufen?

Lowkey
2018-09-29, 13:24:34
del

AffenJack
2018-09-29, 13:30:50
Ich frage mich allerdings schon, wie AMD und Intel das machen wollen, wenn Nvidia schon so einen Riesenchip dafür braucht. Und wie soll das dann in eine PS oder Xbox passen?

Zuerst einmal kommen die in 7nm, daher ein Chip wie die 2070 ist da durchaus drin und dann unterschätzt du einfach was Entwickler draus machen können. Bisher ist Raytracing nur halbwegs an die Engines drangeflansht ohne überhaupt große Optimierungen gemacht zu haben. Bei einer Adaption in einer Konsole würden die Devs viel mehr ausprobieren und sicher Wege finden, dass auch auf Geschwindigkeit zu optimieren. Das Spiel Claybook ist auch Raytraced und läuft auf PS4 und Xbox One. Klar hat das jetzt keine realistische Grafik, aber es zeigt was mit Kreativität jetzt schon möglich ist.

JVC
2018-09-29, 14:02:58
AMD GPU-beschleunigte Raytracing-Software
https://www.amd.com/de/technologies/radeon-rays

AMD wird schon einen weg finden um mit den Konsolenherstellern auf einen "grünen Zweig" zu kommen ...
Die frage ist nur ob die Konsoleros was Proprietäres von NV unterstützen wollen oder
ob sie auf einen offenen Standard setzen so wie bei Free Sync.
Gibt es überhaupt schon einen ? oder prescht NV wieder einmal vor weil bald einer kommt ?
( so wie bei VRR wo sie wussten das ein Standard kommt und sie haben trotzdem (zwecks Kunden Bindung) noch schnell was Proprietäres eigenes herausgebracht ... )

m.f.g. JVC

p.s.: die neuen Features der 20iger Serie sehen für mich eher nach Kunden Bindung aus als nach netten "Gratisfeatures" ...
An sonnst versteh ich nicht warum man nicht den Sprung auf 7nm für die neue Technik benutzt, sondern die alten 16nm wobei man vermutlich wusste das Features und ein vernünftiges Leistungsplus in 16nm einfach nicht drin sind ...
NV sagt sich wohl: "ohne Konkurrenz können wir ruhig in der Leistung etwas "trödeln" und uns auf die Kundenbindung konzentrieren" ...
oder der Chip war auf 7/10nm geplant und musste für 16nm "abgespeckt" werden :confused:
So wie jetzt ist er in meinen Augen nix Ganzes, etwas zu magere +Leistung und die Features sind auch nur halbgar und viel zu teuer ...
( würde es eine 2080Ti ohne diese "tollen neuen Features" geben, wäre mir die durchaus ~850.- wert ;)
aber ich zahle bestimmt keine +~400.- für RT Cores und NV´s "Supercomputer Renderarbeit" :mad: )

SKYNET
2018-09-29, 18:29:46
Die frage ist nur ob die Konsoleros was Proprietäres von NV unterstützen wollen oder
ob sie auf einen offenen Standard setzen so wie bei Free Sync.
Gibt es überhaupt schon einen ?


MS hat nen "offenen" standard soweit ich weiss.

JVC
2018-09-29, 18:46:49
MS hat nen "offenen" standard soweit ich weiss.

Wenn es schon einen "Standard" gibt, wird es NV´s Proprietäre RT Hardware schwer haben ... zu mindestens den Konsolen Herstellern wir der "Quatsch" zu teuer sein :tongue:

https://de.wikipedia.org/wiki/Raytracing
Ok ich gebe zu das dort zum ersten mal gelesen zu haben ^^
Hat mich bis jetzt einfach nicht wirklich interessiert.
Wusste nicht das das ermitteln von verdeckten Objekten in unseren Games im Prinzip auch schon Raytracing ist :eek:
Im Endeffekt ist "RT" ein seeeeehr alter Hut und findet schon ständig verwendung ^^
(Das erste mit Raytracing berechnete Bild wurde 1963 an der University of Maryland auf einem oszilloskopartigen Bildschirm ausgegeben.)
"RT" ist hald die Sau, die NV zwecks Werbung durch´s Dorf getrieben hat :D
( hätte genauso gut jeder andere beliebige "quatsch" sein können,
wobei um die DLSS Sau ist es irgendwie ruhiger geworden )

m.f.g. JVC

Wozu sind die RT Einheiten schnell nochmal gut ?
Ach ja ... um unrealistisch Glänziges "noch schneller" (aber noch immer nicht schnell genug) darstellen zu können ...

Fragman
2018-09-29, 20:25:58
Wenn es schon einen "Standard" gibt, wird es NV´s Proprietäre RT Hardware schwer haben ... zu mindestens den Konsolen Herstellern wir der "Quatsch" zu teuer sein :tongue:

https://de.wikipedia.org/wiki/Raytracing
Ok ich gebe zu das dort zum ersten mal gelesen zu haben ^^
Hat mich bis jetzt einfach nicht wirklich interessiert.
Wusste nicht das das ermitteln von verdeckten Objekten in unseren Games im Prinzip auch schon Raytracing ist :eek:
Im Endeffekt ist "RT" ein seeeeehr alter Hut und findet schon ständig verwendung ^^
(Das erste mit Raytracing berechnete Bild wurde 1963 an der University of Maryland auf einem oszilloskopartigen Bildschirm ausgegeben.)
"RT" ist hald die Sau, die NV zwecks Werbung durch´s Dorf getrieben hat :D
( hätte genauso gut jeder andere beliebige "quatsch" sein können,
wobei um die DLSS Sau ist es irgendwie ruhiger geworden )

m.f.g. JVC

Wozu sind die RT Einheiten schnell nochmal gut ?
Ach ja ... um unrealistisch Glänziges "noch schneller" (aber noch immer nicht schnell genug) darstellen zu können ...

Es gab mal Zeiten, da haben Leute, die keine Ahnung in bestimmten Themengebieten hatten, den Mund gehalten, oder sich zumindest die Themen erklaeren lassen. Heute gibt es Leute wie Dich, die regelrecht im Nichtwissen baden und so Stolz darauf sind, das sie die ganze Welt dran teilhaben lassen muessen. :D

Dural
2018-09-29, 20:27:23
@jvc

...wenn du schon der meinung bist das seperate einheiten wie sie die rtx jetzt hat derzeit zu langsam sind, sollte dir doch eigentlich klar sein das die rt berechnung über die normalen alus erst recht zu langsam wäre.

Du hast manchmal echt komische ideen und aussagen ;)

Und überhaubt, nvidia unterstützt ja auch den standard von ms und dx ;)

JVC
2018-09-29, 22:07:37
Ich will nur damit sagen das es das ganze schon gibt und es schon länger eingesetzt wird.
Sowohl Raytracing als auch Upscaling (DLSS) sind absolut nix neues ...
Ja ich gebe zu das ich nicht genau wusste was Raytracing ist.

Und JA ich würde mir gerne eine stärkere Graka gönnen !

Darum versuche ich nur die Preispolitik von NV zu verstehen !
Wenn die 2080Ti die 1080Ti im preis einfach ersetzt hätte wäre ich wahrscheinlich sogar auch mit nur +25% zufrieden ...
Aber die +~400.- für Features die es schon lange gibt ... ne das versteh ich einfach nicht.
Um es einfach wie ein Promi zu sagen:
Ich hab ja nix zu verschenken !

m.f.g. JVC

@Dural
"...wenn du schon der meinung bist das seperate einheiten wie sie die rtx jetzt hat derzeit zu langsam sind ..."

Ich bin nicht der Meinung das die separaten Einheiten zu langsam sind ...
Sondern das sich NV ihre "Proprietären Features" sparen hätte sollen und für ehrliche Leistung ehrliches Geld nehmen hätte sollen.
( ne 2080 Ti FE ohne dem "RT Ballast" für lausige 799.- und alle wären im Kreis gesprungen )

@Fragman
Irren ist menschlich ;)
Ich hab kein Problem damit einen Fehler einzugestehen. ( darauf bin ich Stolz )
Ich würde mich nur schämen wenn ich zu feige wäre um nach Aufklärung zu fragen.
( am schlimmsten sind die die so tun als wüssten sie bescheid obwohl sie KA haben )
Ich bezweifle das die Mehrheit von denen die im Geschäft vor dem Regal stehen,
weis worum es bei RT und DLSS genau wirklich geht ... die interessiert nur der Balken aus der Werbung ...

p.s.: ich spiel gerne den "Buhmann" wenn es anderen hilft sich besser zu fühlen :)
Manchmal frage ich einfach weil sonnst keiner fragt, lockert die Stimmung ^^

Freestaler
2018-09-29, 22:54:03
JVC, was überlegst du überhaupt? Nach deinen Post im NV DauerNDA kaufst ja sowieso nichts mehr von NVidia, zumindest auch ein anderer Gaming in annehmbarer (ungleich gleich gut ;-)) Qualität liefert. Da könnte man ja denken, Rückgrat wie ein Gummibärchen. Mei.. wo sind eigwntloch alle neuen RTX besitzer hin? Haben doch ein paar nen Karton bekommen. War da nichts drin? Rockt das Teil und macht freude (ti owner ;-) only).

JVC
2018-09-29, 23:08:02
@Freestaler
"...Nach deinen Post im NV DauerNDA kaufst ja sowieso nichts mehr von NVidia..."

Genau aus diesem Grund beobachte ich NV noch genauer ;)
Und der Launch .... naja er ist auf jeden fall außergewöhnlich ...

Und im Moment überlege ich noch immer wie ich NV möglichst wenig "Schindluder" durchgehen lassen kann.
( und versuch mich von einem fehl-frustkauf fern zu halten )

m.f.g. JVC

p.s.: Ich denke nicht das ich irgendwo geschrieben habe das ich auf keinen fall mehr NV kaufe ...
Im Moment besitze ich sogar eine ( weil die Konkurrenz leider nix vergleichbares bietet )
Ich mag NV wegen ihrem Verhalten nicht und unterstütze gerne die "kleinen".
Und auf OC berichte der User warte ich hier auch noch immer ^^

=Floi=
2018-09-30, 09:51:40
außergewöhnlich schlecht. Da ist sicher nicht viel positives für die marke dran. :rolleyes:

Hübie
2018-09-30, 09:55:21
Du solltest mal hinterfragen warum Raytracing trotz seines Alters erst jetzt kam. Ich gebe dir ein Stichwort: Echtzeit.
Crysis 1 war eines der Titel, wenn ich mich recht erinnere, die Path-Tracing nutzten. Also ein Derivat von Raytraycing. Somit kann man also schon mal die CryEngine-Familie da rein zählen. Aber prinzipiell wurde es seit Äonen in der Film- und Fernsehindustrie eingesetzt. Da war es scheiß egal* ob ein Bild einen Tag brauchte, weil es im Gegensatz zu Spielen keine Eingabe vom User erwartet.

*scheiß egal im Kontext des RT im Spiel.

Fragman
2018-09-30, 10:22:10
Aber prinzipiell wurde es seit Äonen in der Film- und Fernsehindustrie eingesetzt.

Kleine Anmerkung noch,
wo es zu dem Zeitpunkt eingesetzt wurde, also vor 20 Jahren, gab es eigentlich immer einen Hybridansatz oder zumindest eine Reduktion mit gleichzeitiger Interpolation. Selbst heut wird immer noch nicht alles full getraced, zb effects, sss oder many lights sind teilweise noch interpolation (Bidirectionel Path Tracing kann ja auch noch darauf setzen).

Deshalb ist die Diskussion hier teilweise auch etwas seltsam, wenn geschrieben wird, das man doch haette warten sollen, bis die Hardware es "richtig" kann. Es gibt dabei eben kein "richtig" oder "falsch". Man nutzt das, was technisch moeglich ist, war eigentlich schon immer so.

Dural
2018-09-30, 10:31:16
2190mhz mit wakü und klima

https://youtu.be/5ooBrjYurbE

gbm31
2018-09-30, 11:08:05
Deshalb ist die Diskussion hier teilweise auch etwas seltsam, wenn geschrieben wird, das man doch haette warten sollen, bis die Hardware es "richtig" kann. Es gibt dabei eben kein "richtig" oder "falsch". Man nutzt das, was technisch moeglich ist, war eigentlich schon immer so.

Ich denke der "richtig" Teil bezieht sich darauf dass es in voller Gamingauflösung möglich sein sollte, und nicht so beschränkt wie jetzt.

dildo4u
2018-09-30, 12:21:35
2190mhz mit wakü und klima

https://youtu.be/5ooBrjYurbE
Jup Turing taktet deutlich besser als Titan V.


https://www.3dmark.com/hall-of-fame-2/timespy+3dmark+score+performance+preset/version+1.0/1+gpu

Fragman
2018-09-30, 12:29:10
Ich denke der "richtig" Teil bezieht sich darauf dass es in voller Gamingauflösung möglich sein sollte, und nicht so beschränkt wie jetzt.

Das kann man doch, wurde ja schon gezeigt.
Hier erwarten nur einige das man in 4k 60 frames und mehr haben sollte.
Und das ist Quatsch, wie Beispiele neuer Tech aus der Vergangenheit gezeigt haben. Aber das wurde ja schon zu genuege mehrfach geschrieben. Aber auch egal, das Thema will ich nicht wieder aufmachen. ;)

Slipknot79
2018-09-30, 13:16:06
4k60fps JETZT kann man sowieso vergessen. Besseres Feeling sind 80-100+fps, außerdem schaffen vielleicht die aktuellen AAA Spiele gerade noch irgendwie 60fps, die AAA Spiele in 1-2 Jahren gurken wieder bei 40fps rum, von daher kann man die RTX Ti immer noch vergessen für 4k60fps.
Die RTX Ti ist nur ein Schritt in Richtung 4k60fps, aber für 4k60fps in Wirklichleit kaum zu gebrauchen, besonders in der Zukunft bis die nächste Generation rauscumt.

Linmoum
2018-09-30, 13:21:15
Natürlich ist sie für 60fps und UHD mehr als zu gebrauchen. Es gibt Settings, die massenhaft Leistung fressen, aber keinen (sichtbaren) optischen Mehrwert bringen. Das ist dann die Kunst, einen Regler bedienen zu können. Aber ich weiß, dass das vielen schwer fällt.

Slipknot79
2018-09-30, 13:28:25
Natürlich ist sie für 60fps und UHD mehr als zu gebrauchen. Es gibt Settings, die massenhaft Leistung fressen, aber keinen (sichtbaren) optischen Mehrwert bringen. Das ist dann die Kunst, einen Regler bedienen zu können. Aber ich weiß, dass das vielen schwer fällt.


Vollpreis zahlen und das halbe Spiel wegregeln? Wasn das für ne Logik? :) :redface:

pixeljetstream
2018-09-30, 13:30:57
@Slipknot79, bei der nächsten Generation ziehen die Spiele dann auch wieder mehr an, so dass es wieder knapp wird, was ja auch Sinn der Sache ist. Die Entwickler nehmen sich gewisse frameraten als Ziel vor und versuchen soviel wie möglich unterzubringen. Das ist ein ewiger Kreislauf, Du wirst nie Spielraum bei aktuellen Titeln haben, es sei denn sie zielen mit Absicht auf hohe frameraten und hauen deshalb nicht so viel Details rein.

Linmoum
2018-09-30, 13:33:43
Vollpreis zahlen und das halbe Spiel wegregeln? Wasn das für ne Logik? :) :redface:
Du regelst also etwas weg, wenn du keinen optischen Unterschied siehst? Alles klar.

Und wer grundsätzlich nicht in der Lage dazu ist, entsprechende Regler zu bedienen, sollte sich sowieso fragen, ob er nicht etwas falsch macht. Der DAU interessiert sich sicherlich weniger dafür, aber oft genug gibt es teilweise sehr ordentliche Performancezuwächse, wenn man bestimmte Settings von Ultra dann halt auf Very High schraubt. Eigentlich das erste, was man in einem Spiel machen sollte. Kosten/Nutzen stimmt oftmals einfach nicht.

pixeljetstream
2018-09-30, 13:45:41
Ich denke der "richtig" Teil bezieht sich darauf dass es in voller Gamingauflösung möglich sein sollte, und nicht so beschränkt wie jetzt.
so funktioniert Evolution aber nicht, wenn die finale Lösung die das leistet (bzw. was genau ist eigentlich "das", "richtig", volle "Gamingauflösung" und refresh rate sind ja auch nicht in Stein gemeißelt oder von allen gleich empfunden) mit dem ersten Versuch schon gelöst wäre, wäre es ja einfach...

da die Thematik aber nicht einfach ist, braucht es Zwischenschritte (im übrigen erleben wir ja beim herkömmlichen Rasterizer ja das gleiche immer noch, auch hier werden Leute sagen das was wir haben reicht nicht, neue Techniken kommen, siehe tile caching, mesh shading, diverse generische Verbesserungen). Es ist ein ständiger Dialog zwischen sw-Entwicklern und hw-Entwicklern. In dem wie sie die features benutzen, beeinflussen die Spielentwickler die hw. Und umgekehrt, das was an hw features da ist, ermöglicht den sw-entwicklern neues.

Keiner kann ohne den anderen, aber letztendlich kann nur der hw-hersteller den Stein ins rollen bringen. Wie schon öfter erwähnt, DXR ist nicht aus dem Himmel gefallen, sw und hw-Entwickler wußten schon länger davon und beeinflussen solche Entscheidungen, so wie das api Design etc.

Slipknot79
2018-09-30, 13:58:04
@Slipknot79, bei der nächsten Generation ziehen die Spiele dann auch wieder mehr an, so dass es wieder knapp wird, was ja auch Sinn der Sache ist. Die Entwickler nehmen sich gewisse frameraten als Ziel vor und versuchen soviel wie möglich unterzubringen. Das ist ein ewiger Kreislauf, Du wirst nie Spielraum bei aktuellen Titeln haben, es sei denn sie zielen mit Absicht auf hohe frameraten und hauen deshalb nicht so viel Details rein.

Nach und nach wird 4k 80-100fps+ machbar sein, könnte schon mit Sprung auf 7nm möglich werden.
Was früher bei FHD undenkbar war, ist heute möglich und bereits auch schon in WQHD gehts gut dahin.

>Du regelst also etwas weg

Nein, ich zahl voll also regel ich nix weg. Was soll ich mit 2012-Matschtexturen in nem 2018-Game?

JVC
2018-09-30, 14:21:04
so funktioniert Evolution aber nicht, wenn die finale Lösung die das leistet mit dem ersten Versuch schon gelöst wäre, wäre es ja einfach...

da die Thematik aber nicht einfach ist, braucht es Zwischenschritte ...

Schön und gut ...
Aber wieso soll ich für "unbrauchbare" Zwischenschritte so enorm viel Geld hinlegen ?
Ich bin auf jeden fall nicht bereit NV Geld für die Entwicklung "vorzustrecken".
Oder wie soll man den aktuellen Kostenpunkt, im Bezug auf die Rohleistung,
momentan verstehen ?
Für mich ist die Karte einfach, für das gebotene, viel zu teuer.


m.f.g. JVC

p.s.:Normal bringt man ein Produkt vor dem Verkaufs Start zur marktreife.

PHuV
2018-09-30, 14:27:05
@JVC

Poste das doch bitte im Speku-Thread und nicht hier, es nervt. :rolleyes: Hier sollen nur Reviews rein und keine Meinungen.

JVC
2018-09-30, 14:35:12
@JVC

Poste das doch bitte im Speku-Thread und nicht hier, es nervt. :rolleyes: Hier sollen nur Reviews rein und keine Meinungen.

OK Das ist ein Augment.
Ich versuche zwar so wenig OT wie möglich ...
aber du hast recht, ich wiederhole mich ja eh nur noch ^^

Also hier nur noch Reviews und wenn möglich sinngemäß der neuen NV NDA :wink:

m.f.g. JVC

p.s.:
Ist es wirklich eine Meinung das RT-Cores und DLSS-Upscaling im Moment nicht wirklich benutzbar sind ?
Oder ist es nicht eher eine Tatsache ?

Darkseth
2018-09-30, 14:51:03
Nach und nach wird 4k 80-100fps+ machbar sein, könnte schon mit Sprung auf 7nm möglich werden.
Was früher bei FHD undenkbar war, ist heute möglich und bereits auch schon in WQHD gehts gut dahin.

>Du regelst also etwas weg

Nein, ich zahl voll also regel ich nix weg. Was soll ich mit 2012-Matschtexturen in nem 2018-Game?

Nein wird es nicht. Weil die Games immer wieder so abartig unsinnige Settings haben, die so heftig reinknallen, dass auch ne RTX x080 ti keine 60 fps in 4k schafft. Erst Recht nicht, wenn es nun immer schwerer wird, die Fertigung nennenswert zu verkleinern, um so deutliche Leistungssteigerungen zu bekommen.
Und schon doppelt und dreifach nicht, wenn solche leute wie du gleich die höchste Raytracing Option auswählen MÜSSEN fürs eigene Wohlbefinden ;-) Und ich bezweifle, dass die 2080 ti hier viele fps schafft.


Klassischer fall von unfähig die Regler zu bedienen ;-)
Das ist dann DEIN Problem, wenn du keine 4k 60 fps schaffst, nicht das der Grafikkarte.


Niemand sagt, du sollst die Textursettings auf Low stellen (zumal die an den fps NICHTS ändern würden - ergo ist dieses Argument von Grund auf schon Unsinnig).

Aber wenn schon 4k läuft, reicht auch FXAA, TAA, oder besser DLAA. Da muss man keine 8k Simulieren, indem man SSAA x2-4 reinballert.

Zig andere details, die du einfach nur um 1 einzige stufe auf das zweithöchste verringerst, du NULL UNTERSCHIED ERKENNEN KANNST, weil du dafür mit reinzoomen auf unkomprimierten screenshots nach Unterschieden suchen wirst, und eher Waldo findest ;-)


Aber ja, man sieht, wie unfassbar Wichtig Ultra settings sind für das allgemeine Wohlbefinden, und wie viel Optik es bringt:
1. https://www.youtube.com/watch?v=wnluU-pV6cU

2. https://www.youtube.com/watch?v=m7ierrbUWZM
Dabei wundert es mich, dass es zwischen Ultra und Hoch nur so einen geringen Unterschied gibt. Bei den meisten games gibt es direkt mal 30% weniger fps, für keinen sichtbaren optischen Unterschied.
Lustig aber, dass selbst Low nur geringfügig schlechter aussieht als Ultra. An paar Stellen, wie Schatten, Spiegelungen im Wasser, etc da sieht man was. Das Allgemeinbild wird aber kaum verschlechtert.

Zumal man nicht das ganze Preset von 20 settings gleichermaßen reduzieren kann.
In Witcher 3 macht Objektsichtweite alleine direkt mal 20-30% fps aus, wenn man es von Ultra auf Hoch reduziert.
Sämtliche anderen settings drüber/drunter jeweils nur 0-2%.


Kurz gesagt: Wer unfähig ist die Grafiksettings zu bedienen (dafür sind die gemacht, welch überraschung), muss nicht rumheulen, dass er keine 60 fps schafft.
Nach der Logik wäre selbst eine GTX 1080 zu schwach um 1080p @ 60 fps zu schaffen, denn das kann sie nicht wenn man überall max settings braucht, um nachts keine Alpträume zu bekommen.
Wer aber die Regler nur minimal bedient, auf maximal 1% bildqualität verzichtet, kriegt stabile 60 fps mit einer 230-300€ GTX 1060 / RX 580 hin. Sogar mit einer 170€ RX 570 4gb.

=Floi=
2018-09-30, 14:51:27
ihr reduziert alles nur auf RTX und mit dem rest bekommt man auch noch einiges.
blendet RTX mal aus.

TGKlaus
2018-09-30, 15:32:31
ihr reduziert alles nur auf RTX und mit dem rest bekommt man auch noch einiges.
blendet RTX mal aus.

Dann bleibt eine Karte, die nicht schneller ist als die 1080Ti, weniger RAM hat und 150€ mehr kostet.

Stretcher
2018-09-30, 15:57:32
Dann bleibt eine Karte, die nicht schneller ist als die 1080Ti, weniger RAM hat und 150€ mehr kostet.

So wie ich das sehe ist sie in frischen Titeln bis zu 20% schneller.
Langfristig wird sie sich absetzen, besonders inkl. Mesh Shading.

Slipknot79
2018-09-30, 16:00:09
>die so heftig reinknallen, dass auch ne RTX x080 ti keine 60 fps in 4k schafft.

Spätestens eine RTX 9080 ti wird das sicher schaffen ;)
Aber nach deiner Logik wird es eben keinen Sinn machen sich nen 4k TFT fürs Gaming zu kaufen, bzw werden nur jene machen, die mit 40fps zufrieden sind. Bleiben wir dann doch gleich bei 1080p.

>Klassischer fall von unfähig die Regler zu bedienen ;-)
>Das ist dann DEIN Problem, wenn du keine 4k 60 fps schaffst, nicht das der Grafikkarte.

Klassifer fall von unfähig Gehirn zu bedienen ;-) Nochmal, welcher 4K bei mir? Ich sagte schon, ich zahle Vollpreise, also gehen alle Regler auf max. Wie ist das möglich? Indem ich 4k meide, so einfach ist das.
Ich habe und werde nicht das Problem haben mit 4k unter 60fps.

>du NULL UNTERSCHIED ERKENNEN KANNST,

Ich erkenne und sehe alles, muss ja nicht zum Augenarzt im Gegensatz zu jenen die meinen keine Unterschiede zu sehen. ;) Ich zahle Vollpreis, also schaue ich mir das Spiel genau an, tauche darin ordentlich ein, sowas kennst du nicht als Speedrunner, klar dann gibts Sprüche wie "merke keinen Unterschied", tauche in das Spiel ein, dann siehst du alles. ;)

BiZiNiZz
2018-09-30, 23:13:49
>die so heftig reinknallen, dass auch ne RTX x080 ti keine 60 fps in 4k schafft.

Spätestens eine RTX 9080 ti wird das sicher schaffen ;)
Aber nach deiner Logik wird es eben keinen Sinn machen sich nen 4k TFT fürs Gaming zu kaufen, bzw werden nur jene machen, die mit 40fps zufrieden sind. Bleiben wir dann doch gleich bei 1080p.

>Klassischer fall von unfähig die Regler zu bedienen ;-)
>Das ist dann DEIN Problem, wenn du keine 4k 60 fps schaffst, nicht das der Grafikkarte.

Klassifer fall von unfähig Gehirn zu bedienen ;-) Nochmal, welcher 4K bei mir? Ich sagte schon, ich zahle Vollpreise, also gehen alle Regler auf max. Wie ist das möglich? Indem ich 4k meide, so einfach ist das.
Ich habe und werde nicht das Problem haben mit 4k unter 60fps.

>du NULL UNTERSCHIED ERKENNEN KANNST,

Ich erkenne und sehe alles, muss ja nicht zum Augenarzt im Gegensatz zu jenen die meinen keine Unterschiede zu sehen. ;) Ich zahle Vollpreis, also schaue ich mir das Spiel genau an, tauche darin ordentlich ein, sowas kennst du nicht als Speedrunner, klar dann gibts Sprüche wie "merke keinen Unterschied", tauche in das Spiel ein, dann siehst du alles. ;)

Mich wundert ja, dass dein Ego überhaupt in irgendwelche Räume passt, aber lassen wir das.

Ich würde jede Wette eingehen, dass du in einem Blindtest den Unterschied zwischen Extreme/Ultra High und High nicht sehen würdest. Vielleicht sieht man es, vielleicht sieht man es nicht. Aber in wie vielen Spielen läufst du wie in einer Galerie durch und bewunderst Minuten die Grafik? Sei es Shooter, Racing, selbst in einem MMO bist du immer in Bewegung. Unterschiede sind oft so minimal das es Schwachsinn ist alle Regler nach Rechts zu ziehen.

=Floi=
2018-10-01, 00:37:44
Beim thema schieberegler müsste man einen eigenen thread aufmachen, da ich auch einstellungen vertrete, welche erst jahre später flüssig laufen werden. So eine sache wäre deaktivierung des LOD.
Crysis ist auch nur deswegen so gut, weil man es im grunde so übertrieben hat.
Heute jammern alle, wenn ein BF V nicht @max flüssig läuft.
Ich liebe auch ini tweaking.

Geächteter
2018-10-01, 01:24:15
Crysis ist auch nur deswegen so gut, weil man es im grunde so übertrieben hat.
Heute jammern alle, wenn ein BF V nicht @max flüssig läuft.
Ich liebe auch ini tweaking.
Dann gucke mal, wie lange es schon bei Crysis gedauert hat, bis es flüssig lief. Wenn man gesetzt den Fall annimmt, dass BF V in der ursprünglichen Implementierung von RTX ne Ti für max. 60 fps in FHD braucht, dann wird das selbst mit 7 nm nix in UHD. Und wie lange es dann dauert, bis nach 7 nm was kommt, weiß auch keiner. Bis dahin wäre BF V schon längst verranzt.

gbm31
2018-10-01, 05:30:54
Ich spiele mal wieder den zu jagenden Boten, aber ich denke die Schieberdiskussion ist bei der teuersten Spielergrafikkarte (der neuen Generation) einfach nicht diskutabel.
Wenn die schon zu langsam ist wozu überhaupt aufrüsten?
Dann kann ich auch die Settings so weit runter setzen dass eine 1060 genügt.

Und zur vorherigen Geschichte:
Evolution in Schritten hin oder her, teuerste Grafikkarte (für Spieler) impliziert Leistung in höchster Auflösung ausreichend vorhanden für gewisse Zeit.
Bei RTX bei einer der Schlüsselmerkmale aber leider nicht, da nur für FHD performant genug.
Heisst für mich: nicht reif genug entwickelt.
Reifen beim Kunden ist ein sehr fauler Zauber.
Entwickler können mit Titans und Co. auch Vorlauf erhalten, RTX sieht nach ich lasse die Kunden die Entwicklung im Vorraus bezahlen aus.

Fazit für mich: RTniX - sorry.

Tobalt
2018-10-01, 07:43:01
ich glaube ein 4k very high bild zeigt sicher mehr von den "Vollpreisdetails" als ein 1440p ultra bild ;-)

und mit der teuersten graka zu rechtfertigen dass man keine regler möchte ist genau so unlogisch: ab einer gewissen Auflösung biste selbst mit Low details im gpu limit ;-) es gibt auch 5k monitore und mehr. sollen diese leute auch alle 60 fps erreichen @ultra weil sie ja brav die teuerste graka gekauft haben ??

you get what u paid for ( mit zugegeben miesem p/l Verhältnis dieses mal ) und es liegt in der Verantwortung des Nutzers das eben je nach eigener vorliebe für fullHD 300 fps oder 1440p ultra 60 hz oder 4k high 60 fps oder oder oder einzusetzen

Fragman
2018-10-01, 07:45:09
Evolution in Schritten hin oder her, teuerste Grafikkarte (für Spieler) impliziert Leistung in höchster Auflösung ausreichend vorhanden für gewisse Zeit.


Ka wo diese Anspruchshaltung her kommt, aber wann gab es das in der Geschichte der 3D Games? Ob Doom3, Crysis, GTA, ja selbst Quake1 noch auf 2D Karten, immer gab es Spiele, die nicht fluessig liefen auf High End Systemen und das war aergerlich, aber auch normal. :confused:

Dural
2018-10-01, 09:28:58
ich habe es auch schon mal gesagt, mir kommt keine einzige neue technologie in den sinn wo von anfang an in allen spielen mit max settings gut lief.

Wie so das die RTX serie jetzt plötzlich können muss verstehe ich auch nicht. Liegt vielleicht am preis der karten :confused:
Die diskussion finde ich so wie so ziemlich sinnlos, da der TU102 was die fertigung anbelangt stand heute alles was möglich ist raus holt, es geht einfach nicht mehr.

BigKid
2018-10-01, 09:47:52
ich habe es auch schon mal gesagt, mir kommt keine einzige neue technologie in den sinn wo von anfang an in allen spielen mit max settings gut lief.

Wie so das die RTX serie jetzt plötzlich können muss verstehe ich auch nicht. Liegt vielleicht am preis der karten :confused:
Die diskussion finde ich so wie so ziemlich sinnlos, da der TU102 was die fertigung anbelangt stand heute alles was möglich ist raus holt, es geht einfach nicht mehr.
Es KÖNNTE mit dem total überzogenen Preis zusammen hängen ? Den Leuten fällt es einfach immer schwerer es zu rechtfertigen soviel Kohle rauszuhauen. Ein (über)teures Produkt sieht sich halt auch leichter Kritik ausgesetzt.
Ausserdem fällt mir auf, dass um sich greifende Egozentrik und Narzissmus ebenfalls zu einer allgemein gestiegenen Anspruchshaltung führt... Ich WILL es und ich WILL ES JETZT ...:)

AffenJack
2018-10-01, 09:54:38
Ka wo diese Anspruchshaltung her kommt, aber wann gab es das in der Geschichte der 3D Games? Ob Doom3, Crysis, GTA, ja selbst Quake1 noch auf 2D Karten, immer gab es Spiele, die nicht fluessig liefen auf High End Systemen und das war aergerlich, aber auch normal. :confused:

Ist mittlerweile normal. Das sieht man heutzutage auch an den Games, die sich daran orientieren, weil immer zuviele heulen, wenn sie nicht alle Regler nach rechts stellen können. Mit ein Grund, wieso wir gefühlt gerade eine Stagnation in der Grafik erleben. Früher hatte man Games die das machbare pushen, heute unmöglich, da die Leute sofort flamen, wieso es auf ihren Systemen nicht auf voll läuft. Wenn ich da an Crysis denke, dass damals mit Highend gerademal 35 FPS mit High-End Karten in 720p hatte. Da ist 1080p mit 60 FPS ein noch erträgliches Ziel.

Nazar
2018-10-01, 09:58:39
Du regelst also etwas weg, wenn du keinen optischen Unterschied siehst? Alles klar.

Also dieser Satz ist schon fast hitverdächtig!!!!!

Frage!
Wieso muss ich etwas "wegregeln", wenn es gar nicht nötig ist, da es eh keinen negativen Einfluss hat? :freak:
Es ist also etwas vorhanden, dass das Spiel signifikant langsamer macht, aber überhaupt keinen Nutzen bringt?
Relativitätstheorie mal ganz anders..... nicht schlecht. ;D

BlacKi
2018-10-01, 10:03:07
2190mhz mit wakü und klima

https://youtu.be/5ooBrjYurbE
mir hat sein homemade "custom waterblock" sehr gut gefallen^^

Fragman
2018-10-01, 10:05:07
Was den Preis angeht, die Leute haetten damals der Geforce1 mit DDR RAM schon den Finger zeigen muessen, spaetesten aber bei der G2 Ultra und auch der G3. Aber das hat damals mehr amuesiert und wurde nicht sehr ernst genommen, kam mir zumindest so vor. Die Titans haben dann den Sack zugemacht. Der Zug ist also schon vor vielen Jahren abgefahren.
Man kann aber auch einfach argumentieren, das Technik immer teurer wird, da man ueber die Jahre immer naeher am technisch machbaren rangerueckt ist. Mainstream Technik duerfte das sein, was in den Konsolen verbaut ist. Und das reicht vielen auch aus. Fuer alles andere muss man einen Aufpreis bezahlen.

Wobei die RTX Karten dank RT aber schon einen deutlichen Mehrwert liefern koennen, aus meiner Sicht. Wenn die beim rendern doppelt so schnell ist oder sogar noch mehr Leistung liefern, dann ist der Preis ok.

HisN
2018-10-01, 10:05:48
Hmm... also PUBGs läuft jetzt in UHD mit 144FPS.
Also ich meine, in den Momenten wo meine CPU das stemmt^^^

_kcASMieKHU

JVC
2018-10-01, 11:07:11
So wie ich das sehe ist sie in frischen Titeln bis zu 20% schneller.
Langfristig wird sie sich absetzen, besonders inkl. Mesh Shading.
2080 FE vs 1080 Ti Custom
https://www.gamersnexus.net/hwreviews/3365-nvidia-rtx-2080-founders-edition-review-benchmarks-vs-gtx-1080-ti
"NVidia's own GTX 1080 Ti offers superior value at $150 less, in some cases, or $100 less on average. The cards perform equivalently, and yet the 1080 Ti is cheaper and still readily available."

m.f.g. JVC