PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 2080/Ti Review-Thread


Seiten : 1 2 3 [4] 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19

Armaq
2018-09-22, 11:46:57
Die Karten kosten kaum mehr als gute 1080TI customs. Also wo ist da das Preisproblem? Ernsthaft gefragt, den die Diskussion ist mittlerweile laecherlich. Das Problem sind doch die Preise der 2 Jahre alten Gen und die haben sich so gebildet, obwohl die Lager voll sein sollen. Und der Witz ist, die Preise bei den alten TI gehen seit 2 Wochen wieder hoch (40-50 euro mehr). Wieso sollen denn die Preise fuer die neue Gen niedriger sein als fuer die alte? Das macht aus vielerlei Gruenden 0 Sinn.
Das ist ja witzig. Du hast also immer deine 600 € gelöhnt und die Karte war überhaupt nicht schneller? Ich muss beim aufrüsten was falsch gemacht haben.

Spasstiger
2018-09-22, 11:57:10
Du hast also immer deine 600 € gelöhnt und die Karte war überhaupt nicht schneller?
Sehr guter Punkt. Wenn ich vor zwei Jahren 800 € für eine GTX 1080 Ti ausgeben habe und jetzt wieder 800 € ausgebe für eine gleichschnelle RTX 2080 Referenz, dann hab ich als Käufer eine Dummheit begangen außer ich kann mich für die neuen Features begeistern, deren konkreter Praxisnutzen noch gar nicht richtig greifbar ist.

Daredevil
2018-09-22, 12:01:46
Die RTX heißt RTX, weil sie ein anderes Aufgabengebiet hat wie die GTX, ist das denn so schwer zu verstehen?

Wieso hatet eigentlich niemand die 16GB Edition von Vega? 1000€ für 1070ti Leistung. Oder ist da jedem klar, dass diese Karte ein anderes Aufgabengebiet hat? So schlau waren wir früher doch auch, wieso sind manche bei Nvidia so versperrt im Kopf?

dargo
2018-09-22, 12:03:44
Ein Test mit guten Kühlern und gleichen Taktraten für die GPU wäre IMO interessant. Alternativ max OC vs max OC mit guten Kühlern. Das ist nunmal der Alltagsbetrieb. IMO verzerrt der Test gegen die alte FE mit dem wirklich sehr eingeschränkten Kühler gegen die neue FE mit dem sehr guten Kühler das Bild schon.
Oder Partnerkarte vs Partnerkarte.
Ich hatte schon mal darauf hingewiesen, dass Computerbase auch eine OC FE getestet hatte die im Schnitt 9% schneller als die FE ist, was wiederum ganz gut zum Schnitt der Customs passt. Und bevor gleich wieder einer mit Korinthenkackerei kommt... ja, ich weiß es gibt Customs die minimal über den 9% liegen. Genauso gibt es Customs die minimal unter diesem Wert liegen.

Hör das Jammern auf. Das ist normale Gewinnmaximierung bei der Resteverwertung. Was erwartest Du für DEN Preis. ;D;D;D

War auch mein erster Gedanke. :D Warum soll nur Nvidia Gewinnmaximierung betreiben und nicht ASUS?

Menace
2018-09-22, 12:05:52
Auffällig ist halt, dass der Testansatz immer so wechselt, dass es die neue Serie von NV besser aussehen lässt. Wirklich ein Schelm der da Böses vermutet.


Ich habe jetzt nur deinen Beitrag herausgepickt, aber andere behaupten das ja auch.

Wenn das wirklich so wäre (ich weiß es wirklich nicht), dann könnte man doch dazu mal hier Quellen verlinken. Dann wüsste man auch schnell ob Alu-Hut, Pippi Langstrumpf oder fishy.

Das menschliche Gehirn versucht ja immer irgendwelche Muster zu sehen, wo nur Zufälle vorhanden sind.

Edit:
Die RTX heißt RTX, weil sie ein anderes Aufgabengebiet hat wie die GTX, ist das denn so schwer zu verstehen?


Gar nicht. Aber schafft die RTX 2070 die RTX-Aufgaben?

Schafft überhaupt eine RTX 2080 NonTi die Aufgaben? Gibt es dazu bisher einen Test? :confused:

Menace
2018-09-22, 12:07:25
Edit: Sorry, Doppelpost. Bitte löschen.

Doppelpost-Forumssoftware:
Kann man eigentlich nicht die Forum-Software soweit erweitern, dass zwei Beiträge, die hintereinander erstellt wurden automatisch zusammengefasst werden? Ich glaube das funktioniert bei Planet3dNow so.

gnomi
2018-09-22, 12:07:58
Egal, ob das Ding nun FX, GTX oder RTX heißt, es ist einfach eine Gaming GPU und nichts weiter. :wink:
Tests mit Custom 1080 gibt es bei Gamersnexus meine ich:
https://www.gamersnexus.net/hwreviews/3365-nvidia-rtx-2080-founders-edition-review-benchmarks-vs-gtx-1080-ti

Daredevil
2018-09-22, 12:12:59
Nein, RTX bedeutet, dass diese Karte speziell für die Anwendung von Raytracing erbaut wurde im Gaming Sektor. Es ist für den speziellen Fall und RTX Games wichtig, so eine Karte zu besitzen.
Wenn dir RTX aber nicht wichtig ist, dann bist du nicht die Zielgruppe und solltest auch nicht den Aufpreis für diese Features zahlen.

Deswegen wurde ja auch eine neue Kategorie geschaffen > Raytracing Gaming.

@Menace
Warum sollte eine RTX2070 kein RT nutzen können?
Hast du überhaupt schon einen Test gesehen, wo RT belichtet wird in Verbindung mit Spielen?
PS: Es gibt nicht nur AAA Spiele im Leben.

Menace
2018-09-22, 12:19:12
@Menace
Warum sollte eine RTX2070 kein RT nutzen können?
Hast du überhaupt schon einen Test gesehen, wo RT belichtet wird in Verbindung mit Spielen?


Zur ersten Frage: Weil die Leistung einer RTX 2070 für RT-ON nicht ausreicht. Sie könnte es vielleicht, aber nur im 720 Modus.

Zur zweiten Frage. Nein; also zumindest nicht in den jetzigen Tests. Habe ich etwas übersehen? Raff hat nur schon vor einiger Zeit geschrieben, dass wenn man RTX nutzen möchte, am besten die TI holt.

Noch eine Frage: Testet außer Gamersnexus keine Seite alte Custom-Karten? Das wäre schon strange.

Fliwatut
2018-09-22, 12:20:18
Wenn die 2080 nur noch 10-20% schneller ist als eine Custom 1080 (NON Ti), dann wird der Aufschrei groß und das wusste man.
Man müsste dann aber auch die 2080 bis an die Kotzgrenze übertakten und evtl. mit Wasser kühlen, falls der FE-Kühler limitiert, damit dieser Vergleich dann auch wirklich vergleichbar ist. Ich finde es okay, wenn man FE mit FE vergleicht, dass der alte FE-Kühler nicht so toll ist, weiß man doch, auch dass es schnellere Customs gibt.

dargo
2018-09-22, 12:21:28
Man müsste dann aber auch die 2080 bis an die Kotzgrenze übertakten und evtl. auch mit Wasser kühlen, falls der FE-Kühler limitiert, damit dieser Vergleich dann auch wirklich vergleichbar ist.
Nur limitiert bei einer Turing FE nicht der Kühler! Jeder Turing FE läuft ins PT.

Menace
2018-09-22, 12:24:30
Weiß nicht, ob es hier schon gepostet wurde. Heise hat eine Gainward RTX 2080 gekauft und "getestet" (https://www.heise.de/newsticker/meldung/Nvidia-GeForce-RTX-2080-im-Kurztest-Teurer-aber-nicht-viel-besser-als-die-Vorgaenger-4168248.html). Wobei es eher den Namen "Kurztest" nicht verdient.

Übrigens: Dafür, dass man heise unterstellt, dass sie parteiisch sind fällt ihr Fazit doch recht positiv für die Non-Ti-Karte aus:

"Wer bereits eine GeForce GTX 1080 Ti besitzt, hat keinen wirklichen Grund, auf die GeForce RTX 2080 umzusteigen. Die 3D-Performance ist so gut wie identisch, die neuen Features sind vorerst noch nicht nutzbar, der Preis liegt sogar höher. Attraktiver scheint da schon ein Umstieg von einer GeForce GTX 1080 oder einer älteren Karte – wenn das Budget es hergibt.

Spannend sind die neuen Raytracing- und Machine-Learning-Funktionen. Es kommt nun darauf an, was Spiele- und Software-Entwickler daraus machen und ob Raytracing-Effekte in 3D-Engines bald zum guten Ton gehören. Und wie AMD darauf antwortet: In puncto Performance hat AMD Turing derzeit nichts entgegenzusetzen."

Schnoesel
2018-09-22, 12:28:24
Nein, RTX bedeutet, dass diese Karte speziell für die Anwendung von Raytracing erbaut wurde im Gaming Sektor. Es ist für den speziellen Fall und RTX Games wichtig, so eine Karte zu besitzen.
Wenn dir RTX aber nicht wichtig ist, dann bist du nicht die Zielgruppe und solltest auch nicht den Aufpreis für diese Features zahlen.

Deswegen wurde ja auch eine neue Kategorie geschaffen > Raytracing Gaming.



Würde man die neuen Karten nur an RTX festmachen wären sie der Oberfail, denn es gibt nichts was darauf laufen würde.

Bringt erstmal Spiele und was zum testen auf den Markt, dann kann man sich imo erneut drüber unterhalten ob RTX überhaupt einen Mehrwert bietet. Stand jetzt gibt es RTX nicht also an was willst du die Karten denn sonst messen als an dem was es derzeit gibt.

Armaq
2018-09-22, 12:29:34
Ich rede nicht von der 2080 Ti, die deutlich schneller ist als die 2080. Ich rede nur von 2080 vs. 1080 und das ich das Gefühl habe, mir wurde ein Bären aufgebunden und als Pudel verkauft. Der PCGH Test setzt hier merkwürdige Maßstäbe an. In WQHD schöpfe ich das Potential der 2080(Ti) sicherlich auch nicht voll aus.

Meine 1080 gegen eine 2080 zu setzen, ergibt für mich glasklar, dass hier die Midrange Karte der nächsten Generation zum HighEnd Preis angeboten wird. 900€ Straßenpreis vs. 550€ für 15% ist hart an der Grenze.

robbitop
2018-09-22, 12:30:37
Das ist ja witzig. Du hast also immer deine 600 € gelöhnt und die Karte war überhaupt nicht schneller? Ich muss beim aufrüsten was falsch gemacht haben.

This. Genauso funktionierte Aufrüsten als es noch einen Wettbewerb gab. Und jetzt ist es ok beim Aufrüsten für Mehrleistung ggü einem 2 Jahre alten Produkt on top zu zaheln. Ich finde das auch nicht gut. Die Schuld dafür muss differenziert werden:

- Speicherpreise sind massiv gestiegen
- Prozessshrinks werden immer teurer
- Entwicklungskosten steigen (das GPUs komplexer werden braucht man teurere tools und mehr Mannstunden)
- die dice bei Turing sind riesig

aber auch: mangels Wettbewerb zahlen wir alle die großen Gewinnspannen mit.

Und die Schuld dafür trägt IMO das Management von AMD - nicht Lisa Su sondern ihre Vorgänger inkl Hector Ruiz. ATI war bis 2006 eine extrem gute Grafikschmiede und wurde immer weiter heruntergewirtschaftet.
Ob der Merger damals so eine gute Wahl war? Ggf wäre ein Merger mit NV mit Jensen als CEO besser gewesen.

Oder statt Hector Ruiz hätte man Dave Orton machen lassen sollen (CEO von ArtX und später ATI und Vater vom R300)

uweskw
2018-09-22, 12:31:53
Man müsste dann aber auch die 2080 bis an die Kotzgrenze übertakten und evtl. mit Wasser kühlen, falls der FE-Kühler limitiert, damit dieser Vergleich dann auch wirklich vergleichbar ist. Ich finde es okay, wenn man FE mit FE vergleicht, dass der alte FE-Kühler nicht so toll ist, weiß man doch, auch dass es schnellere Customs gibt.


Begreift ihr denn nicht? Die 2080 FE entspricht den Custom OC Modellen.

Eine Gainward GOLDEN SAMPLE!! taktet gerade mal 15mHz höher als die FE:eek:


greetz
US

robbitop
2018-09-22, 12:36:01
custom pascal vs custom turing und gut ist.

Daredevil
2018-09-22, 12:37:42
Zur ersten Frage: Weil die Leistung einer RTX 2070 für RT-ON nicht ausreicht. Sie könnte es vielleicht, aber nur im 720 Modus.

Zur zweiten Frage. Nein; also zumindest nicht in den jetzigen Tests. Habe ich etwas übersehen? Raff hat nur schon vor einiger Zeit geschrieben, dass wenn man RTX nutzen möchte, am besten die TI holt.

Du merkst es aber schon selbst oder?
Es gibt noch keinerlei Benchmarks, aber du spekulierst, dass man auf einer RTX2070 nur in 720 spielen kann. Das ist halt Schwachsinn, weil es keine belegbaren Werte gibt.
PS erneut: Die Spielwelt besteht nicht nur aus AAA Titeln.

Würde man die neuen Karten nur an RTX festmachen wären sie der Oberfail, denn es gibt nichts was darauf laufen würde.

Korrekt. Sie fokussieren sich auf ein Feature, welches es heute noch nicht gibt. Deswegen sind sie aber automatisch kein "Allgemein Fail", aber dennoch natürlich ein "Heute Fail".

Wenn ich mir ein neues Smartphone kaufe, welches in der 5G Version 100€ mehr kostet als die gleiche 4G Version, ist es ebenfalls kein Allgemein Fail, sondern wie jemand schon schrieb "eine Wette auf die Zukunft".

Schnoesel
2018-09-22, 12:38:31
custom pascal vs custom turing und gut ist.


Hat nur leider keiner gemacht. Das ist echt traurig, dabei war es allen vorher klar, dass FE Pascal vs. FE Turing nicht vergleichbar sein werden.

@Daredevil

Wenn ich ein Feature verkaufen will das Stand jetzt nicht nutzbar ist, kann ich das wohl kaum für eine positive Argumentation nutzen und man muss sich damit abfinden dass die Leute anhand der Features bewerten, die nutzbar sind. Nvidia hatte es doch allein in der Hand die Karten zu releasen sobald etwas vorzeigbar ist. Haben sie nicht gemacht, war ein Fehler, kein Mitleid. RT ist vor allem mit den kleineren Karten ne absolute Wundertüte und ein Risiko das zudem noch für teuer Geld erkauft wird. Da ist nichts positives dran.

Menace
2018-09-22, 12:48:41
Du merkst es aber schon selbst oder?
Es gibt noch keinerlei Benchmarks, aber du spekulierst, dass man auf einer RTX2070 nur in 720 spielen kann. Das ist halt Schwachsinn, weil es keine belegbaren Werte gibt.


Eben. Du behauptest, bei RTX kommt es halt auf RTX-Aufgabengebiet an und ich sage, das weiß man bisher noch gar nicht.

Jetzt kommst Du und sagst, das weiß man noch gar nicht, dass sie es nicht kann. Folglich sind wir einer Meinung und momentan kann man weder das eine noch das andere behaupten (deswegen spricht ja auch heise von Nebelkerze).

Glaubst Du dass ein Non-AAA-Titel RT besser implementiert? :confused:

Korvaun
2018-09-22, 12:48:42
Immer dieses Rumgeheule, tsts...

Für 1080er und kleiner sind die neuen Karten gut zum aufrüsten geeignet... schneller und mehr Features. Preis ist zwar hoch aber man hatte jetzt ja auch 2+ Jahre Ruhe.

Die 1080ti Leute sind am heulen als ob die Welt untergehen würde. Ja, für euch ists nicht so toll, bzw sehr teuer für rel. wenig mehr Speed. Andererseits ist die 1080ti aktuell wohl noch allemal schnell genug um die Zeit bis zur 7nm Generation bequem zu überbrücken. Also freut euch doch! nV erspart es euch jetzt Geld auszugeben und bereitet den Markt schon vor auf benutzbares Raytracing&Co. in der nächsten Generation.:devil:

Fragman
2018-09-22, 12:50:49
- Speicherpreise sind massiv gestiegen
- Prozessshrinks werden immer teurer
- Entwicklungskosten steigen (das GPUs komplexer werden braucht man teurere tools und mehr Mannstunden)
- die dice bei Turing sind riesig


Das sind die Probleme, man steckt aktuell technologisch fest und das nervt einige halt. Und 7nm wird da auch nicht viel aendern. Im besten Fall bekommt man in 2 Jahren eine 3070 mit der heutigen 2080TI Leistung fuer 600 Euro. Und mit viel Glueck schafft es AMD mit deren High End Loesung auf dieses Niveau.
Deshalb ist der Weg, den nv und die anderen gehen, richtig, da man nur so die Qualitaet verbessern kann, im Verhaeltniss zum Aufwand gesehen.
Spannender ist ja die Frage, wie es nach 7nm weiter gehen oder gehen soll. 7nm wird ja sicher einige Zeit halten muessen aber ohne shrinks ist es heute schon absehbar, das sich die aktuelle Situation wiederholen wird.

Daredevil
2018-09-22, 13:02:19
Glaubst Du dass ein Non-AAA-Titel RT besser implementiert? :confused:
Ich habe zumindest so viel Fantasie, dass es tolle Spiele gibt, für die man keine 1000€ Grafikkarte braucht ( Egal of Pascal oder Turing ) und man sie trotzdem spielen kann.
Ein Ori and the Blind Forest z.B. hat nur einen Bruchteil der Anforderungen von Battlefield und dort spielt Licht/Schatten eine große Rolle. Warum sollte dort z.B. nicht ein wenig RT eingesetzt werden, was auf einer kleineren Karte spielbar wäre?

@Schnoesel
Ja, die Leute können gerne eine Karte nach ihren jetzigen Features bewerten, aber trotzdem machen sie einen Fehler dahingehend, dass sie keine Ahnung von dem Produkt haben.
Wenn Porsche ein neues Produkt auf den Markt wirft, beschwere ich mich auch nicht darüber, dass es zu teuer ist, nur ein wenig schneller fährt wie mein Jeep und Offroad Fähigkeiten nicht vorhanden sind. Weil ich in einer Kategorie suche, wo ich überhaupt nichts verloren habe.

Schnoesel
2018-09-22, 13:08:26
Es geht mir und vielen anderen darum, das sie einfach keine Lust haben in eine Blackbox zu investieren. Das war z.B. für mich der Grund warum ich von AMD zu Nvidia gewechselt bin, denn ich wusste genau was kann die Karte und muss nicht auf fine Wine und die Zukunft hoffen. Das Nvidia nun genau das gleiche macht, sorry aber völlig unverständlich für mich. Und dabei gehts nicht nur um RT das die Spielentwickler implementieren müssen sondern auch um die nötige Basis in Form von Vulkan oder DX12. Das macht die Hürde insbesondere für Non AAA Titel um einiges höher.

dildo4u
2018-09-22, 13:11:30
Es hat sich selten gelohnt den direkten Nachfolger zu kaufen besonders wenn man die 700€ Version geholt hat.Das ist nicht neu mit Turing.
Die Ausnahmen waren wenn der Hersteller Mist gebaut hat,aka Geforce FX.


980 Ti zu 1080 war ziemlich mäh,vorallem da es zum Anfang nur FE Karten für über 700€ gab.

Daredevil
2018-09-22, 13:26:44
Es geht mir und vielen anderen darum, das sie einfach keine Lust haben in eine Blackbox zu investieren.
Ja, ich verstehe das schon. Die RTX bedient eine Zielgruppe, zu der du nicht gehörst. Deswegen ist die Karte nun ein "Oberfail"?

Dann kannst du gleich direkt in den iPhone XS Thread springen und dort sagen, dass man heute schon gleich gute Smartphones in der Ausstattung für 400€ bekommt. Aber da iOS eben eine spezielle Zielgruppe hat und du dieser hypothetisch nicht angehörig bist, ist das Urteil für dich persönlich natürlich da, aber im Allgemeinen kein "Oberfail" und ebenfalls nicht "zu teuer", da manche den Wert dieser Geräte schätzen, nur du eben nicht.

Es gibt einen großen Unterschied zwischen "Für mich ist das nichts" und "Die Karten sind ein Oberfail".
Für mich ist ein 8 Kern Ryzen fürs Gaming -heute- ebenfalls eine ziemlich schlechte Wahl und "Eine Wette auf die Zukunft", aber trotzdem sage ich dir doch nicht, dass die CPU schlecht ist, weil du für dich vermutlich einen anderen Sinn dahinter siehst als ich, wenn ich nur aufs Gaming schauen würde.

PHuV
2018-09-22, 13:32:45
Immer dieses Rumgeheule, tsts...

Für 1080er und kleiner sind die neuen Karten gut zum aufrüsten geeignet... schneller und mehr Features. Preis ist zwar hoch aber man hatte jetzt ja auch 2+ Jahre Ruhe.

Die 1080ti Leute sind am heulen als ob die Welt untergehen würde. Ja, für euch ists nicht so toll, bzw sehr teuer für rel. wenig mehr Speed. Andererseits ist die 1080ti aktuell wohl noch allemal schnell genug um die Zeit bis zur 7nm Generation bequem zu überbrücken. Also freut euch doch! nV erspart es euch jetzt Geld auszugeben und bereitet den Markt schon vor auf benutzbares Raytracing&Co. in der nächsten Generation.:devil:
Richtig, dann sollen sie eben warten, ich verstehe das Problem auch nicht. Die tun ja so, als ob es aktuell schon ganz unbedingt notwendig wäre zu upgraden. Pascal reicht für die nächsten 2-3 Jahre locker aus, wenn man nicht überanspruchsvoll ist.

Schnitzl
2018-09-22, 13:50:32
Richtig, dann sollen sie eben warten, ich verstehe das Problem auch nicht. Die tun ja so, als ob es aktuell schon ganz unbedingt notwendig wäre zu upgraden. Pascal reicht für die nächsten 2-3 Jahre locker aus, wenn man nicht überanspruchsvoll ist.
aha. Nun darf man nichtmal mehr enttäuscht sein oder wie?
Nun nach über 2 Jahren noch Pascal kaufen ist ja wohl auch nicht der Weisheit letzter Schluss...
Und woher willst du wissen welche Konstellationen bei den Leuten existieren?

Ex3cut3r
2018-09-22, 13:57:54
Der Preis für die beschissenste Verpackung geht an Asus:
Verpackung schon in der Box beschädigt
https://i.imgur.com/F8BWWs2.jpg
Feste umwickelte Folie, die nur einmalig verwendet werden kann? :|
https://i.imgur.com/apeHf05.jpg
https://i.imgur.com/fdWxHf6.jpg

Ist das deine?

Mich wurde da die Lautstärke sehr interessieren? Ist das Ding leiser als die FE?

Daredevil
2018-09-22, 13:58:18
Ich sehe schon die ersten deprimierten Gamer an der Decke baumeln, weil Pascal zu alt ist und Turing zu teuer/schlecht zum kaufen. :D

Was eine verzwickte Lage!

Lehdro
2018-09-22, 14:12:41
Du hast deinen 3-Jahres-Rhythmus gefunden – schau einfach im März nochmal, was geht. :D
RTitanX :freak:

Kann ich mir den Namen noch sichern lassen :confused:

Edit:
Ich hatte schon mal darauf hingewiesen, dass Computerbase auch eine OC FE getestet hatte die im Schnitt 9% schneller als die FE ist, was wiederum ganz gut zum Schnitt der Customs passt. Und bevor gleich wieder einer mit Korinthenkackerei kommt... ja, ich weiß es gibt Customs die minimal über den 9% liegen. Genauso gibt es Customs die minimal unter diesem Wert liegen.

Es sind aber eigentlich alle "guten" 1080 schneller als die FE OC, das geht halt schon bissl unter. (https://www.computerbase.de/2016-07/geforce-gtx-1080-partnerkarten-vergleich-test/)

dildo4u
2018-09-22, 14:18:22
Y5_Lxjt2Fus

PHuV
2018-09-22, 14:19:20
Ist das deine?

Mich wurde da die Lautstärke sehr interessieren? Ist das Ding leiser als die FE?
Ja, und da ich die Titan X mit Referenzkühler auch kaum hörte, darfst Du mich als alten Mann hier nicht ernstnehmen. Ich hab leider keine FE-Edition hier, somit kann ich Dir erst mal keinen Vergleich anbieten.

In meinen AugenOhren ist sie leise.

Schnoesel
2018-09-22, 14:30:02
Ja, ich verstehe das schon. Die RTX bedient eine Zielgruppe, zu der du nicht gehörst. Deswegen ist die Karte nun ein "Oberfail"?



Ja sorry wenn du nicht richtig lesen kannst. Ich sagte wenn ich die RTX Karten nur auf RT reduzieren würde so wie du es machst ist sie Stand jetzt ein Oberfail, weil es keine Anwendung dazu gibt. Ich habe nicht gesagt dass die Karten an sich Oberfail sind. Also bitte leg mir keine Worte in den Mund.

Stretcher
2018-09-22, 14:30:05
Gib doch nur ein einziges mal ein sachliche Antwort!

Warum wird gegen AMD Referenzkarten Nvidia Costums gebencht und das Seitenweise hier und bei pcgh als die richtige Methode (mit teils unsinnigen Argumenten) "verteidigt"
.

Warum ist im PCGH Leistungsindex eine Vega LC vorhanden und keine wassergekühlte Nvidiakarte?
Warum, warum, warum, warum.
Ihr wirkt wie kleine Kinder bei einer Autofahrt von Fürth nach Wien.Warum das, warum jenes. Einfach mal lesen!!

Hab von dir nicht einen sachlichen Beitrag gelesen sondern nur typisches Fanboy VT Mimimi.

Es war ein schlauer Schachzug von Nvidia die Referenzkarten mit besserer Kühlung auszustatten, aber die knapp etwa 4% mehr Leistung die Anandtech dadurch ermittelt hat, sind jetzt wieder der Grundstein für Verschwörungstheorien, unverständlich.

Dann bleiben eben von den ~40% nur noch 35%, kein Grund so zu tun als ob die 1080 Ti Customs 15 bis 20% schneller als die Referenz wären, das sind eher so maximal leicht über 10%, wenn überhaupt.

Schnoesel
2018-09-22, 14:36:26
Ja Verschwörung ist natürlich Unsinn jedoch habe ich bisher keinen nachvollziehbaren und logischen Grund gelesen, warum jeder nur die Krüppel Pascal FEs gegenüber gestellt hat, obwohl diese sehr schnell ins TT laufen und daher nicht vergleichbar sind.

Liefert logische und nachvollziehbare Gründe und dann muss keiner hier Verschwörungstheorien formulieren. Es könnte so einfach sein. Auch wenn die Redaktionen und Tester aufgrund der Arbeitslast etwas dünnhäutig sind aber solche Kommentare wie von Raff

Junge, Junge, du machst dir die Welt echt widde-widde-wie sie dir gefällt, Hey, Pippi-Klausstrumpf ...

bewirken genau das Gegenteil.

Solche Artikel jedoch rücken das ganze wieder ins rechte Licht:

http://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/News/Custom-Designs-Vergleich-Founders-Editions-1265627/

Linmoum
2018-09-22, 14:54:10
Warum ist im PCGH Leistungsindex eine Vega LC vorhanden und keine wassergekühlte Nvidiakarte?
Gibt's denn eine LC von Nvidia? Nein? Frage beantwortet, next pls.

Ihr wirkt wie kleine Kinder bei einer Autofahrt von Fürth nach Wien.Warum das, warum jenes. Einfach mal lesen!!
Man braucht nicht zu lesen. Es gibt nicht einen nachvollziehbaren Grund dafür, warum man die Turing FEs nur gegen jene von Pascal bencht und die Customs ignoriert. Selbst die billigstens 1080(Ti)-Customs rennen nicht ins TT wie es die FE tut. Insofern auch relativ egal, ob man da jetzt die fette Strix oder irgendein billigeres genommen hätte. Die FE hätten alle hinter sich gelassen.

CB hat übrigens damals beim Vega-Launch die Referenz gegen Pascal-Customs gebencht. Kurios, warum sie das dann nicht Nvidia-intern machen können, obwohl das der faire Vergleich wäre. Denn die Turing FE ist nichts weiter als eine Custom-Karte.

Schnoesel
2018-09-22, 15:04:41
CB hat übrigens damals beim Vega-Launch die Referenz gegen Pascal-Customs gebencht. Kurios, warum sie das dann nicht Nvidia-intern machen können, obwohl das der faire Vergleich wäre. Denn die Turing FE ist nichts weiter als eine Custom-Karte.

Tatsache:

https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-test/3/#abschnitt_ultrahdbenchmarks_in_3840__2160_4k

Da darf man sich dann wirklich nicht mehr wundern wenn mit zweierlei Maß (Karten) gemessen wird. War mir gar nicht bewusst.

Achill
2018-09-22, 15:08:03
Ich habe einige der im Artikel vom 3DC verlinkten Reviews (https://www.3dcenter.org/news/geforce-rtx-2080-ti-launchreviews-die-testresultate-zur-ultrahd4k-performance-im-ueberblick) durchgeschaut und nur sehr selten mal eine Custom gesehen (hier mit Zotac 1080 AMP (https://lab501.ro/placi-video/nvidia-geforce-rtx-2080-2080-ti-part-iii-performanta/7)) , im großen und ganzen waren es FEs die anscheinend verwendet wurden ... ich tippe also auf ein Review-Guild oder ähnliches für die Fachpresse.

Bei babeltechreviews.com gab es noch folgendes Interessantes:

[..]
RTX 2080 8 GB Founders Edition, stock FE clocks, supplied by NVIDIA
RTX 2080 Ti 11 GB Founders Edition, stock FE clocks, supplied by NVIDIA
TITAN Xp 12 GB Star Wars Edition, stock clocks, supplied by NVIDIA
GTX 1080 Ti 11 GB Founders Edition, stock clocks, supplied by NVIDIA
GTX 1080 8 GB Founders Edition, stock clocks, supplied by NVIDIA
GTX 1070 8 GB Founders Edition, stock clocks, supplied by NVIDIA
GTX 980 4 GB, Founders Edition stock clocks, supplied by NVIDIA
[..]


Evtl. gab es ja mehr als nur die 2080 (TI) Karten in der Kiste die an die Presse ging ...

Btw. Klingt das für mich selbst arg komisch dies zu schreiben, aber da es so wenig Reviews mal mit einer Custom und damit der Betrachtung von Mehrleistung zu dieser gibt - ist das alles schon Fishy ...

An den wenigen Tests mit Werten mit den Customs sieht man aber, dass der Abstand von 1080 Custom zu 2080 FE ein anderer ist als wenn man nur die 1080 FE nimmt - wurde hier ja auch schon geschrieben, aber es hat ein anderen mediales Wirken wenn es direkt im Launch-Reviews im Diagramm steht / gestanden hätte.

grobi
2018-09-22, 15:18:48
Vielleicht kommen noch Test's mit normierten Taktraten auf 2GHZ. Meine GTX1080 läuft ohne Probleme mit 2060 MHZ da würde ich gern den Unterschied sehen.

mfg grobi

uweskw
2018-09-22, 15:22:37
........Evtl. gab es ja mehr als nur die 2080 (TI) Karten in der Kiste die an die Presse ging......




ist doch praktisch für die NDA-Reviewer. Zumindest sparen die sich einen Haufen Kohle. Ob da auch gleich die AMD-Karten mitgeliefert werden?
Und im nächsten Schritt werden die Ergebnisse gleich mitgeliefert. Das spart noch mehr Kohle und Zeit....:freak::freak::freak:


greetz
US

pixeljetstream
2018-09-22, 15:26:47
https://www.amd.com/de/technologies/radeon-rays
Open Source-Software. Plattformübergreifend. Kostenlos.

Worin liegt der optische unterschied zu NV´s Lösung ?
Oder ist der unterschied bei NV mal wieder der das man dafür zahlen darf und es Proprietär ist ?
( oder macht es NV wie bei "Hairworks" und übertreibt es absichtlich damit AMD mit seiner Lösung benachteiligt ist ? )
Kenn mich mit RT nicht so gut aus und bin nur über das oben gestolpert ...
m.f.g. JVC

RadeonRays (früher FireRays) zielt auf den professionellen Markt. Es ist das equivalent zu NVIDIA's Optix Lösung, bzw. Intel's Embree.

NVIDIA's RTX backend wird sowohl in Optix, Microsofts DXR als auch Vulkan Extension genutzt. Mit Turing kommt zum teil dedizierte hardware zum Einsatz, während vorherige Lösungen (ältere Versionen von Optix,RadeonRays) über generische compute shader liefen.

DXR von Microsoft kann von den anderen Herstellern auch implementiert werden.

Die Abstraktion bei radeonrays ist deutlich einfacher als bei Optix/DXR.

Der DXR/Optix Ansatz erweitert die Shading Sprachen um die Möglichkeit zu tracen, während der RadeonRays Ansatz dies nicht tut, und ein dedizierter Pass ist der nur die hitpoints liefert.

RadeonRays hat ein fire&forget model, der entwickler überreicht einen großen buffer mit allen strahlen die man testen will, und bekommt dann in einem anderen buffer die hitpoints zurück. Bei Optix/DXR ist die Lösung ganzheitlicher, erlaubt das iterieren von strahlen innerhalb des vom Entwickler geschriebenen shaders und das indirekte aufrufen von shadern je nach treffer. Hier ist es mehr darauf ausgelegt, dass man das shading auch damit implementiert, während man beim anderen Ansatz quasi "nur" hitpoints bekommt, und alles andere selbst machen muss/kann. Man kann DXR aber auch "einfach" nutzen um genauso zu arbeiten.
Die Hauptmotivation für den DXR/Optix Ansatz ist, dass die Hersteller mehr Freiheit haben "die schwereren Probleme" zu lösen (divergenz etc.) und so mehr spezialisierte hardware/algorithmen zum Tragen kommen können. Der Nachteil der größeren blackbox, ist dass Entwickler auch spezialisierte Debugging und Profiling tools der Hersteller brauchn (so wie das im Moment für MS Pix/Nsight passiert). Insgesamt ist der Aufwand für die Hw-Hersteller größer, erlaubt es ihnen aber eben sich von der Konkurrenz deutlicher abzusetzen und verringert die Abhängigkeit von den Sw-Herstellern die eigentliche Tracing-Lösung an die Hw anzupassen.
Bei Sw-Herstellern gibt es zwei Ansichten. Die einen, die selbst daran interessiert sind clever zu sein, und quasi durch sw die differenzierung im tracing/shading effizenz zu ihrer sw-konkurrenz suchen. Die mögen die higher-level Lösung der Hersteller nicht so sehr, weil damit ihr eigener potentieller Mehrwert sinkt. Die anderen sw-hersteller die sich genau diese Arbeit nicht machen wollen und auch nicht extra Middleware dafür wollen, sind froh dass mehr Arbeit abgenommen wird, weil so mehr Zeit/Geld für andere Problem bleibt.

für mehr Fragen, am besten hier
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=590214
weitermachen

Godmode
2018-09-22, 15:36:19
Nach umfangreichen Benchmarks bin ich zum Schluss gekommen, dass die 2080 beim Mining momentan keine Vorteile bringt. Sie wäre zwar ca. 10% effizienter, aber dafür kosten die Karten auch mehr, als z.B. eine 1080 Ti, die eine ähnliche Hashrate hat. Durch spezielle auf die Turing-Architektur optimierte Kernels, könnte sich da aber noch was verschieben. Sollte die 2080 aber billiger werden, zb. richtig 500-600 Euro, wäre diese Karte die erste Wahl.

uweskw
2018-09-22, 15:40:52
.......Die Abstraktion bei radeonrays ist deutlich einfacher als bei Optix/DXR......




nur kurz: Berechnet NV auch nur die Rays die auf die Kamera fallen?






https://abload.de/thumb/bildschirmfotoraysu7int.png (https://abload.de/image.php?img=bildschirmfotoraysu7int.png)




greetz
US







https://www.forum-3dcenter.org/vbulletin/<a href=https://abload.de/image.php?img=bildschirmfotoraysu7int.png target=_blank>[img]https://abload.de/thumb/bildschirmfotoraysu7int.png

pixeljetstream
2018-09-22, 15:49:14
alle rays werden in allen Ansätzen immer vom sw-entwickler definiert. Was getraced wird liegt daher nicht an den hw-herstellern. Die apis haben ja nur "strahl" + "geometrien", sowas wie lichtquellen gibt es nicht, das sind alles konstrukte der sw-entwickler.

vielleicht meinst du radeonprorender (der aber nicht open-source ist) oder den open-source renderer baikal von AMD, der radeonprorender oder radeonrays nutzen kann? Das sind dann aber schon vollwertige renderer und nicht etwas was bei spielen etc. zum einsatz kommt.

Ex3cut3r
2018-09-22, 15:56:27
Ja, und da ich die Titan X mit Referenzkühler auch kaum hörte, darfst Du mich als alten Mann hier nicht ernstnehmen. Ich hab leider keine FE-Edition hier, somit kann ich Dir erst mal keinen Vergleich anbieten.

In meinen AugenOhren ist sie leise.

Haha. Trotzdem Danke. :smile:
Viel Spaß damit. :)

Godmode
2018-09-22, 16:01:10
NVLink SLI Test:

84OkcOYmXOk

Stretcher
2018-09-22, 16:12:56
Ja Verschwörung ist natürlich Unsinn jedoch habe ich bisher keinen nachvollziehbaren und logischen Grund gelesen, warum jeder nur die Krüppel Pascal FEs gegenüber gestellt hat

Seit wann gilt auch das was die Custom Karten leisten oder getaktet sind als Maßgabe für einen Launch?
Computerbase hat sogar die alten FE Karten übertaktet und auch die neuen Karten übertaktet, mit dem gleichen Spielraum weiterhin.
Es mag jetzt Customdesigns geben die 0 bis 5% langsamer als die FE sind, aber auch welche die nochmal was drauflegen.
Willst du jetzt innerhalb von 4 Testtagen die eh schon eng - aber nicht ganz so Eng wie teilweise bei AMD sind - noch deine Zeit verplempern und Customdesigns durchlaufen lassen?

Wer bezahlt eigentlich die Überstunden?
Reicht es da nicht wenn man es ohnehin schon Wochen vorher schreibt und im Test erwähnt?

Übrigens, die paar Prozent Takt kannst du problemlos auch mit den etwas schlechteren Chips locker rausholen, 2000 MHz sind auch mit dem schlechteren Binning drin, bei mehr Verbrauch, aber irrelevant.

Beim nächsten FE Launch ist die kleine Minimalverbesserung eh Geschichte.


Liefert logische und nachvollziehbare Gründe und dann muss keiner hier Verschwörungstheorien formulieren.

Wenn das Publikum nicht logisch möchte ( siehe Nvidia NDA ) dann kann ich Raff gut verstehen, wenn ihm die Nörglerei keine ernsthafte Antwort mehr wert ist.

Raff
2018-09-22, 16:19:18
Gib doch nur ein einziges mal ein sachliche Antwort!

Das mache ich oft genug. Du ignorierst nur leider sowohl mich als auch die PCGH als Ganzes (das Hauptprodukt ist immer noch das Heft) und hatest munter weiter. Es bringt daher nichts, den ganzen Unsinn sachlich aufzugreifen – es ändert nichts und ich habe dennoch dafür Zeit geopfert. Wie gerade schon wieder, mit diesem Posting.

Die einzige Option, ein Like von dir zu fischen, wäre, "Radeon, yeah, yeah – fuck you, Nvidia!" (inspiriert von Linus Torvalds) zu schreiben und zu heucheln, dass ich das auch so meine. Meine Welt ist aber nicht grün-rot, sondern schön bunt. :ugly:

MfG,
Raff

=Floi=
2018-09-22, 16:22:48
Tatsache:

https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-test/3/#abschnitt_ultrahdbenchmarks_in_3840__2160_4k

Da darf man sich dann wirklich nicht mehr wundern wenn mit zweierlei Maß (Karten) gemessen wird. War mir gar nicht bewusst.

die messen auch 580er gegen 680er gegen 780er ohne Ti
Wer sich bei denen noch nach konsistenz fragt ist selbst schuld. Für den normalen consumenten sollte die mehr performance bei den speziellen modellen aber leicht einzuschätzen sein. schwankt ja nur um ca. 10%. Darum sehe ich das ganze nicht so dramatisch.

Schnoesel
2018-09-22, 16:26:35
Willst du jetzt innerhalb von 4 Testtagen die eh schon eng - aber nicht ganz so Eng wie teilweise bei AMD sind - noch deine Zeit verplempern und Customdesigns durchlaufen lassen?



Wie erklärst du dir dann logisch dass CB beim Vega Launch Custom Nvidias mitgetestet hatte? Abgesehen davon sind die Custom Pascals doch bereits durch die meisten Testreihen gelaufen, wo ist da der Aufwand sich die Zahlen rauszusuchen. Überzeugt mich nicht.


Übrigens, die paar Prozent Takt kannst du problemlos auch mit den etwas schlechteren Chips locker rausholen, 2000 MHz sind auch mit dem schlechteren Binning drin, bei mehr Verbrauch, aber irrelevant.


Und das weißt du woher? Test bzw Link zu Karten die Chips mit mit schlechten Binning verbaut haben. Wenn du das nicht hast ist das eine reine Mutmaßung. Überzeugt mich nicht.

wolik
2018-09-22, 16:26:53
NVLink SLI Test:

http://youtu.be/84OkcOYmXOk
:mad: Irgendwie nicht besonderes.

Ok. not bad.
https://www.gamersnexus.net/guides/3366-nvlink-benchmark-rtx-2080-ti-pcie-bandwidth-x16-vs-x8

Stretcher
2018-09-22, 16:31:38
Gibt's denn eine LC von Nvidia? Nein? Frage beantwortet, next pls.

Na eben und in diesem Fall gibt es jetzt leicht schnellere Nvidia FEs die wie die LC in den Leistungsindex einfliessen.
So einfach ist das und gar nicht schwer.
Die Information dass auch die günstigen Customs minimal langsamer sein können, wurde doch zu Hauf verbreitet.



Man braucht nicht zu lesen. Es gibt nicht einen nachvollziehbaren Grund dafür, warum man die Turing FEs nur gegen jene von Pascal bencht und die Customs ignoriert.

Warum hat man die Vega ohne Wakü dann gegen eine Fury X mit Wakü getestet?
Wie gesagt diese Haarspalterei führt zu nichts aber es ist ein erstklassiges Thema für Fanboy Wars, deswegen klink ich mich hier an der Stelle aus.
Es ist sowieso egal wie man es macht.
Nimmt man die FEs raus und stattdessen die günstigste Popel 2080 in den Leistungsindex, regt sich die andere Seite wieder auf. Also wieso überhaupt noch auf solche Leute hören und es nicht einfach so machen wie man möchte?
Erklärt ist es eh, die Frage ob das auch verstanden wird ist eine ganz andere.

Schnoesel
2018-09-22, 16:33:11
Es gab keine Fury X ohne Wakü. Was ist das denn für ein Vergleich? Es gab nur die Referenz.

Es ist ganz einfach man nimmt die FEs + die Custom von Pascal deren Testergebnisse schon vorhanden sind. Und jetzt kann sich jeder aussuchen was er verbaut hat und realistisch vergleichen.

Ex3cut3r
2018-09-22, 16:33:55
Fakt ist, AMD muss mit Navi zwei Generationen bei Nvidia einholen Pascal + Turing, einmal die 1080Ti bis heute unerreicht und jetzt die RTX 2080Ti. Wird auch interessant sein ob Navi Raytracing mit an Board haben wird. Das DXR von Microsoft kommt nächsten Monat, AMD muss eigentlich zeitnah mitziehen, sonst rennt Nvidia noch weiter weg. Und am Stormverbrauch out of the Box muss dringend gearbeitet werden. Es kann nicht sein, das AMD für 1070Ti/1080er Leistung 355W verbraucht, spinnen die???

https://abload.de/thumb/unbenannt21f7r.png (https://abload.de/image.php?img=unbenannt21f7r.png)

Schnoesel
2018-09-22, 16:37:48
Was bitte hat jetzt AMD hier zu suchen? Es wird immer kurioser. Geh doch damit bitte in den Vega Review Thread.

Stretcher
2018-09-22, 16:43:51
Es gab keine Fury X ohne Wakü. Was ist das denn für ein Vergleich? Es gab nur die Referenz.

Na da siehste mal, Referenz, FE usw.
AMD bot nicht mal den Herstellern eigene Designs an und jetzt ist Nvidias Move wieder die Ausgeburt der Hölle.

Jetzt ist die Referenzkarte also endlich mal was hochwertiges.

Schnoesel
2018-09-22, 16:47:20
FE ist nicht! Referenz bei Turing. Das sagt sogar Nvidia selbst.

FE= OC:

https://www.computerbase.de/2018-08/nvidia-geforce-rtx-2000-founders-edition-details/

Matrix316
2018-09-22, 16:50:39
Es hat sich selten gelohnt den direkten Nachfolger zu kaufen besonders wenn man die 700€ Version geholt hat.Das ist nicht neu mit Turing.
Die Ausnahmen waren wenn der Hersteller Mist gebaut hat,aka Geforce FX.


980 Ti zu 1080 war ziemlich mäh,vorallem da es zum Anfang nur FE Karten für über 700€ gab.
Das stimmt sogar. Der Anfangspreis der 1080 war erstaunlich hoch - allerdings als dann etwas später die TI kam, sank der Preis der 1080 auf ~550 oder so runter und die TI kostete so 750~800 (bis zur Mining Blase halt).

Jetzt ist die TI schon da und kostet plötzlich 1200. Wie soll da was billiger werden? Kommt die Titan R jetzt noch demnächst für 1200, damit die 2080 Preise wieder auf Normalniveau sinken?

Daredevil
2018-09-22, 17:04:00
Das sind Launchpreise. Man nennt das auch den "Deppenaufschlag".
Ich gehe stark davon aus, dass wir Richtung Black Friday eine 2080ti gerne mal für um die 1000€ sehen werden. Bei Media Markt/Saturn war das ja jetzt auch schon der Fall ( Auch wenn es ein Budget Modell war.. ).

Lowkey
2018-09-22, 17:06:42
Eher sehen wir Nikolaus ein Caseking Deal mit beliebiger 2080 Ti für 999 Euro.

Wow ist das dann günstig

Ex3cut3r
2018-09-22, 17:09:07
Billigere Preise, ja tolles Märchen, oder soll ich Wunschdenken sagen? Das wird imo nicht passieren. Aber ich kann mich auch täuschen.

crux2005
2018-09-22, 17:43:20
Weiß nicht, ob es hier schon gepostet wurde. Heise hat eine Gainward RTX 2080 gekauft und "getestet" (https://www.heise.de/newsticker/meldung/Nvidia-GeForce-RTX-2080-im-Kurztest-Teurer-aber-nicht-viel-besser-als-die-Vorgaenger-4168248.html). Wobei es eher den Namen "Kurztest" nicht verdient.

Übrigens: Dafür, dass man heise unterstellt, dass sie parteiisch sind fällt ihr Fazit doch recht positiv für die Non-Ti-Karte aus:

Und sowas kommt von heise? :eek:

Wobei, im Kontext gar nicht so verwunderlich. Turing und nVidia sind Mist der mehr Aufmerksamkeit nicht verdient.

=Floi=
2018-09-22, 17:54:35
Billigere Preise, ja tolles Märchen, oder soll ich Wunschdenken sagen? Das wird imo nicht passieren. Aber ich kann mich auch täuschen.


bei der 2080ti FE wurden 200€ draufgeschlagen. diese fallen dann weg.
wie sich das widerspiegelt in zB einem schlechteren chip oder billigeren kühler kann ich leider nicht sagen.



NVIDIA's RTX backend wird sowohl in Optix, Microsofts DXR als auch Vulkan Extension genutzt. Mit Turing kommt zum teil dedizierte hardware zum Einsatz, während vorherige Lösungen (ältere Versionen von Optix,RadeonRays) über generische compute shader liefen.


kann man das nicht irgendwie per reg hack oder anderweitig auf den alten karten zum laufen bringen. Mir geht es nicht um performance, sondern um das mögliche bild mit RT on!

wird es denn endlich einen slider mit stufen geben oder bleibt man bei 0 und 1?

MartinRiggs
2018-09-22, 17:57:21
Ich finde Nvidia hat alles richtig gemacht, dank behinderter Preise, komischen FE und Custom Designs und durchwachsener Leistung bin ich so ungeil wie noch nie auf neue Grafikkarten, also hinlegen und abwarten was passiert :biggrin:

Godmode
2018-09-22, 17:59:59
Wenn die Preise nicht so verrückt wären, könnte man sofort zuschlagen. Aber so werden viele einfach auf die nächste Generation warten. Ich bin schon auf die Unternehmenszahlen der nächsten 2-3 Quartale gespannt.

crux2005
2018-09-22, 18:00:06
Ich finde Nvidia hat alles richtig gemacht, dank behinderter Preise, komischen FE und Custom Designs und durchwachsener Leistung bin ich so ungeil wie noch nie auf neue Grafikkarten, also hinlegen und abwarten was passiert :biggrin:

Wenn ich die RTX Karten sehe werde ich geil. Dann gehe ich ins 3DC und lese Paar Beiträge um runterzukommen. :crazy:

Ex3cut3r
2018-09-22, 18:01:06
bei der 2080ti FE wurden 200€ draufgeschlagen.


Quelle? Doch nicht etwa die Gamecom Präsentation mit Jensen? Das war Marketing und Beruhigung der Meute vor Ort. Und wenn die RTX 2080Ti doch auf 999$ fällt, das wird hier sowieso nicht ankommen.

Lowkey
2018-09-22, 18:04:18
del

dildo4u
2018-09-22, 18:07:28
Die Ti sollte doch eh erst näste Woche kommen.

Armaq
2018-09-22, 18:10:51
This. Genauso funktionierte Aufrüsten als es noch einen Wettbewerb gab. Und jetzt ist es ok beim Aufrüsten für Mehrleistung ggü einem 2 Jahre alten Produkt on top zu zaheln. Ich finde das auch nicht gut. Die Schuld dafür muss differenziert werden:

- Speicherpreise sind massiv gestiegen
- Prozessshrinks werden immer teurer
- Entwicklungskosten steigen (das GPUs komplexer werden braucht man teurere tools und mehr Mannstunden)
- die dice bei Turing sind riesig

aber auch: mangels Wettbewerb zahlen wir alle die großen Gewinnspannen mit.

Und die Schuld dafür trägt IMO das Management von AMD - nicht Lisa Su sondern ihre Vorgänger inkl Hector Ruiz. ATI war bis 2006 eine extrem gute Grafikschmiede und wurde immer weiter heruntergewirtschaftet.
Ja, das ist für mich alles in Ordnung.

Sämtliche Tests der aktuellen HW-Seiten sind nicht in Ordnung. Außer Gamersnexus stellt keiner dar, wie knapp die Karten beieinander sind.

crux2005
2018-09-22, 18:16:03
Ausverkauft ... alles ist ausverkauft... keine 2080 Ti ist auf Lager. Demnach kann man nicht mit Preisnachlässen rechnen. Und solange für den Preis gekauft wird, solange bleiben die Preise oben. Die Ankündigung von Turing und Pascal parallel zu verkaufen deutet darauf hin, dass dieses Jahr nichts passieren wird.

Die 2080 Ti's waren noch nirgendwo lagernd. :wink:

Godmode
2018-09-22, 18:19:26
Ausverkauft ... alles ist ausverkauft... keine 2080 Ti ist auf Lager. Demnach kann man nicht mit Preisnachlässen rechnen. Und solange für den Preis gekauft wird, solange bleiben die Preise oben. Die Ankündigung von Turing und Pascal parallel zu verkaufen deutet darauf hin, dass dieses Jahr nichts passieren wird.

Die Frage ist halt, wieviel wurde überhaupt geliefert?

RoughNeck
2018-09-22, 18:30:11
Die Ti sollte doch eh erst näste Woche kommen.

Dienstag oder Mittwoch.
Habe mir die ganze Frei genommen, dann kann ich in ruhe testen und schauen wie sich die Monster Karte im Mini ITX Case so macht.

dildo4u
2018-09-22, 18:36:41
SLI über NV Link funzt in Tomb Raider.


https://youtu.be/cbvFb0IHTg0?t=6m32s

yamo
2018-09-22, 18:36:44
Bischen verwunderlich für mich, daß zum Thema NV Scanner dieser Satz aus dem HWLuxx-Test nicht diskutiert wurde:

"Der NV Scanner funktionierte in unseren Tests auch mit Karten auf Basis der Volta- und Pascal-Architektur. Die aktuellen Versionen des EVGA Precision X1 sowie des MSI Afterburner liegen uns vor und mit beiden konnten wir dies testen."
Link (https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/47377-die-geforce-rtx-2080-ti-und-rtx-2080-founders-edition-im-test.html?start=6)


Desweiteren sehe ich die bisherigen Tests auch sehr kritisch und bin da aus Anwendersicht eher bei Armaq, denn die Praxis ist das was zählt.
Nicht das ich mir als 1080ér (WK) was schönreden will. Für mich kam die 2080 als upgrade nie in Betracht. Aber die meisten Benches sind schon erschreckend schön gerechnet (1080-2080).

Gruß Micha

TGKlaus
2018-09-22, 18:44:58
Das mache ich oft genug. Du ignorierst nur leider sowohl mich als auch die PCGH als Ganzes

Ok.
Dann verlinke mir bitte den Post, wo du erklärst, warum die Rahmenbedingungen von diesem Test so abgeändert wurden.

Danke.

robbitop
2018-09-22, 19:01:56
SLI über NV Link funzt in Tomb Raider.


https://youtu.be/cbvFb0IHTg0?t=6m32s
SLI wird unabhängig von der Schnittstelle funktionieren bzw je nach Spiel nicht.

Lowkey
2018-09-22, 19:02:41
Was mache ich mit dem USB-C Anschluss? Der Thunderbolt 3 auf den Mainboards war wohl nur per Intel GPU realisiert und an der Grafikkarte sollte man dann spieletaugliche FPS bekommen? Auf die Latenz hat es keinen Einfluss?

Daredevil
2018-09-22, 19:13:27
Bischen verwunderlich für mich, daß zum Thema NV Scanner dieser Satz aus dem HWLuxx-Test nicht diskutiert wurde:


Ein OC Scanner ist ja auch nicht unbedingt was neues. EVGA hat das ganze ja schon sehr lange in ihrem ( scheiß ) Tool drinne. Nur jetzt scheint es anscheinend wohl mal richtig zu funktionieren.

Was mache ich mit dem USB-C Anschluss? Der Thunderbolt 3 auf den Mainboards war wohl nur per Intel GPU realisiert und an der Grafikkarte sollte man dann spieletaugliche FPS bekommen? Auf die Latenz hat es keinen Einfluss?
Dein Ernst? :D
Das ist doch kein Thunderbolt...

yamo
2018-09-22, 19:14:12
Was mache ich mit dem USB-C Anschluss? Der Thunderbolt 3 auf den Mainboards war wohl nur per Intel GPU realisiert und an der Grafikkarte sollte man dann spieletaugliche FPS bekommen? Auf die Latenz hat es keinen Einfluss?

Ist für die next Gen. der VR-Brillen reserviert. Alles weitere regelt der Treiber.

yamo
2018-09-22, 19:18:35
Ein OC Scanner ist ja auch nicht unbedingt was neues. EVGA hat das ganze ja schon sehr lange in ihrem ( scheiß ) Tool drinne. Nur jetzt scheint es anscheinend wohl mal richtig zu funktionieren.

Und warum kommt hier nix an Rückmeldungen? Muß erstmal 1803 installieren, extrem zickig und dann schaue ich mal, ob das wirklich funzt auf Pasquale;)

JVC
2018-09-22, 19:20:33
https://www.golem.de/news/3dmark-neue-benchmarks-fuer-raytracing-und-integrierte-gpus-kommen-1809-136699.html
"Neue Benchmarks für Raytracing und integrierte GPUs kommen"

"Interessanterweise kooperiert UL dazu auch mit AMD."

"Beim Ausprobieren zeigt sich, dass eine neue Nvidia Geforce RTX 2080 Ti subjektiv betrachtet wenig schneller ist als eine Geforce GTX 1080 Ti. Direkte Frameratenvergleiche sind bisher nicht erwünscht."

Bin gespannt wie gut das dann auf den AMD läuft ;)
( es dürfte ja auch ohne zusätzliche Hardwareeinheiten brauchbar laufen ... wehniger als 1K geht eh nicht ^^ )

m.f.g. JVC

hilo
2018-09-22, 19:22:14
Man könnte sich nur als Beispiel auch mal folgenden Post (# 469) des Users FortuneHunter aus dem PCGH-Forum anschauen

http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/517941-geforce-rtx-2080-ti-rtx-2080-im-test-turing-gegen-pascal-und-vega-47.html#post9511016

Dort kommt dann sogar die RTX 2080Ti (!) FE manchmal in Bedrängnis bzw. unterliegt einer EVGA GTX 1080Ti FTW3 sogar in einigen Spielen (Project Cars 2, Rise of the Tom Raider, Ghost Recon Wildlands, Sudden Strike 4). Natürlich kann man die RTX 2080Ti FE ja nun auch übertakten (laut Raff ca. 40(!) %) und dann stimmt die Welt definitiv wieder, aber das Balkendiagramm in Verbindung mit den 410 € Preisunterschied hätte halt schon so seine Wirkung.

Edit: Ups, Daredevil, jetzt wo ich Raffs Post nochmal gelesen habe, glaube ich das auch. So entstehen Gerüchte, sorry, und Danke.
Edit 2: Sudden Strike noch hinzugefügt

Daredevil
2018-09-22, 19:23:29
Und warum kommt hier nix an Rückmeldungen? Muß erstmal 1803 installieren, extrem zickig und dann schaue ich mal, ob das wirklich funzt auf Pasquale;)
Weil es ( bislang ) scheiße war und nichts kann, was man nicht auch händisch machen kann :D
In 25Mhz Schritten höher gehen und wenn Fehler auftreten die nächste Voltstufe einzuschalten ohne den Rechner zu crashen bekommt man halt auch so hin.

@hilo
Da hast du was falsch verstanden. Raff hat definitiv nicht geschrieben, dass man eine Turing um 40% übertakten kann....

yamo
2018-09-22, 19:26:19
Weil es ( bislang ) scheiße war und nichts kann, was man nicht auch händisch machen kann :D
In 25Mhz Schritten höher gehen und wenn Fehler auftreten die nächste Voltstufe einzuschalten ohne den Rechner zu crashen bekommt man halt auch so hin.


Das weiß ich auch:freak:Geht ja um die neue Version.

JVC
2018-09-22, 19:35:46
Man könnte sich nur als Beispiel auch mal folgenden Post (# 469) des Users FortuneHunter aus dem PCGH-Forum anschauen

http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/517941-geforce-rtx-2080-ti-rtx-2080-im-test-turing-gegen-pascal-und-vega-47.html#post9511016

Dort kommt dann sogar die RTX 2080Ti (!) FE manchmal in Bedrängnis bzw. unterliegt einer EVGA GTX 1080Ti FTW3 sogar in einigen Spielen (Project Cars 2, Rise of the Tom Raider, Ghost Recon Wildlands). Natürlich kann man die RTX 2080Ti FE ja nun auch übertakten (laut Raff ca. 40(!) %) und dann stimmt die Welt definitiv wieder, aber das Balkendiagramm in Verbindung mit den 410 € Preisunterschied hätte halt schon so seine Wirkung.

Hm das schürt wieder meine negativsten Erwartungen ...
1080 Ti Max OC = gleich schnell wie eine 2080 Ti ...
Laut einem weiter vorne verlinktem Video kann man die Leistung einer
2080 Ti MIT einem Wasserkühler um 7% erhöhen ! :confused:
https://www.youtube.com/watch?v=ow1cgU3sji0
( bei ~2min )
... aber sind ja nur die negativsten Vermutungen meinerseits.
( würde auch lieber an 40% glauben )

m.f.g. JVC

Menace
2018-09-22, 19:39:55
Bin gespannt wie gut das dann auf den AMD läuft ;)
( es dürfte ja auch ohne zusätzliche Hardwareeinheiten brauchbar laufen ... wehniger als 1K geht eh nicht ^^ )


Das glaube ich nicht (bzgl. AMD). Aber ich hoffe, dass realistische Benchmarks gibt; welches die Bildqualität wirklich verbessert und nicht eine irrsinnig spiegelndes Raumschiff zeigt, die ja doch nur Migräne auslöst.

Stimmungsvoll von Objekten reflektierendes Licht und Schatten halte ich für wichtiger.l Von mir aus kann auch mal ein Spiegel vorhanden sein. Aber bitte nicht so ein käsiges Feuer, wie bei BF.

Lowkey
2018-09-22, 19:44:38
Dein Ernst? :D
Das ist doch kein Thunderbolt...

Es gibt eine Reihe von portablen Monitoren für Thunderbolt 3 auf dem Markt. Genau die meine ich.

JVC
2018-09-22, 19:53:51
Bessere und Sparsamere Licht und Schatten Effekte würde ich begrüßen :) ( bei 4K ! )
Aber auf das wie die Spiegelungen bis jetzt präsentiert wurden bin ich überhaupt nicht scharf.
( sieht in meinen Augen wesentlich unrealistischer aus als ohne RT ^^ )

m.f.g. JVC

Daredevil
2018-09-22, 19:54:11
Es gibt eine Reihe von portablen Monitoren für Thunderbolt 3 auf dem Markt. Genau die meine ich.
Ja mag sein, das ist aber immer noch kein Thunderbolt.

http://www.pcgameshardware.de/Virtual-Reality-Hardware-258542/News/Virtual-Link-VR-Headsets-Oculus-Rift-HTC-Vive-1261028/
Die Unternehmen AMD, Microsoft, Nvidia, Oculus VR und Valve haben ein Konsortium gegründet, um den Verbindungsstandard Virtual Link zu entwickeln. Er nutzt als Alternate Mode eine USB-Typ-C-Steckverbindung und setzt vier HBR3-Lanes (von Displayport 1.4) zur Bildübertragung von bis zu 2 × WQHD bei 144 Hertz ein. Daten lassen sich per USB übertragen, außerdem wird eine VR-Brille direkt mit Strom versorgt.

Lowkey
2018-09-22, 19:59:23
Schon besser :)

Yamo war schneller.

dargo
2018-09-22, 20:04:51
Es sind aber eigentlich alle "guten" 1080 schneller als die FE OC, das geht halt schon bissl unter. (https://www.computerbase.de/2016-07/geforce-gtx-1080-partnerkarten-vergleich-test/)
Ich sprach von der 1080TI.

BlacKi
2018-09-22, 20:43:55
findet ihr es nicht etwas übertrieben was da gerade ein fass aufgemacht wird wegen der werksübertaktung? ja gut, vergleichbarkeit nciht mehr 100% aber ich schüttele trotzdem den kopf über den aufruhr der gemacht wird. letztendlich gilt doch eh custom vs custom. wer kauf schon ref.?

Stretcher
2018-09-22, 20:51:44
Klar, total übertrieben, da geht es doch nur um das eigene Ego, weil die alten Karten oder der der Konkurrenz etwas (5%) langsamer dargestellt werden.
Aber man kann letztendlich immerhin so tun, als sei die RTX 2080 FE soviel schneller als die Stock Karte (90Mhz) mehr Boost, was etwa real 4 bis 5% mehr Leistung entspricht.

Dann sind die Karten eben nicht mehr 40%, sondern nur noch 35% schneller.
Ich denke man wird es überleben.

AMD bietet mit der Vega LC auch die schnellste Karte im Vega Portfolio an.
Warum soll Nvidia bei Ampere nächstes Jahr nicht das schnellste Design mit der FE liefern dürfen?

Linmoum
2018-09-22, 20:52:15
letztendlich gilt doch eh custom vs custom. wer kauf schon ref.?
Mit der Turing FE kauft man ja eine Custom und keine Referenzkarte (mehr).

Schnitzl
2018-09-22, 21:03:26
Klar, total übertrieben, da geht es doch nur um das eigene Ego, weil die alten Karten oder der der Konkurrenz etwas (5%) langsamer dargestellt werden.
Aber man kann letztendlich immerhin so tun, als sei die RTX 2080 FE soviel schneller als die Stock Karte (90Mhz) mehr Boost, was etwa real 4 bis 5% mehr Leistung entspricht.

Dann sind die Karten eben nicht mehr 40%, sondern nur noch 35% schneller.
Ich denke man wird es überleben.

AMD bietet mit der Vega LC auch die schnellste Karte im Vega Portfolio an.
Warum soll Nvidia bei Ampere nächstes Jahr nicht das schnellste Design mit der FE liefern dürfen?
Darum geht es doch gar nicht.
Es geht darum dass die 2080 FE nun eine "quasi-Custom" ist.
PLUSPUNKT: Der FE-Kühler wurde im Vergleich zur letzten Generation verbessert.
Das muss man aber ansprechen bzw. in einem HW-Test der Karten klarstellen.
(dass ein paar % der Mehrperformance eben auf den besseren Kühler zurückzuführen sind).
Dann ist alles gut.

Denn:
bisher war es so, dass die Customs noch gut was draufgelegt haben, was ja nun nicht mehr so ist!
Siehe Customs der 1080Ti legen orgendtlich was drauf auf die FE (http://extreme.pcgameshardware.de/ne...ml#post9511016)

Nennt sich Aufklärung, nicht mehr und nicht weniger.

/EDIT: so richtig cool wäre den 2080 Kühler auf die 1080 zu montieren und zu sehen was es denn nun ausmacht... rein interessehalber :)

Ex3cut3r
2018-09-22, 21:03:43
Mit der Turing FE kauft man ja eine Custom und keine Referenzkarte (mehr).

Häää? Was ist das für eine Logik? Nur weil Sie diesmal nicht auf DHE setzt? Für mich ist das trotzdem eine Referenz Karte, egal wie gut oder schlecht, laut/leise wäre. AMD schafft es ja seit Jahren nicht 5,0 Sone zu unterbieten, was deren Referenzkarten angeht. Und die Customs folgen dann irgendwann nach 3 Monaten. Super Sache.

BlacKi
2018-09-22, 21:08:53
und die 1080ti fe wurde zum vorgänger auch am kühler verbessert. damals gabs auch keinen aufschrei weil die günstigsten schlechter waren, auch wenn der unterschied geringer war.

letztendlich kaufen wir hier, die was auf lautstärker geben, keine refernz auch wenn die letze deutlich besser wurde. daher versteh ich den aufschrei nicht wirklich.

keiner von uns würde eine 1200€ chip mit billig kühler kaufen, also wtf?

Schnoesel
2018-09-22, 21:09:34
Was das für eine Logik ist? das musst du Nvidia fragen die definieren doch was ihre Referenz ist und das ist nicht mehr die FE.

https://i.postimg.cc/3NtngFLx/image.jpg

Na was fällt auf? Ach Ja höherer Takt, höhere TDP. Wenn ihr keine Lust auf die richtigen Begrifflichkeiten lasst es bitte bleiben.

Und wem das nicht offiziell genug ist:

https://www.nvidia.com/en-us/geforce/graphics-cards/rtx-2080-ti/

https://i.postimg.cc/k4pyGgD2/image.jpg

BiZiNiZz
2018-09-22, 21:15:32
Was das für eine Logik ist? das musst du Nvidia fragen die definieren doch was ihre Referenz ist und das ist nicht mehr die FE.

https://i.postimg.cc/3NtngFLx/image.jpg

Na was fällt auf? Ach Ja höherer Takt, höhere TDP. Wenn ihr keine Lust auf die richtigen Begrifflichkeiten lasst es bitte bleiben.

Quelle? So eine Tabelle kann ich mir auch zusammen zimmern

Schnoesel
2018-09-22, 21:17:05
Jetzt besser?


Was für ne Diskussion ...

Linmoum
2018-09-22, 21:17:13
Quelle ist Nvidia selbst. Es gibt einen extra (offiziellen) Referenz-Takt, der niedriger als der der FE liegt.

Ex3cut3r
2018-09-22, 21:25:13
Also für mich ist und bleibt die FE eine Referenz Karte, und Referzenz aus Nvidia Sicht, sind jetzt anscheinend die "billig" Custom Karten. Ich glaube auch, dass bei der RTX 3000er Serie noch weiter an der FE geschraubt werden wird, wer weiß, ob bald Customs gar nicht mehr nötig sind. Die Qualität der Materialen ist schon jetzt jeder Custom überlegen.

BiZiNiZz
2018-09-22, 21:27:12
Jetzt besser?


Was für ne Diskussion ...

Was hat das mit Diskussion zu tun? Wenn schon was verlinkt oder ein Bild gepostet wird immer mit Quellenangabe.......

Daredevil
2018-09-22, 21:28:59
Und da die "billigen" Karten gut und gerne mal 100€ weniger kosten, mag das ja auch schön und gut sein. Aber man kann sich durchaus an die "Referenz" halten, die einem der Hersteller vorgibt bzw. die am meisten verbreitet ist.

Referenz bedeutet nicht, dass es die beschissenste Karte der Serie ist.
Bei Pascal gab es auch Blower Kühler, die noch schlechter waren als die Referenz.

Dural
2018-09-22, 22:08:43
Jetzt wird nv schon kritisiert weil sie eine bessere ref. Karte bringen :rolleyes:

komisch finde ich nur das die standard wakü bei amd keiner kritisiert hat, ganz im gegenteil die wurde von gewissen herren in den himmel gelobt.

Langsam wird es echt lächerlich.

Linmoum
2018-09-22, 22:10:53
Wer kritisiert Nvidia denn dafür? Kritisiert wird hier eigentlich nur, dass man dann in den Reviews nur mit der verkrüppelten Pascal FE vergleicht.

La Junta
2018-09-22, 23:08:57
Und/oder das garkeine Custom 1080/1080TI dabei waren .
Letztendlich ist es aber wurscht , es wird trotzdem gezielt etwas ein falsches Bild vermitelt weil die meisten nur das Fazit lesen und garnichts anderes . Dort steht meistens halt wieviel schneller eine 1.89GHZ RTX 2080 als eine 1.63GHZ GTX 1080 ist . Aber seitdem die Karten boosten wie sie lustig sind , ist direkt vergkleichen eh nicht mehr so von sich aus gegeben .

Ex3cut3r
2018-09-22, 23:19:35
Ach Göttchen, als man keine RTX 2080 nicht noch weiter ocen könnte, vor allem bei VRAM geht anscheid einiges, GDDR6 hat potenzial, +1000mhz sind keine Seltenheit. OC gegen OC und trotzdem sind es 38% im Schnitt unterschied 1080 vs 2080

https://abload.de/thumb/unbenannti7dm3.png (https://abload.de/image.php?img=unbenannti7dm3.png)

Armaq
2018-09-22, 23:21:41
Ich formuliere das mal ganz direkt:

Warum sagt mir die PCGH / CB / etc. nicht, dass die 2080 ggü. einer vernünftigen 1080 unter 15 % Mehrleistung bietet? Warum mussten da die 30-40% stehen und das unter für die 2080 bestmöglichen Bedingungen?

40% Mehrleistung für 850 € oder 15% Mehrleistung für 850€ - da passiert im Kopf schon was.

E: FortuneHunter aus dem PCGH Forum haut ihnen zurecht auch die Benchmarks um die Ohren. Als Nvidia Käufer und potentieller Wiederkäufer wird man hier natürlich hinters Licht geführt.

La Junta
2018-09-22, 23:27:03
Ach Göttchen, als man keine RTX 2080 nicht noch weiter ocen könnte, vor allem bei VRAM geht anscheid einiges, GDDR6 hat potenzial, +1000mhz sind keine Seltenheit. OC gegen OC und trotzdem sind es 38% im Schnitt unterschied 1080 vs 2080

https://abload.de/thumb/unbenannti7dm3.png (https://abload.de/image.php?img=unbenannti7dm3.png)
Ich hab nirgends was von OC geschrieben , meine 1080iger Zotac Arctic Storm macht auch +1000MHZ beim Speicher mit und 2.1GHZ GPU .
Es geht darum das die verkrüpelten 1xxx FE gegen die deutlich besseren 2xxx FE antretten . ca. 10% Performance zuwachs sind dem Kühler geschuldet und nicht der GPU . Oder anders gesagt , mit einem ähnlich guten Kühler ist der Abstand kleiner .

BlacKi
2018-09-22, 23:29:05
Ach Göttchen, als man keine RTX 2080 nicht noch weiter ocen könnte, vor allem bei VRAM geht anscheid einiges, GDDR6 hat potenzial, +1000mhz sind keine Seltenheit. OC gegen OC und trotzdem sind es 38% im Schnitt unterschied 1080 vs 2080

https://abload.de/thumb/unbenannti7dm3.png (https://abload.de/image.php?img=unbenannti7dm3.png)
ohne jetzt dlss zu berücksichtigen. dann sind gerne mal 60%. ich setze viel auf dlss.

La Junta
2018-09-22, 23:34:35
Ein versierter User wird nicht hinters Licht geführt meiner Meinung nach und jeder dem die Karte soviel Wert ist , soll sie auch kaufen . Derjenige bekommt auch genau soviel Performance wie in den Reviews rauskommt . Ich seh keinen beschiss weit und breit .
Nvidia darf verlangen soviel die wollen , es beklagt sich ja auch keiner das andere Produkte in Ihrer Sparte ein vielfaches von anderen kosten .

Digidi
2018-09-22, 23:39:07
Ein versierter User wird nicht hinters Licht geführt meiner Meinung nach und jeder dem die Karte soviel Wert ist , soll sie auch kaufen . Derjenige bekommt auch genau soviel Performance wie in den Reviews rauskommt . Ich seh keinen beschiss weit und breit .
Nvidia darf verlangen soviel die wollen , es beklagt sich ja auch keiner das andere Produkte in Ihrer Sparte ein vielfaches von anderen kosten .

Beschiss ist es nicht, aber unsozial.

Armaq
2018-09-22, 23:39:46
Warum sagt nur GamersNexus "do not buy that"? Warum hat die PCGH mal wieder ne Begründung für die "verwirrenden" Benchmarks?

Stretcher
2018-09-22, 23:44:16
Ich formuliere das mal ganz direkt:

Warum sagt mir die PCGH / CB / etc. nicht, dass die 2080 ggü. einer vernünftigen 1080 unter 15 % Mehrleistung bietet?

Weil es nicht so ist, deshalb sagen die das nicht. Aus 40% werden also mit einer vernünftigen 1080 mit max OC? Dann + 25% Leistung, ergo 10% hinter der RTX 2080?
Ganz schön selektiv.
So wie ich das sehe kann man eine RTX FE dennoch 10 bis 15% übertakten.

Streitet euch hier wegen 5% hin und her.
Das ist schon erstaunlich.
Bei der Vega LC gabs keine Kritik, die ist ja schliesslich schneller als alle Custom Designs und wurde trotzdem in den Leistungsratings aufgenommen.
Aber guter Schachzug von Nvidia, so wird ewig disutiert, auch wenn nichts dabei rumkommt.

Beschiss ist es nicht, aber unsozial.

Ich hoffe du gründest bald das erste soziale aber gewinnorientierte unternehmen mit Börsengang.
AMD ist die Wohlfahrt hab ich gehört und heilt Krebs.
Warum sagt nur GamersNexus "do not buy that"? Warum hat die PCGH mal wieder ne Begründung für die "verwirrenden" Benchmarks?

Warum muss man sich als neutrale Instanz auch alle Nase lang zu Kaufempfehlungen hinreissen lassen, das kann der Leser doch wohl selbst entscheiden.

Ex3cut3r
2018-09-22, 23:50:42
Ich hab nirgends was von OC geschrieben , meine 1080iger Zotac Arctic Storm macht auch +1000MHZ beim Speicher

Was deine 1080 mit GDDR5X? Das kann nicht sein??? Sry, das kaufe ich dir nicht ab...du meinst wohl +500 vlt. höchstens +700, aber +1000??

Digidi
2018-09-22, 23:56:08
Ich hoffe du gründest bald das erste soziale aber gewinnorientierte unternehmen mit Börsengang.
AMD ist die Wohlfahrt hab ich gehört und heilt Krebs.



Muss man hier wieder AMD erwähnen?

Ja es ist Gewinnorientiert. Jedes unternehmen welches aber ein Produkt für die Massen liefert sollte sozial orientiert sein. Dein Bäcker will ja auch keine 1000 Euro für ein Brötchen weil er gewinnorientiert ist.

Schnoesel
2018-09-23, 00:03:08
ohne jetzt dlss zu berücksichtigen. dann sind gerne mal 60%. ich setze viel auf dlss.

Dir ist aber klar dass DLSS nur mit UHD funktioniert?!

Muss man hier wieder AMD erwähnen?

Klar sonst gehen einem die Argumente aus. Aber aber AMD hat :weg:

La Junta
2018-09-23, 00:04:36
Was deine 1080 mit GDDR5X? Das kann nicht sein??? Sry, das kaufe ich dir nicht ab...du meinst wohl +500 vlt. höchstens +700, aber +1000??
Um ehrlich zu sein ist es mir egal ob du mir glaubst , oder nicht .
Ich scheine aber nicht der einzige zu sein bei dem das so hoch geht https://m.youtube.com/watch?v=t6yfngE_NmU# .

Armaq
2018-09-23, 00:05:13
Weil es nicht so ist, deshalb sagen die das nicht. Aus 40% werden also mit einer vernünftigen 1080 mit max OC? Dann + 25% Leistung, ergo 10% hinter der RTX 2080?
Ganz schön selektiv.
So wie ich das sehe kann man eine RTX FE dennoch 10 bis 15% übertakten.

Streitet euch hier wegen 5% hin und her.
Das ist schon erstaunlich.
Bei der Vega LC gabs keine Kritik, die ist ja schliesslich schneller als alle Custom Designs und wurde trotzdem in den Leistungsratings aufgenommen.
Aber guter Schachzug von Nvidia, so wird ewig disutiert, auch wenn nichts dabei rumkommt.



Ich hoffe du gründest bald das erste soziale aber gewinnorientierte unternehmen mit Börsengang.
AMD ist die Wohlfahrt hab ich gehört und heilt Krebs.


Warum muss man sich als neutrale Instanz auch alle Nase lang zu Kaufempfehlungen hinreissen lassen, das kann der Leser doch wohl selbst entscheiden.
Warum wird der Kauf dann empfohlen?

JVC
2018-09-23, 00:11:17
hier stand "mist" ^^
( Gedanken Fehler )

m.f.g. JVC

Ex3cut3r
2018-09-23, 00:13:57
Um ehrlich zu sein ist es mir egal ob du mir glaubst , oder nicht .
Ich scheine aber nicht der einzige zu sein bei dem das so hoch geht https://m.youtube.com/watch?v=t6yfngE_NmU# .

Das ist ja krass. Das sind ja +1220 im Afterburner oder Prescion. Das ist aber nicht die Norm. Beim GDDR6 sind aber +600 bis +1000mhz die Norm.

Beim GDDR5X sind eher +450 bis 700mhz drin, und schon +700 sind selten.

BlacKi
2018-09-23, 00:44:25
Dir ist aber klar dass DLSS nur mit UHD funktioniert?!

noch funzt es nirgendwo und in 3 monaten wohl auch in 1440p und vl auch 1080p. ich würd glatt von meiner 1080ti auf die 2080 non ti wechseln wegen des klareren AA und dem performance boost. vermutlich warte ich aber bis 7nm gpus kommen.

Fliwatut
2018-09-23, 00:53:18
Warum wird der Kauf dann empfohlen?
Warum fragst du das nicht bei PCGH im Forum?

Mancko
2018-09-23, 01:02:38
Muss man hier wieder AMD erwähnen?

Ja es ist Gewinnorientiert. Jedes unternehmen welches aber ein Produkt für die Massen liefert sollte sozial orientiert sein. Dein Bäcker will ja auch keine 1000 Euro für ein Brötchen weil er gewinnorientiert ist.

Apple baut Produkte für die Massen und zwar für viel mehr Massen als Nvidia. Müssen sie deshalb sozial oder besonders Gönnerhaft sein? Nein. Ist der Bäcker eher günstig weil er Brötchen für die Massen bäckt oder weil er schlichtweg einem heftigen Konkurrenzdruck angefangen von Billig Discountern mit Backautomaten und lauter Billig Backshops ausgesetzt ist? Denk mal in Ruhe darüber nach. Dann wirst Du auch die Antwort finden.

Muss ehrlich sagen das diese Anspruchshaltung und das Geflenne in Deutschland mir auf die Eier gehen. Mit welchem Recht stellt sich manch einer hin und fordert gewisse Dinge nach seinem Gutdünken für sich ein. Wir sind im Kapitalismus. Da hat man über haupt kein Recht irgendetwas zu fordern. Mir schmecken die Preise auch nicht aber so ist das halt. Ich hätte auch gern viele Dinge die mir aber zu teuer sind oder die ich mir nicht leisten kann. Das ist eben so. Wenn es ein andere kann ist es doch gut für ihn. Freue ich mich und hoffe er oder sie hat Spass damit. Es wird ja wohl kaum einer am verhungern sein weil er oder sie keine Turing GPU daheim haben. Get a life...

PHuV
2018-09-23, 03:14:03
Bisher kann ich nichts negatives sagen, Asus 2080 ist leiser als meine Gehäuselüfter, 77-79 Grad, GPU Takt bei 1815-1890 MHz.

Ex3cut3r
2018-09-23, 03:29:17
Cool. :up:
OC schon probiert? Schaffst du +800mhz oder sogar mehr beim VRAM? Schaffst du auch die 2Ghz beim Core?

BlacKi
2018-09-23, 03:39:14
er hatte vorher ne titan x pascal FE, alle customs sind leiser XD, zumal er die karte nur solange hat bis die ti da ist, wird er wohl kaum OC betreiben.

Stretcher
2018-09-23, 03:50:34
Muss man hier wieder AMD erwähnen?

Ja, klar denn du hältst AMD ja für ein soziales Unternehmen, ansonsten würdest du doch nicht von einem GPU Hersteller wie Nvidia sagen dessen Verhalten sei unsozial.
Ist es von AMD eigentlich sozial für 500mm2 (Threadripper 2950x ) 899 Dollar zu verlangen, während Nvidia für 550mm2 699 verlangt?

Kurzum, bei Aktiengesellschaften von sozial zu reden ist schon unsozial.
Die nehmen das was sie für ihre Produkte nach den Marktgesetzen verlangen können.

Jedes unternehmen welches aber ein Produkt für die Massen liefert sollte sozial orientiert sein. Dein Bäcker will ja auch keine 1000 Euro für ein Brötchen weil er gewinnorientiert ist.

Vermutlich weil er keine 1000 Euro für ein Brötchen verlangen kann, weil Konkurrenz da ist und der Aufwand für die Herstellung eines Brötchens ungleich dem eines Grafikchips ist.

Aber wer so anfängt zu argumentieren, den kann man sowieso nicht ernstnehmen.
Selten was absurderes gelesen, hier tummeln sich wieder Esoteriker streng nach dem Leitsatz von P. Langstrumpf.

Das Brötchen ist also ein Massenprodukt wie eine 750mm2 GPU mit den neuesten Entwicklungen eines einzigen Unternehmens das diesen herstellt/herstellen kann.
Da haben wir 4te klasse Grundschule schon schlüssiger argumentiert.

dargo
2018-09-23, 08:27:07
Ach Göttchen, als man keine RTX 2080 nicht noch weiter ocen könnte, vor allem bei VRAM geht anscheid einiges, GDDR6 hat potenzial, +1000mhz sind keine Seltenheit.
Eigentlich sind es 250Mhz mehr. Aber ich weiß 1000 klingt besser. ;)

noch funzt es nirgendwo und in 3 monaten wohl auch in 1440p und vl auch 1080p.
Wenn schon bei 4k kleine Schriften (siehe Beispiel von FF15) bis zur Unlesbarkeit "vergewaltigt" werden wie soll das dann erst in 1440p, geschweige denn 1080p aussehen? :freak: Ich dachte Nvidia würde die beste Bildqualität liefern? Zumindest laut Dural. :tongue: Plötzlich ist diese nebensächlich weil eine Mehrleistung dabei rumkommt? Schon interessant wie sich manche Sachen ändern.

Ist es von AMD eigentlich sozial für 500mm2 (Threadripper 2950x ) 899 Dollar zu verlangen, während Nvidia für 550mm2 699 verlangt?

Du weißt aber schon, dass die RTX2080 nur ein Abfallprodukt ist? Bei der Quadro RTX 6000 verlangt Nvidia 6.300$. Und nein, alleine durch den doppelten Speicher kann man diesen Preis nicht rechtfertigen.

dildo4u
2018-09-23, 08:45:00
Oder man wartet erstmal ab bis es im Spiel intrigiert ist,jedes TAA vergewaltigt Heute den teuer produzierten Kontent mit einem Matsch Filter.Es muss ne bessere Lösung geben,vorallem mit Karten die so massiv schneller sind als die Konsolen.

akuji13
2018-09-23, 08:46:40
Vermutlich weil er keine 1000 Euro für ein Brötchen verlangen kann, weil Konkurrenz da ist und der Aufwand für die Herstellung eines Brötchens ungleich dem eines Grafikchips ist.

Vor allem kann man die Grafikkarte länger als einmal nutzen und auch länger als 5 Minuten. :D

dargo
2018-09-23, 08:56:18
Oder man wartet erstmal ab bis es im Spiel intrigiert ist,jedes TAA vergewaltigt Heute den teuer produzierten Kontent mit einem Matsch Filter.
Ist nur kompletter Unsinn. Was ist am TAA von bsw. The Division matschig? :rolleyes: Gleiches gilt für Doom oder Wolf 2.

Dural
2018-09-23, 09:06:13
Eigentlich sind es 250Mhz mehr. Aber ich weiß 1000 klingt besser. ;)


Wenn schon bei 4k kleine Schriften (siehe Beispiel von FF15) bis zur Unlesbarkeit "vergewaltigt" werden wie soll das dann erst in 1440p, geschweige denn 1080p aussehen? :freak: Ich dachte Nvidia würde die beste Bildqualität liefern? Zumindest laut Dural. :tongue: Plötzlich ist diese nebensächlich weil eine Mehrleistung dabei rumkommt? Schon interessant wie sich manche Sachen ändern.

Du weißt aber schon, dass die RTX2080 nur ein Abfallprodukt ist? Bei der Quadro RTX 6000 verlangt Nvidia 6.300$. Und nein, alleine durch den doppelten Speicher kann man diesen Preis nicht rechtfertigen.

Man kann bei turing wählen was man will, du kannst genau so echte 4k einstellen. Kleiner aber feiner unterschied. Und nur so als info, mit vega kannst du ja nicht mal immer 4k einstellen weil zu langsam.

Grafikkarten haben immer das bessere preis/leistungs verhältnis. CPU sind immer viel zuteuer, schon die ganze treiber entwicklung fällt praktisch weg. Deswegen sind die quadro übrigens so teuer.


Ich formuliere das mal ganz direkt:

Warum sagt mir die PCGH / CB / etc. nicht, dass die 2080 ggü. einer vernünftigen 1080 unter 15 % Mehrleistung bietet? Warum mussten da die 30-40% stehen und das unter für die 2080 bestmöglichen Bedingungen?

40% Mehrleistung für 850 € oder 15% Mehrleistung für 850€ - da passiert im Kopf schon was.

E: FortuneHunter aus dem PCGH Forum haut ihnen zurecht auch die Benchmarks um die Ohren. Als Nvidia Käufer und potentieller Wiederkäufer wird man hier natürlich hinters Licht geführt.

Von wo kommen die 15%???
Die 2080 hat exakt 15% mehr sp als die 1080, das heist das die min. immer 15% bei gleichem takt schneller sein muss. Turing hat aber sehr viele veränderungen und ist pro sp und takt klar schneller als pascal. Somit sollten bei takt zu takt vergleiche eine 2080 eher min. 30% schneller sein.

Mit einer 2080 @ 2,1ghz dürften es ca. 35% sein, da die meisten pascal eher so um die 2ghz machen.

Müsst ihr euch immer noch schön reden wie so ihr keine turing kauft oder was soll das?

Armaq
2018-09-23, 09:34:03
Ich hab selbst nachgemessen. Zahlen sind einsehbar. Waren sogar weniger als 15%. Wirkt die Magic wohl nicht.

JVC
2018-09-23, 09:37:06
Auflösung ist durch nichts zu ersetzen, außer durch noch mehr Auflösung.
DLSS ist und bleibt ein Art Upscaling. (niedrige berechnete Auflösung aufgeblasen auf eine höhere)

Upscaling gibt es schon sehr lange ( in einer etwas schlechteren Bildqualität )
Früher war es eher verachtet ...
aber jetzt wo NV es "umbenannt" hat und schön redet ist es für einige plötzlich toll ... :confused:
( ich habe noch keine realen Bildqualitätsvergleiche gesehen die mich überzeugt hätten )

m.f.g. JVC

p.s.: Gute Monitore haben auch ein ganz brauchbares Upscaling ;)
Das von meinem Samsung FernseherMonitor ist für Notfälle in Spielen ganz passabel,
empfinde ich als zum verwechseln ähnlich zu NV´s DLSS
Falls ihr Upscaling nutzt deaktiviert zuerst jegliche form von Kanten Glättung und sonstigem verwaschen/weichspülen ...
sieht dann MMn besser aus. (hängt aber vielleicht stark von der "Upscaling Software" des jeweiligen Bildschirmes ab)

Dural
2018-09-23, 09:37:38
Wenniger im schnitt als 15% ist unmöglich.

Auser die pascal lief mit oc und die turing nicht, aber nicht mal da kann ich mir die 15% vorstellen. :rolleyes:
Turing hängt so wie so am pt, die brauchen halt mehr saft als noch pascal, was aber auch logisch ist.

JVC
2018-09-23, 10:08:48
Wenniger im schnitt als 15% ist unmöglich.

Auser die pascal lief mit oc und die turing nicht, aber nicht mal da kann ich mir die 15% vorstellen. :rolleyes:
Turing hängt so wie so am pt, die brauchen halt mehr saft als noch pascal, was aber auch logisch ist.

https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/47377-die-geforce-rtx-2080-ti-und-rtx-2080-founders-edition-im-test.html?start=26
"Turing, Volta und Pascal bei 1.850 MHz"

1080 --> 2080 +18,66%
2080 --> 1080Ti +13,36%
1080TI --> 2080Ti +17,43%
2080TI --> Titan V +3,21%
( das sind brauchbare Fakten )

Beim übertakten verschiebt sich das Verhältnis eher zugunsten der Alten Grakas !
(scheinbar lassen sich die neuen auch noch etwas weniger weit Übertakten :confused: )

m.f.g. JVC

MAX OC 1080Ti ---> MAX OC 2080Ti schätze ich mal auf ~15-20%
und die 2080 hat im Normalfall nie auch nur den hauch einer Chanze gegen die 1080 Ti

pilzsammler2002
2018-09-23, 10:39:56
Ich Frage mich wo das immer herkommt das man mit ner Vega/1080 etc kein 4k kann... Irgendwas mache ich falsch mit meinem Rechner...

Linmoum
2018-09-23, 11:01:20
Weil es in vielen Spielen nicht für 60fps reicht, wenn man die Regler ganz nach rechts schiebt.

Man könnte jetzt natürlich das ein oder andere auch auf High statt Ultra stellen oder einen VRR-Monitor benutzen, der gerade in UHD enorm viel hilft. Aber scheint für viele keine Lösung zu sein.

Sweepi
2018-09-23, 11:03:00
1080 --> 2080 +18,66%
2080 --> 1080Ti +13,36%
1080TI --> 2080Ti +17,43%
2080TI --> Titan V +3,21%
( das sind brauchbare Fakten )
Das sind die Fakten/Zahlen fuer Fire Strike Ultra. Das ist nicht der Schnitt.

Man könnte jetzt natürlich das ein oder andere auch auf High statt Ultra stellen oder einen VRR-Monitor benutzen, der gerade in UHD enorm viel hilft. Aber scheint für viele keine Lösung zu sein.
Fuer mich wäre Auflösung + Bildfläche wichtiger als die Regler rechts.
Also lieber 27" 1440p low-mid als 24" 1080p high-ultra.
Die Option sehen viele nicht. Oder es sind laute 10%, und die schweigsamen 90% sehen das ähnlich, kA ;)

TGKlaus
2018-09-23, 11:03:59
Wenniger im schnitt als 15% ist unmöglich.



in FullHD sinds klar weniger als 15%.

Also hör doch endlich auf hier rumzutrollen.

dargo
2018-09-23, 11:04:14
Upscaling gibt es schon sehr lange ( in einer etwas schlechteren Bildqualität )
Früher war es eher verachtet ...
aber jetzt wo NV es "umbenannt" hat und schön redet ist es für einige plötzlich toll ... :confused:
( ich habe noch keine realen Bildqualitätsvergleiche gesehen die mich überzeugt hätten )

Liegt wohl daran, dass viele den schärferen Bildeindruck als Ganzes bsw. bei FF15 mögen. Die Schärfe ist auch wesentlich besser, keine Frage (wobei es teilweise imho zu stark wirkt wenn Kantenflimmern dadurch wieder stärker auffällt). Allerdings würde ich das TAA von einem FF15 nicht als Referenz sehen. DLSS müsste man mal mit einem The Division, Doom oder Wolf 2 sehen.

fondness
2018-09-23, 11:17:21
Das mache ich oft genug. Du ignorierst nur leider sowohl mich als auch die PCGH als Ganzes (das Hauptprodukt ist immer noch das Heft) und hatest munter weiter. Es bringt daher nichts, den ganzen Unsinn sachlich aufzugreifen – es ändert nichts und ich habe dennoch dafür Zeit geopfert. Wie gerade schon wieder, mit diesem Posting.

Die einzige Option, ein Like von dir zu fischen, wäre, "Radeon, yeah, yeah – fuck you, Nvidia!" (inspiriert von Linus Torvalds) zu schreiben und zu heucheln, dass ich das auch so meine. Meine Welt ist aber nicht grün-rot, sondern schön bunt. :ugly:

MfG,
Raff

Eine sachliche Stellungnahme wäre trotzdem angebracht, denn was er sagt ist inhaltlich nicht falsch. Warum PCGH ausgerechnet jetzt die Pascal FEs auspackt, die man sonst bei jedem Vergleich gemieden hat, wirkt zumindest seltsam. Immerhin sind die Turing FEs ganz offensichtlich völlig anders im Markt positioniert mit höherem Power-Limit und viel stärkerer Kühlung, dh gerade da wären Custom-Modelle der Pascal-Chips ein guter Vergleich. Zumal sich PCGH nie zu schade war, AMD Referenzkarten mit NV Customs zu vergleichen.

hq-hq
2018-09-23, 11:29:24
Eine sachliche Stellungnahme wäre trotzdem angebracht, denn was er sagt ist inhaltlich nicht falsch. Warum PCGH ausgerechnet jetzt die Pascal FEs auspackt, die man sonst bei jedem Vergleich gemieden hat, wirkt zumindest seltsam. Immerhin sind die Turning FEs ganz offensichtlich völlig anders im Markt positioniert mit höherem Power-Limit und viel stärkerer Kühlung.

Die FE Turing sind doch die direkten Nachfolger der FE Pascal Karten und als erste verfügbar.
Im zweiten Schritt werden dann die Custom Modelle getestet und sicherlich mit den 1080Ti Customs verglichen.
Eine 1080Ti Superjetstream o.ä. wär natürlich trotzdem schön gewesen...

-> Powerlimit wird dann bestimmt für viele das entscheidende Kriterium, weniger als bei FE geht garnicht.

dildo4u
2018-09-23, 11:46:07
Eine sachliche Stellungnahme wäre trotzdem angebracht, denn was er sagt ist inhaltlich nicht falsch. Warum PCGH ausgerechnet jetzt die Pascal FEs auspackt, die man sonst bei jedem Vergleich gemieden hat, wirkt zumindest seltsam. Immerhin sind die Turing FEs ganz offensichtlich völlig anders im Markt positioniert mit höherem Power-Limit und viel stärkerer Kühlung, dh gerade da wären Custom-Modelle der Pascal-Chips ein guter Vergleich. Zumal sich PCGH nie zu schade war, AMD Referenzkarten mit NV Customs zu vergleichen.
PCGH erstellt den GPU Index immer mit dem Standard Kühler vielleicht hatten sie einfach nicht genug Zeit,da der in das neue Heft muss.

http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/2/

[dzp]Viper
2018-09-23, 11:59:05
in FullHD sinds klar weniger als 15%.
Ich hoffe dass Argument ist ein Scherz..
Das der Abstand unter fullhd sehr gering ist sollte eigentlich jeden klar sein weil der Flaschenhals dann ja auch nicht mehr die GPU ist..

Erbsenkönig
2018-09-23, 12:21:02
Sollte eigentlich nicht noch bei CB ein Test kommen, wo mit verschiedenen Prozessoren getestet wurde?

Lowkey
2018-09-23, 12:24:25
Haha... genau das dachte ich gerade auch.


@Raff

Ich denke auch, dass der Leser immer probieren wird seine Hardware einzuordnen und eine Mehrheit hat sicherlich eine Custom. Ebenso hat eine gewisse Menge auch vor die CPU zu übertakten oder nutzt schnelleren Speicher. Diese praktischen Abweichungen erfaßt ein vorschriftsmäßiger Test nicht. Eines Tages findet jemand eine Möglichkeit ein System innerhalb von ein paar Minuten mit aktuellster Hardware zu vergleichen. Die Ansätze verfolgen diverse Benchmarksuits, aber keiner denkt es zuende, weil der Aufwand wohl groß wäre.

Raff
2018-09-23, 12:31:59
Eine sachliche Stellungnahme wäre trotzdem angebracht, denn was er sagt ist inhaltlich nicht falsch. Warum PCGH ausgerechnet jetzt die Pascal FEs auspackt, die man sonst bei jedem Vergleich gemieden hat, wirkt zumindest seltsam. Immerhin sind die Turing FEs ganz offensichtlich völlig anders im Markt positioniert mit höherem Power-Limit und viel stärkerer Kühlung, dh gerade da wären Custom-Modelle der Pascal-Chips ein guter Vergleich. Zumal sich PCGH nie zu schade war, AMD Referenzkarten mit NV Customs zu vergleichen.

Rede ich chinesisch? Das scheint mir langsam die einzige Erklärung dafür zu sein, dass hier einige Leute das Folgende partout nicht verstehen wollen: Es werden klar Founders-Editionen mit Founders-Editionen verglichen. Dazu gesellen sich "AMD Founders Edtionen" inklusive der RX Vega 64 LCE, bei der komischerweise niemand meckert, dass sie schneller ist als jedes V64-Herstellerdesign. :confused: Der Vergleich Referenzkarte gegen Referenzkarte - gemeint sind jeweils die Karten, welche von AMD und Nvidia kommen - hat sich nicht geändert. Das wird in den Referenztests seit Jahren so gemacht, Custom-Karten sind da nur schmückendes Beiwerk. Aus dem Grund, dass es nicht "die Custom-Karte" gibt, die sind alle anders. Egal, was man nimmt, das ist nur ein Beispiel. Ergo ist nur eine Referenzkarte eine valide Basislinie.

MfG,
Raff

GSXR-1000
2018-09-23, 12:38:52
Rede ich chinesisch? Das scheint mir langsam die einzige Erklärung dafür zu sein, dass hier einige Leute das Folgende partout nicht verstehen wollen: Es werden klar Founders-Editionen mit Founders-Editionen verglichen. Dazu gesellen sich "AMD Founders Edtionen" inklusive der RX Vega 64 LCE, bei der komischerweise niemand meckert, dass sie schneller ist als jedes V64-Herstellerdesign. :confused: Der Vergleich Referenzkarte gegen Referenzkarte - gemeint sind jeweils die Karten, welche von AMD und Nvidia kommen - hat sich nicht geändert. Das wird in den Referenztests seit Jahren so gemacht, Custom-Karten sind da nur schmückendes Beiwerk. Aus dem Grund, dass es nicht "die Custom-Karte" gibt, die sind alle anders. Egal, was man nimmt, das ist nur ein Beispiel. Ergo ist nur eine Referenzkarte eine valide Basislinie. Steht alles bei der PCGH.

MfG,
Raff

Auch für den Fall, das du nicht chinesisch redest, gestehst du es vielleicht anderen trotzdem zu, deine Meinung nicht zu teilen und die sinnhaftigkeit dieses Setups in Frage zu stellen? Ist das akzeptabel für dich? Wäre schön, danke.

Einen wesentlichen Unterschied gibt es nämlich imho schon. Die FEs der Vorgängergeneration wurden von NV selbst als Referenz und Standard definiert. Dies ist bei der jetzigen FE explizit nicht der Fall, da Sie in allen Takten ÜBER der NV genannten Referenz liegen, und das tw. deutlich.
Das sollte auch nicht zu sehr chinesisch sein,das auch DU den Kritikpunkt zumindest verstehst. Teilen musst du ihn natürlich nicht. Das hätte von DIR sowieso auch keiner erwartet.

Raff
2018-09-23, 12:40:37
Ich gestehe euch natürlich eine Meinung zu. Diese als die Wahrheit darzustellen und eine Anpassung jahrelanger, bewährter Praxis zu fordern ist aber ... sagen wir einfach unangebracht. :)

Turing bringt ein zu kleines Plus gegenüber Pascal. Darüber sind wir uns einig. Ihr tut nun aber so, als wäre mit den starken Founders-Designs alles anders. Wir reden hier über einstellige prozentuale Unterschiede (Schätzung, Karten gibt es ja nicht). Ob's am Ende nun +35 oder +29 Prozent sind, ändert am Gesamtbild, dass es zu wenig ist, gar nichts. Wie immer werden die stärksten Custom-Karten zeigen, wo man bestenfalls (beim manuellen OC) landet.

MfG,
Raff

Lowkey
2018-09-23, 12:43:03
Und wenn die Referenz Edition kommt, dann kommt der Nachtest. Wird dann in Zukunft die FE oder die Referenz Edition bei Benchmarks mitlaufen?

Raff
2018-09-23, 12:44:08
Das sehen wir dann. Ohne Fakten lege ich nichts fest.

MfG,
Raff

Lowkey
2018-09-23, 12:45:44
Gut.

Bekannter war erstaunt, dass die FE eine OC Version sei, weil er mit OC nichts am Hut hat.

Also ein Blick hier:

https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-2021-september-2018

und im Hinterkopf 3-4% behalten.

Sweepi
2018-09-23, 12:45:57
Und wenn die Referenz Edition kommt
Von Nvidia kommt noch eine "Referenz Edition"? Oder meinst du Partnerkarten mit ref. clocks?

Raff
2018-09-23, 12:48:00
Gut.

Bekannter war erstaunt, dass die FE eine OC Version sei, weil er mit OC nichts am Hut hat.

Also ein Blick hier:

https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-2021-september-2018

und im Hinterkopf 3-4% behalten.

Das wird am Ende mehr. Die Simulationen haben "vergessen", dass nicht nur TDP und Takt-Offset die Leistung bestimmen, sondern auch der Kühler. Im Temp-Limit wird deutlich härter gedrosselt, sodass da bei "Plastikkühlern" noch ein paar Prozentchen obendrauf kommen. Wie viel genau: TBD.

MfG,
Raff

Lowkey
2018-09-23, 12:48:12
Ich vermute mal die üblichen Blower Editions für 20 Euro weniger werden auf den Markt kommen, aber dann sind es Customs und die fallen dann unter das Test Radar. Mit der Selektierung der Chips sind die Karten dann sehr wahrscheinlich auch unabhängig von der Serienstreuung langsamer.

DeadMeat
2018-09-23, 13:05:45
.... Dazu gesellen sich "AMD Founders Edtionen" inklusive der RX Vega 64 LCE, bei der komischerweise niemand meckert, dass sie schneller ist als jedes V64-Herstellerdesign. :confused:....


Die Leute haben doch nie Kritisiert das die 2080er FE quasi eine OC Version ist, sondern das nicht der IST Zustand bei den 1080er TI verglichen wurde.

Der PCGH Test legt eine Baseline fest klar, aber er stellt nicht direkt den aktuellen Zustand dar bei dem die meisten User eben eine OC Custom benutzen. Viele wollen doch wissen wie die neuen Karten sich verhalten im Bezug auf ihre aktuell benutzen Karten.

Genau das wurde bei einigen Vega Release Tests oft argumentiert das eben die meisten keine Referenz benutzen, und das stimmt auch.

Insofern wurde eben geschlussfolgert das man die 2080er besser aussehen lässt als sie sind.


..eine Anpassung jahrelanger, bewährter Praxis zu fordern..

Wenn Nvidia ihre FE Politik neu ausrichtet und diese in ehemals Custom Bereiche ändert ist das auch nicht sehr abwegig die Tests anzupassen.

Raff
2018-09-23, 13:16:34
Zum Argument, dass "die meisten User eine OC Custom-Karte nutzen": Wenn 65 Prozent davon manuell übertakten, ist dann das die Baseline? ;)

Ihr seht gewiss das Problem. Das wird immer deutlicher, je länger man darüber nachdenkt. Welche Karte nehme ich? Was ist denn der "Ist-Zustand"? Am Ende findet man sich in der Lage wieder, am besten 3-4 Varianten zu testen: Die billigste, die Referenz, eine starke und die stärkste. Unfassbar viel Aufwand für einen minimalen Präzisionsgewinn, den jeder mit etwas Transferleistung in wenigen Sekunden selbst erhielte.

MfG,
Raff

dildo4u
2018-09-23, 13:17:45
Die Leute haben doch nie Kritisiert das die 2080er FE quasi eine OC Version ist, sondern das nicht der IST Zustand bei den 1080er TI verglichen wurde.

Der PCGH Test legt eine Baseline fest klar, aber er stellt nicht direkt den aktuellen Zustand dar bei dem die meisten User eben eine OC Custom benutzen. Viele wollen doch wissen wie die neuen Karten sich verhalten im Bezug auf ihre aktuell benutzen Karten.

Genau das wurde bei einigen Vega Release Tests oft argumentiert das eben die meisten keine Referenz benutzen, und das stimmt auch.

Insofern wurde eben geschlussfolgert das man die 2080er besser aussehen lässt als sie sind.


Wenn Nvidia ihre FE Politik neu ausrichtet und diese in ehemals Custom Bereiche ändert ist das auch nicht sehr abwegig die Tests anzupassen.


Es gibt doch auch Turing Karten die weiter OC sind.Die hier läuft massiv besser als die FE.

https://youtu.be/584_Ok6nA2I?t=5m30s

Nvidia hat mit den FE Karten nicht den zusätzlichen OC Spielraum weggenommen.Also wenn schon Custom 1080 Ti dann auch Custom Turing.

fondness
2018-09-23, 13:22:05
Die Leute haben doch nie Kritisiert das die 2080er FE quasi eine OC Version ist, sondern das nicht der IST Zustand bei den 1080er TI verglichen wurde.

Der PCGH Test legt eine Baseline fest klar, aber er stellt nicht direkt den aktuellen Zustand dar bei dem die meisten User eben eine OC Custom benutzen. Viele wollen doch wissen wie die neuen Karten sich verhalten im Bezug auf ihre aktuell benutzen Karten.

Genau das wurde bei einigen Vega Release Tests oft argumentiert das eben die meisten keine Referenz benutzen, und das stimmt auch.

Insofern wurde eben geschlussfolgert das man die 2080er besser aussehen lässt als sie sind.




Wenn Nvidia ihre FE Politik neu ausrichtet und diese in ehemals Custom Bereiche ändert ist das auch nicht sehr abwegig die Tests anzupassen.

Korrekt, darauf wollte ich hinaus. Man kann für vieles Argumente finden und man kann es sicher nie allen Recht machen, ABER: Die Argumentation sollte konsistent sein. PCGH hat immer die Customs verwendet (auch bei Vergleichen ggü. AMD Referenz) und das auch entsprechend argumentiert mit den Usern welche keine FEs verwenden. Kann man so argumentieren. Aber warum das jetzt so nicht mehr gilt wo NV noch dazu aus der FE einen OC-Edition gemacht hat erschließt sich mir nicht. Egal, es bringt jetzt auch nichts darüber ewig zu diskutieren, deshalb der letzte Beitrag von mir. Ich hoffe aber doch, der Punkt ist bei PCGH angekommen. :)

Raff
2018-09-23, 13:30:16
[...] PCGH hat immer die Customs verwendet (auch bei Vergleichen ggü. AMD Referenz) und das auch entsprechend argumentiert mit den Usern welche keine FEs verwenden. [...]

Nein, nein und nochmals nein. Woher kommt diese Fehlinformation/-interpretation? Aus den Techniktest aktueller Spiele? Oder aus den Bonusbenchmarks, die's bei jedem Referenztest dazu gibt? Ernstgemeinte Frage. Ich wüsste wirklich gerne, wo ich überall falsch verstanden werde. :)

Ich gebe zu, dass die Unterscheidung zwischen Referenztests und Spieletests nicht optimal ist. Aber da werden auch unterschiedliche Dinge geklärt. Im erstgenannten Test geht es darum, Referenzkarten mit Referenzkarten zu vergleichen, um eine Basis der Bewertung zu schaffen. Ist diese gefunden, werden anhand dessen die Custom-Karten abgehandelt und benotet.

Die Benchmark-Tests neuer Spiele, zuletzt Shadow of the Tomb Raider (http://www.pcgameshardware.de/Shadow-of-the-Tomb-Raider-Spiel-61096/Specials/Shadow-of-the-Tomb-Raider-Benchmarks-1264575/) und WoW: Battle for Azeroth (http://www.pcgameshardware.de/World-of-Warcraft-Battle-for-Azeroth-Spiel-61376/Specials/WOW-Addon-Benchmark-Test-Review-1262749/) lösen sich etwas von der "Wir müssen akkurat Standardkarten mit Standardkarten vergleichen"-Prämisse und beinhalten auf vielfachen Leserwunsch daher nur Custom-Designs, sofern vom jeweiligen Modell vorhanden. So praxisnah das ist, so gefährlich ist es auch – und wird immer wieder angefochten: Sind die aufgeführten Karten "typisch" oder doch eher überdurchschnittlich langsam/schnell? Egal, wie man's macht, es gibt keine Wahrheit – nur eine möglichst kompetent durchgeführte Annäherung. :)

MfG,
Raff

DeadMeat
2018-09-23, 13:39:34
Es gibt doch auch Turing Karten die weiter OC sind.Die hier läuft massiv besser als die FE.

https://youtu.be/584_Ok6nA2I?t=5m30s

Nvidia hat mit den FE Karten nicht den zusätzlichen OC Spielraum weggenommen.Also wenn schon Custom 1080 Ti dann auch Custom Turing.


Darum geht es doch gar nicht, und das habe ich nicht geschrieben.

Es geht darum das JETZT Leute Custom TIs benutzen und diese nicht in vielen Benchmarks auftauchen.

Das die FE soviel besser ist als die alten FE , ist sogar etwas sehr positives.

Zum Argument, dass "die meisten User eine OC Custom-Karte nutzen": Wenn 65 Prozent davon manuell übertakten, ist dann das die Baseline?


Nein USER OC sollte natürlich keine Rolle Spielen, und das ändert doch auch nichts an dem aktuellen Zustand, aktuell benutze Custom TIs gegen aktuelle Modelle der neuen Generation.

Mir selber ist das alles egal weil ich davon nicht betroffen bin, ich kann aber die Argumentation dagegen verstehen weil es eben ein etwas unrealistischeren Zustand darstellt.

Vermutlich entwickelt sich das zu einer ähnlichen Situation wie bei den CPU Test mit den streitigkeiten um die Reale Anwendung.

PHuV
2018-09-23, 13:40:56
Ich muß hier Raff uneingeschränkt zustimmen. Es ist doch das normalste von der Welt, wenn wir ein sicheres Referenzsystem als Bezug nehmen, als mehrere verschiedene mit unterschiedlichen Werten. Macht doch auf Arbeit jeder auch, wenn er verläßliche Kennzahlen ermitteln will. Da wird auch nicht unbedingt immer das beste und schnellste genommen, sondern das, was produktiv am schwächsten und zuverlässig im Einsatz ist.

Es ist doch vollkommen klar, daß PGHW und Raff den ganzen Hersteller"wildwuchs" nicht als zuverlässige Referenzquelle nehmen können. Jeder Hersteller kocht sein eigenes Süppchen, taktet die Karten vollkommen unterschiedlich, macht eine andere Kühlerlösung, andere Spannung und sonstwas. Das wäre so, als ob Ihr ein Fließbandauto mit einem aus einer Tuning-Werkstatt vergleichen würdet.

Daher, viel Aufregung um nichts, und die mosernden Kollegen hier sollten sich echt mal überlegen, wie sie das sonst im Alltag lösen würden. Mal ein bißchen vernünftig nachgedacht ist diese Lösung genau die richtige.
Darum geht es doch gar nicht, und das habe ich nicht geschrieben.

Es geht darum das JETZT Leute Custom TIs benutzen und diese nicht in vielen Benchmarks auftauchen.

Und welche Custom soll dann als Referenz dienen? Die Hersteller loten doch selbst aus, und alle Karten liefern unterschiedliche Maximaltakte. Selbst in einer Baureihe, das sehe wir doch schon im Forum, gibt es unterschiedliche Ergebnisse. Manche erwischen einen gute Chip, andere nicht.

Daher wäre dann die einzige Lösung, OC und alle dazugehörenden Werte auf einen Limit zu setzen. Aber wieder die Frage, geht das so einfach, besonders mit modifizierten Biosen?

DeadMeat
2018-09-23, 13:49:09
Eine einzige von den schnellen oder die schnellste von den aktuellen Customs (im Auslieferungszustand, wie oft von den Seiten selber zuvor getestet) zusätzlich wäre also zuviel gewesen in den Grafiken als Vergleich?

Raff
2018-09-23, 13:51:08
Eine einzige von den schnellen oder die schnellste von den aktuellen Customs (im Auslieferungszustand, wie oft von den Seiten selber zuvor getestet) zusätzlich wäre also zuviel gewesen in den Grafiken?

Ganz simple Mathematik: 2 statt 1 Karte in den Benchmarks: +100 Prozent Messaufwand. Wenn eine Karte einen Tag benötigt, wie wirkt sich das auf den Zeitplan bzw. andere Tests aus? ;)

Ihr könnt ja nicht wissen, wie viel Arbeit das alles ist. Das ist eigentlich auch egal. Wenn es aber Kritik hagelt, was man noch alles hätte testen können, dann kommen eben doch diese Details zur Sprache. Ein Grafikkartentest ist, sofern man ihn nicht ohne Liebe hinrotzt, sehr, sehr aufwendig. Man muss heutzutage alles protokollieren und aufpassen. Früher hat es tatsächlich gereicht, einmal Quake 3 und einmal UT als Timedemo durchlaufen zu lassen. Der Takt war starr, die Lüfter unauffällig und Leistungsaufnahme egal. Total billig. :ugly:

MfG,
Raff

Monsta
2018-09-23, 13:51:38
Ich würde fast Geld drauf wetten das Nvidia vorgeschrieben hat, das gegen die FE Pascals gebencht werden muss.

Ich erwarte bei einem Benchmark aber die Creme de la Creme der Gpus.

Und zwar stock und maximierten Powerlimit. Das sind Einstellungen die jeder DAU kann und macht.

Raff
2018-09-23, 13:54:07
Ich würde fast Geld drauf wetten das Nvidia vorgeschrieben hat, das gegen die FE Pascals gebencht werden muss.

Das nächste Mal wette ich sehr gerne mit dir (sprich: dagegen). Soll ich mich melden oder tust du das proaktiv, wenn sich ein Launch ankündigt?

MfG,
Raff

DeadMeat
2018-09-23, 13:56:13
Ganz simple Mathematik: 2 statt 1 Karte in den Benchmarks: +100 Prozent Messaufwand. Wenn eine Karte einen Tag benötigt, wirkt sich das wie auf den Zeitplan aus? ;)

Ihr könnt ja nicht wissen, wie viel Arbeit das alles ist. Das ist eigentlich auch egal. Wenn es aber Kritik hagelt, was man noch alles hätte testen können, dann kommen eben doch diese Details zu Sprache. Ein Grafikkartentest ist, sofern man ihn nicht ohne Liebe hinrotzt, sehr, sehr aufwendig. Man muss heutzutage alles protokollieren und aufpassen. Früher hat es tatsächlich gereicht, einmal Quake 3 und einmal UT als Timedemo durchlaufen zu lassen.

MfG,
Raff

Sicherlich absolut zutreffend und nachvollziehbar, dennoch fehlt eben ein Vergleich und darüber regen sich einige Leute auf, mehr nicht und das ist eben auch nachvollziehbar wenn man in dieser Situation ist. Wie du und vermutlich einige andere auch gesagt haben man kann es nicht allen recht machen und damit muss man dann leben.

Etwas Kritik ist berechtigt, das verschlechtert nicht die geleistete Arbeit und macht sie auch nicht ungültig. Wenn der Grund eben Zeit/Aufwand/Kosten sind dann ist es eben so und für jede Verständlich und muss auch nur so kommuniziert werden. Falls das den Leuten nicht Ausreicht ist das wiederum ihr Problem.

Raff
2018-09-23, 13:58:29
Sicherlich absolut zutreffend und nachvollziehbar, dennoch fehlt eben ein Vergleich und darüber regen sich einige Leute auf, mehr nicht und das ist eben auch nachvollziehbar wenn man in dieser Situation ist. Wie du und vermutlich einige andere auch gesagt haben man kann es nicht allen recht machen und damit muss man dann leben.

Die meisten können damit leben. Ich auch. Nur fange ich an zu kochen, wenn ich nach einer wohldurchdachten und wohldurchgearbeiteten Woche mit faulem Obst beworfen werde. Auch das dürfte absolut nachvollziehbar sein. :)

MfG,
Raff

PHuV
2018-09-23, 13:59:21
Ganz simple Mathematik: 2 statt 1 Karte in den Benchmarks: +100 Prozent Messaufwand. Wenn eine Karte einen Tag benötigt, wie wirkt sich das auf den Zeitplan aus bzw. andere Tests aus? ;)

Ihr könnt ja nicht wissen, wie viel Arbeit das alles ist. Das ist eigentlich auch egal.
Laß sie alle mal eine Strafarbeit mit Messwerten und Excel machen, dann werden sie es selbst merken. :wink:

Ich bekomme es ja auch fast zu hören, wenn ich 20 Seiten DB-Analysen dem Kunden zukommen lasse, und der Kunde fragt, warum ich für die paar Bildchen eine Woche brauche. Dann habe ich ihm einfach mal mehrere Logs nur als Text zugesendet, und seitdem kam keine Kritik mehr. :tongue:

Leute, das ist eine Sauarbeit, wirklich, und bevor Ihr motzt, Raff hat 70-Stunden-Woche hingelegt. Ich hätte da schon lange meinem Chef sonstwas erzählt und mich geweigert, schließlich hat man ja auch ein Leben.

DeadMeat
2018-09-23, 14:00:52
Die meisten können damit leben. Ich auch. Nur fange ich an zu kochen, wenn ich nach einer wohldurchdachten und wohldurchgearbeiteten Woche mit faulem Obst beworfen werde. Auch das dürfte absolut nachvollziehbar sein. :)

MfG,
Raff


Dazu haben auch die Leute beigetragen wie Dildo und co welche die Sache falsch verstanden haben, die letzten 3 Seiten hatten vielleicht 2 Posts bei welchen es um die Eigentliche Kritik ging.

Und irgendeiner hat eh auch schon wieder Auto Vergleiche gebracht wtf.

PHuV
2018-09-23, 14:03:56
Es steht doch jedem frei, das selbst zu machen. Wir haben hier im Forum die Abteilung Usertests, und da kann sich jeder gerne austoben und das besser machen, was er bei anderen kritisiert. Ich kann mich nur mal erinnern, daß ich verschiedene Backupprogramme fast eine Woche privat (!) verglichen, und von CB-Usern gabs nur Gemotze, weil der Preis der SWs fehlte. :rolleyes: Da der Preis nur im 10-20 € variierte, war meine Argumentation, Preis spielt für zuverlässige Backups bzw. gute SW, weil sie entsprechende Zeit spart, keine Rolle, und schon ging der Shitstorm los.

Frag doch mal alle, die hier Usertests gemacht haben, wieviel Zeit sie da versenkt hatten, ohne daß sie jemand bezahlt. Sorry, das ist eine arrogante Anspruchshaltung, die auf keine Kuhhaut mehr geht. Bei den meisten ist doch eh schon gesetzt, daß sie keine Turing kaufen werden. Also warum dann dieses Geschrei um ein Produkt, was angeblich ein "Abfallprodukt" sein soll, und angeblich eh nicht sein Geld wert sei? Ich kann Dir genau sagen, warum. ;)
Und irgendeiner hat eh auch schon wieder Auto Vergleiche gebracht wtf.
Klar, was interessieren mich die Verbrauchs- und Leistungswerte von den Bugattis, wenn ich mir im Leben eh nie einen leisten kann kaufen werde. ;)

robbitop
2018-09-23, 14:13:09
@Raff
Schiebt ihr irgendwann (wenn mal wieder Zeit ist) Benchmarks mit maximal übertakteten GM200 + GP102 + GT102 nach? Wäre sicher nicht uninteressant. Gern auch mit Titans.
Iirc gabs beim GP104 Launch mal Benchmarks mit einer Titan XM @1.5 GHz vs einer 1080 @2 GHz. :)
Vieleicht ja mal als Sondertest im Heft?

Lu
2018-09-23, 14:15:17
Das nächste Mal wette ich sehr gerne mit dir (sprich: dagegen). Soll ich mich melden oder tust du das proaktiv, wenn sich ein Launch ankündigt?

MfG,
Raff

Das ist jetzt auf Wiedervorlage gelegt. Was möchtest du als Wetteinsatz setzen?
Ich wette Ihr ( PCGH ) werdet beim nächsten Grafikkarten Launch von Nvidia wieder nur eine GTX 1080ti Fe und eine 2080ti Fe gegen die neuen Karten benchen. Natürlich bezogen auf den ersten Launch Test.

Versteh mich nicht falsch, du tust mir wirklich Leid. Du sitzt völlig zwischen den Stühlen. Allerdings merkt man dir durch dein Verhalten an dass du persönlich und privat eine andere Meinung vertreten würdest. Diese geschwurbele und sich rauswinden aus dieser Diskussion ist einfach nur bemitleidenswert.

Monsta
2018-09-23, 14:17:34
Für mich ist so ein Test unverständlich, ich arbeite selber in der Entwicklung.
Ich teste meinen Kram grundsätzlich gegen das beste was auf dem Markt zu kaufen gibt, vor allen Dingen wenn mein Produkt das teuerste ist.

Gegen limitierte Garten die bei Ihrem Launch 50% billiger waren ist ein Witz.

Sweepi
2018-09-23, 14:19:06
Ich wette Ihr ( PCGH ) werdet beim nächsten Grafikkarten Launch von Nvidia wieder nur eine GTX 1080ti Fe und eine 2080ti Fe gegen die neuen Karten benchen. Natürlich bezogen auf den ersten Launch Test.
Du wettest, dass im nächsten "Referenzkartentest" (Referenz = Karte des GPU Herstellers) der PCGH wieder "nur" Referenzkarten getestet werden?

Raff
2018-09-23, 14:23:13
Danke, PHuV! =) :up:

@Raff
Schiebt ihr irgendwann (wenn mal wieder Zeit ist) Benchmarks mit maximal übertakteten GM200 + GP102 + GT102 nach? Wäre sicher nicht uninteressant. Gern auch mit Titans.
Iirc gabs beim GP104 Launch mal Benchmarks mit einer Titan XM @1.5 GHz vs einer 1080 @2 GHz. :)
Vieleicht ja mal als Sondertest im Heft?

Im nächsten Heft haben sich eine GTX 1080 Ti @ 2.063/6.200 MHz und eine Titan Xp @ ~1.900/6.200 MHz gegen die Turing-Brüder gestellt. In WQHD und UHD. Mehr kommt. :)

Wäre meine TXM @ 1,5 GHz nicht "ersoffen", wäre die auch dabei gewesen (+4 weitere Überstunden).

Das ist jetzt auf Wiedervorlage gelegt. Was möchtest du als Wetteinsatz setzen?
Ich wette Ihr ( PCGH ) werdet beim nächsten Grafikkarten Launch von Nvidia wieder nur eine GTX 1080ti Fe und eine 2080ti Fe gegen die neuen Karten benchen. Natürlich bezogen auf den ersten Launch Test.

Das funktioniert so nicht (siehe Sweepis Posting (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11808159&postcount=930)). Referenztest bleibt Referenztest, ergo wettest du genauso wie ich.

Ich wette, dass ich bei einer Bedingung seitens Nvidia im Stile "Testet unsere hart gekeulten Turing-2.0-Founders-Editionen nur gegen die billigsten Turing-Partnerdesigns, sonst kein Sample" ganz deutlich abwiegeln werde. Das Kernproblem wird bleiben: Wie beweise ich dir das?

Von der Wette ausgenommen sind Anregungen, beispielsweise durch den Reviewer's Guide. Die gibt's immer, sei es Nvidia, Intel oder AMD. Das ist vieles, aber nicht bindend.

Versteh mich nicht falsch, du tust mir wirklich Leid. Du sitzt völlig zwischen den Stühlen. Allerdings merkt man dir durch dein Verhalten an dass du persönlich und privat eine andere Meinung vertreten würdest. Diese geschwurbele und sich rauswinden aus dieser Diskussion ist einfach nur bemitleidenswert.

Bitte nicht zu viel interpretieren, oft steht da gar nichts zwischen den Zeilen.

MfG,
Raff

Lowkey
2018-09-23, 14:24:51
@PHuV

3000 Menschen arbeiten 3 Jahre an einem Film und mein Nachbar sagt nach 10s "Schrott, alleine der Titel gefällt nicht" ;)

Das ist alles legitim. Ich habe ja nun auch ein PCGH Abo und lese mit. Da darf man Raff auch mal kritisieren. Nur wird es nichts bewirken, weil bestimmte Art von Kritik keine Früchte tragen wird. Oder andersrum: von den Kritikern kauft eventuell niemand eine PCGH oder ist letztlich zufrieden mit den Ergebnissen, wenn sie denn angepaßt werden.

Lu
2018-09-23, 14:26:14
Wenn man natürlich so an der Realität vorbei argumentiert....
zeig mir wo das "Referenzkartentest" so explizit steht. Gerne in der Überschrift eines Artikels.

Nur ein absolut verschwindend geringer Anteil an verkauften 1080ti Fe´s wird mit dem Kühler auch betrieben. Die allermeisten von den ohnehin wenig verkauften Fe´s werden mit Wäku betrieben.

robbitop
2018-09-23, 14:28:54
@raff
Geilo. Freue mich schon auf die nächste Ausgabe!

Lu
2018-09-23, 14:31:08
Das nächste Mal wette ich sehr gerne mit dir (sprich: dagegen). Soll ich mich melden oder tust du das proaktiv, wenn sich ein Launch ankündigt?

MfG,
Raff

Du wieder sprichst dir selbst.

PHuV
2018-09-23, 14:39:16
Für mich ist so ein Test unverständlich, ich arbeite selber in der Entwicklung.
Ich teste meinen Kram grundsätzlich gegen das beste was auf dem Markt zu kaufen gibt, vor allen Dingen wenn mein Produkt das teuerste ist.
Äh, nein, Du testest, wenn Du selbst produzierst, gegen das, was Du selbst herstellst und in der Hand hast. Nvidia kann doch nur gegen das testen, was sie selbst produzieren, und das sind FEs. Was die anderen Hersteller damit machen, können sie doch gar nicht beeinflußen. Daher trifft der Vergleich Tuning-Werkstatt sehr wohl zu.

Sweepi
2018-09-23, 14:39:55
@Raff
Könnt ihr diese Liste (http://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Specials/Custom-Designs-Herstelleruebersicht-Asus-EVGA-MSI-1263787/) noch um die Spalte "max OC-Powertarget" erweitern? Oder zuviel Aufwand?

Monsta
2018-09-23, 14:44:17
Äh, nein, Du testest, wenn Du selbst produzierst, gegen das, was Du selbst herstellst und in der Hand hast. Nvidia kann doch nur gegen das testen, was sie selbst produzieren, und das sind FEs. Was die anderen Hersteller damit machen, können sie doch gar nicht beeinflußen. Daher trifft der Vergleich Tuning-Werkstatt sehr wohl zu.

Nein ich teste gegen alles, gegen den eigenen Vorgänger und die Konkurrenz natürlich, wie willst Du den kram sonst verkaufen?

Bei Grafikkarten geht das anscheinend, da sind Emotionen drin, da muss nicht alles rational sein.

Armaq
2018-09-23, 14:44:41
Also ich habe kein Alzheimer und Demenz auch noch nicht. Das mag manchmal Probleme auf der Gegenseite verursachen.

Mir geht es nicht um Raff oder die PCGH, denn außer gamersnexus hat niemand konkret gesagt, dass die 2080 einfach nicht kaufbar ist zum derzeitigen Preis. :(

In einem englischsprachigen Forum haben auch andere die Renaming-Politik von Nvidia klar aufgezeigt: 2080Ti ist eigentlich die 2080, die 2080 ist die 2070 und die 2070 sollte die neue 2060 sein, dabei wurden die Preise um einen ganz anderen Faktor angehoben, als vll. bisher klar ist.

Wenn sich also die Fachpresse hinstellt und sagt, wartet mal auf die Tests bevor ihr kauft, dann muss die Fachpresse auch wirklich testen. Das nvidia hier sogar ungünstige Rahmenbedingungen hatte oder schaffte kann man ja nachlesen.

Zur PCGH:
Ich habe schon einmal nachgefragt, warum in einem Midrange-Test (damals 480 oder 580 von AMD gg 1060) die 1080 Ti mit aufgelistet wurde, denn das war derber Unsinn. Außerdem gab es hier und da diverse Rückfragen zur Benchmark-Politik. Wenn man derart häufig Rückfragen bekommt, dann könnte man ja auch mal versuchen sich nicht als den heiligen Gral zu sehen?

Je länger man darüber nachdenkt, desto einfach ist es:
Wir testen was gerade im Labor liegt! Aber nicht seitenlange fadenscheinige Begründungen,, um als super objektiv und total unbelastet zu erscheinen.

@Raff: wenn es so klar ist, warum ist keine einzige OC Karte dabei. Ich such dir gerne unzählige Tests mit OC Modellen von euch raus ...

PHuV
2018-09-23, 14:45:37
Hab gerade ein Feedback von dem Titan X (Pascal)-Käufer bekommen, er findet die Karte sehr laut. :confused: Entweder ich bin wirklich schon so alt und durch zuviel Heavy Metal gehörgeschädigt, oder mein Gehäuse Cooler Master HAF 942 reißt es doch ordentlich mit den vielen Lüftern raus (u.a. 340mm seitlich und 2x200 mm oben). Das scheint für einen guten Luftzug zu sorgen, so daß die Karte relativ kühl bleibt? :confused:

Lu
2018-09-23, 14:47:43
@ Raff

Mein Wetteinsatz ist folgender.

Wenn du Raffael Vötter PCGH beim nächsten major Grafikkarten Launch von NVIDIA (nächste Generation, wie auch immer diese heißen mag) eine bis an einen vernünftigen Punkt übertaktete Custom GTX 1080Ti ( sagen wir mal 2000/6000 ) und eine RTX 2080Ti ( 2100/7000) in den online Launch Test von Anfang an aufnimmst dann zahle ich dir einen Arbeitstag als Lohn (bis zu 250€) als Ausgleich für deine hier so beweinten Überstunden. Sollte die Zeit nicht ausreichen so lässt du einfach die 2080Ti FE Karte weg und nimmst erst die übertaktete.

Deal?

GSXR-1000
2018-09-23, 14:49:40
Ich muß hier Raff uneingeschränkt zustimmen widersprechen. Es ist doch das normalste von der Welt, wenn wir ein sicheres Referenzsystem als Bezug nehmen, ....
Eigentlich kannst du hier schon aufhören, denn genau das kritisieren die Leute hier.
Die 1080 FE SIND Referenzdesigns. Die 2080er SIND es NICHT. Exakt laut NVs eigener Definition. Du hast es also auf den Punkt gebracht.

PS: Post deiner eigenen Logik folgend angepasst. Sonst machts garkeinen Sinn.

Gimmick
2018-09-23, 14:54:10
Rede ich chinesisch? Das scheint mir langsam die einzige Erklärung dafür zu sein, dass hier einige Leute das Folgende partout nicht verstehen wollen: Es werden klar Founders-Editionen mit Founders-Editionen verglichen. Dazu gesellen sich "AMD Founders Edtionen" inklusive der RX Vega 64 LCE, bei der komischerweise niemand meckert, dass sie schneller ist als jedes V64-Herstellerdesign. :confused: Der Vergleich Referenzkarte gegen Referenzkarte - gemeint sind jeweils die Karten, welche von AMD und Nvidia kommen - hat sich nicht geändert. Das wird in den Referenztests seit Jahren so gemacht, Custom-Karten sind da nur schmückendes Beiwerk. Aus dem Grund, dass es nicht "die Custom-Karte" gibt, die sind alle anders. Egal, was man nimmt, das ist nur ein Beispiel. Ergo ist nur eine Referenzkarte eine valide Basislinie.

MfG,
Raff

Alleine schon, um eine Referenz für die Customs zu schaffen ist das alles schon nachvollziehbar.
Man muss aber aufpassen welches Fazit man dann daraus zieht. Die Verbesserung des Kühlers und die daraus entstehenden Vergleichsproblematiken werden in eurem Fazit aber nicht erwähnt. Ein kurzer Absatz darüber, dass der neue und bessere Kühler einen direkten Vergleich der Chips erschwert und dass 2080 (ti) Customs sich eventuell nicht mehr so stark vom Referenzmodell absetzen werden können, muss drin sein.

Armaq
2018-09-23, 15:00:58
Alleine schon, um eine Referenz für die Customs zu schaffen ist das alles schon nachvollziehbar.
Man muss aber aufpassen welches Fazit man dann daraus zieht. Die Verbesserung des Kühlers und die daraus entstehenden Vergleichsproblematiken werden in eurem Fazit aber nicht erwähnt. Ein kurzer Absatz darüber, dass der neue und bessere Kühler einen direkten Vergleich der Chips erschwert und dass 2080 (ti) Customs sich eventuell nicht mehr so stark vom Referenzmodell absetzen werden können, muss drin sein.
Genau!

Auch Hoffnung und Wunsch die Customs gehen jetzt tierisch ab, muss hier im Keim erstickt werden. Wobei diese tiefergehende Erkenntnis auch erst mit Custom Tests kommen kann.

Menace
2018-09-23, 15:02:13
Sorry, dass ich mich einklinke. Ich bin ja gerne einer, der das Gebaren der Medien auch kritisch verfolgt.

Ich habe mal kurz über die Grafikkartentests der letzten Monate bei pcgh.de geschaut. Ich konnte (ich glaube bis zu AMD 580) bei Tests der Referenzkarten keine Custom-Karte entdecken. Egal ob nvidia oder AMD getestet wurde.

Könnte man, wenn man schon auf eine Partei einhaut, dafür auch stichhaltige Hinweise liefern; gerne auch als Tabelle, dass man sieht, ob es wirklich von Belang ist? Momentan kann ich diesbezüglich keine Fehler bei pcgh erkennen.

Momentan wurmt mich mehr, dass es für eine Gamechanger-Karte doch absolut langweilig zugeht. Messbare Unterschiede von fps mal in dem Bereich vers. Kosten. Und solange man nicht wirklich weiß, was die Zukunft bringt, sollte man auf der Reviewer-Seite erst einmal überhaupt keinen Preis/Award oder Empfehlung aussprechen. Ist aber nur eine Meinung.

Edit: Und wenn jemand Karten (auch Customs) kauft ohne Tests oder Erfahrungen zu können, dann ist das zu einem gewissen Grad auch seine Schuld. Etwas mehr Eigenverantwortung darf man schon erwarten.

Achill
2018-09-23, 15:05:10
[..]
Im nächsten Heft haben sich eine GTX 1080 Ti @ 2.063/6.200 MHz und eine Titan Xp @ ~1.900/6.200 MHz gegen die Turing-Brüder gestellt. In WQHD und UHD. Mehr kommt. :)
[..]


Finde ich gut. :)

--
Ansonsten finde ich, dass Raff bzw. PCGH nicht dafür herhalten müssen, dass der Großteil der Presse mit den 10X0 FE getestet hat - nur weil er uns antwortet.

Wir haben als Konsumenten die Möglichkeit per Geldbeutel Einfluss zunehmen, auf Hersteller (wechseln) und auch Presse (stärken -> unabhängiger) ... :redface:

PHuV
2018-09-23, 15:08:24
dann zahle ich dir einen Arbeitstag als Lohn (bis zu 250€) als Ausgleich für deine hier so beweinten Überstunden.
Ernsthaft? Das ist ja fast schon Mindestlohn. Damit bekämst Du bei mir vielleicht etwas mehr als eine Stunde.

Schon mal daran gedacht, das Lohnnebenkosten mit drin sein müßten?
Ansonsten finde ich, dass Raff bzw. PCGH nicht dafür herhalten müssen, dass der Großteil der Presse mit den 10X0 FE getestet hat - nur weil er uns antwortet.

Wir haben als Konsumenten die Möglichkeit per Geldbeutel Einfluss zunehmen, auf Hersteller (wechseln) und auch Presse (stärken -> unabhängiger) ... :redface:
Vollkommen richtig, dann handelt und kauft entsprechend, ganz einfach. Und die anderen freuen sich über die neuen Karten. :tongue:

Sweepi
2018-09-23, 15:08:54
Das "Problem" ist, dass es bis jetzt (wenn es eine Referenzkarte vom Hersteller gab), diese auch mit Referenztakt lief.
Das ist für manche auch die Definition einer Referenzkarte.
Für andere ist die Referenzkarte die Version der Karte, welche AMD/Nvidia unter eigenem Label vertreibt oder als Referenzdesign vorstellt.

Wir sind also alle miteinander ausgekommen, bis Nvidia ein Herstellerreferenzdesign abgeliefert hat welches nicht mit Referenztaktraten läuft.
Jetzt stellen wir fest, dass wir unterschiedliche Definitionen haben, und kloppen uns :P

Lu
2018-09-23, 15:13:22
Ernsthaft? Das ist ja fast schon Mindestlohn. Damit bekämst Du bei mir vielleicht etwas mehr als eine Stunde.

Schon mal daran gedacht, das Lohnnebenkosten mit drin sein müßten?

Vollkommen richtig, dann handelt und kauft entsprechend, ganz einfach. Und die anderen freuen sich über die neuen Karten. :tongue:

Aha, 5000€ Monatslohn ist Mindestlohn? Zu dir fällt mir echt nichts mehr ein.

Fliwatut
2018-09-23, 15:14:43
Ich erwarte bei einem Benchmark aber die Creme de la Creme der Gpus.
Hier wurde eine Titan Xp Collectors Edition mitgebencht: http://www.comptoir-hardware.com/articles/cartes-graphiques/37116-test-nvidia-geforce-rtx-2080-2080-ti.html?start=5

Fazit: Die 2080 ti FE ist in UHD über den kompletten Parcours 28% schneller.

Sweepi
2018-09-23, 15:17:48
bei welcher Auflösung in welchen Spielen?

Sweepi
2018-09-23, 15:32:14
CB misst für Wildlands 1080p 53,7 zu 67,2 (+25%) bei 1080 FE zu 2080 FE.

Fliwatut
2018-09-23, 15:32:48
Das nächste Mal wette ich sehr gerne mit dir (sprich: dagegen). Soll ich mich melden oder tust du das proaktiv, wenn sich ein Launch ankündigt?
Lass dich nicht auf so einen Kinderkram ein und lass dich nicht von dem - teils reichlich aggressiven - Gerede hier runterziehen. Ihr macht eure Benchmarks so, wie ihr das für richtig haltet, andere Medien machen andere Benchmarks und werden deswegen nicht weniger angemacht (siehe "Intelvidiabase", denen wird auch vorgeworfen pro Turing gebencht zu haben, es läuft gerade überall die ganz große Nvidia Weltverschwörung). Für konstruktive und sachlich Kritik seid ihr sicherlich aufgeschlossen, alles andere kann getrost ignoriert werden. Die geistige Transferleistung, mehrere verschiedene Benchmarks in den Medien zu finden, zu lesen und auszuwerten muss man schon selber hinbekommen.

Fliwatut
2018-09-23, 15:42:27
In dem von mir verlinkten Test aus Frooonkreisch ist übrigens auch eine Gigabyte GTX 1080 Xtreme Gaming drin, kann ja jeder mal nachgucken, wie groß der Vorsprung dort ist.

Raff
2018-09-23, 15:43:29
@ Raff

Mein Wetteinsatz ist folgender.

Wenn du Raffael Vötter PCGH beim nächsten major Grafikkarten Launch von NVIDIA (nächste Generation, wie auch immer diese heißen mag) eine bis an einen vernünftigen Punkt übertaktete Custom GTX 1080Ti ( sagen wir mal 2000/6000 ) und eine RTX 2080Ti ( 2100/7000) in den online Launch Test von Anfang an aufnimmst dann zahle ich dir einen Arbeitstag als Lohn (bis zu 250€) als Ausgleich für deine hier so beweinten Überstunden. Sollte die Zeit nicht ausreichen so lässt du einfach die 2080Ti FE Karte weg und nimmst erst die übertaktete.

Deal?

Nee du, dann wird mir auch noch (wieder) Käuflichkeit vorgeworfen. Aber du kannst gerne mal mit meiner Geschäftsführung sprechen, dass Überstunden ab sofort bezahlt werden. Und am Wochenende extra. Dann mache ich gerne noch mehr.

Willst du den kompletten Index oder reichen, sagen wir mal ... 10 Spiele in WQHD und UHD? Und es muss online sein? Ich frage, weil dein Wunsch ja schon im kommenden Heft zu finden ist (das ab Freitag auch online zum Download bereitsteht).

Hier wurde eine Titan Xp Collectors Edition mitgebencht: http://www.comptoir-hardware.com/articles/cartes-graphiques/37116-test-nvidia-geforce-rtx-2080-2080-ti.html?start=5

Fazit: Die 2080 ti FE ist in UHD über den kompletten Parcours 28% schneller.

Die ist doch bei der PCGH auch in allen Tests und im Index dabei (also die Titan Xp).

MfG,
Raff

Fliwatut
2018-09-23, 15:48:40
Die ist doch bei der PCGH auch in allen Tests und im Index dabei (also die Titan Xp).
Oh, tatsächlich. Du meine Güte, was manche hier für einen Sturm im Wasserglas veranstalten ;D

RoughNeck
2018-09-23, 15:55:33
Ohne die letzten Seiten gelesen zu haben, um was geht es jetzt wieder?

gbm31
2018-09-23, 15:57:32
Ohne die letzten Seiten gelesen zu haben, um was geht es jetzt wieder?


RTniX ist super, günstig, und alle, die was dagegen haben, sind AMD Fanboys und blöd. Und verdienen zu wenig und haben sowieso persönliche Probleme.

Oder so ähnlich.

:-)


Objektiv:

NVs RTX FEs entsprechen nicht mehr der Referenz (Takt, Kühlung) und werden mit GTX FEs verglichen. Das schönt die Ergebnisse etwas.

Kann man sich aufregen, muss man aber nicht. Diese Gen kann getrost übersprungen werden, wenn der Monitor bisher zur Grafikkarte gepasst hat.

Lowkey
2018-09-23, 16:00:54
Ohne die letzten Seiten gelesen zu haben, um was geht es jetzt wieder?

Chatten mit Raff.

Lu
2018-09-23, 16:02:34
Nee du, dann wird mir auch noch (wieder) Käuflichkeit vorgeworfen. Aber du kannst gerne mal mit meiner Geschäftsführung sprechen, dass Überstunden ab sofort bezahlt werden. Und am Wochenende extra. Dann mache ich gerne noch mehr.

Willst du den kompletten Index oder reichen, sagen wir mal ... 10 Spiele in WQHD und UHD? Und es muss online sein? Ich frage, weil dein Wunsch ja schon im kommenden Heft zu finden ist (das ab Freitag auch online zum Download bereitsteht).



Die ist doch bei der PCGH auch in allen Tests und im Index dabei (also die Titan Xp).

MfG,
Raff

Mit anderen Worten, du hast das NVIDIA NDA unterschrieben und kannst meinem Wunsch leider nicht nachkommen. Wirklich schade.

Aber deine Antwort ist wider erwarten rhetorisch sehr raffiniert. Mach bitte weiter so. Das nimmt dir sehr viel Angriffsfläche und gibt dir eine wesentlich bessere Außenwirkung.

Raff
2018-09-23, 16:04:00
@Raff
Könnt ihr diese Liste (http://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Specials/Custom-Designs-Herstelleruebersicht-Asus-EVGA-MSI-1263787/) noch um die Spalte "max OC-Powertarget" erweitern? Oder zuviel Aufwand?

Das Problem dabei ist, dass die Hersteller diesbezüglich sehr schweigsam sind. Nur bei wenigen Karten ist das bekannt. Und natürlich bei denen, die schon im Lab herumliegen. Zu diesen fünf Karten + Founders Edition steht das auch im kommenden Heft. Die Info kommt früher oder später auch auf die Website, vielleicht schon mit dem nächsten Update.

Mit anderen Worten, du hast das NVIDIA NDA unterschrieben und kannst meinem Wunsch leider nicht nachkommen. Wirklich schade.

Und schon wieder falsch interpretiert. Schade.

MfG,
Raff

JVC
2018-09-23, 16:06:25
Fuer mich wäre Auflösung + Bildfläche wichtiger als die Regler rechts.
Oder es sind laute 10%, und die schweigsamen 90% sehen das ähnlich, kA ;)
Bin da genau deiner Meinung ;)
"Auflösung ist durch nichts zu ersetzen, außer durch noch mehr Auflösung"
( und "zu Groß" kann ein Bildschirm MMn nicht sein )

Die Leute haben doch nie Kritisiert das die 2080er FE quasi eine OC Version ist, sondern das nicht der IST Zustand bei den 1080er TI verglichen wurde.

Wenn Nvidia ihre FE Politik neu ausrichtet und diese in ehemals Custom Bereiche ändert ist das auch nicht sehr abwegig die Tests anzupassen.
This !
Ich find es sogar echt Super wenn die REF Kühler mal was taugen !
Aber bei den meisten "Testern" bekommt man im Moment eher den Eindruck wie wenn sie im sinne der Neuen NV NDA getestet hätten ...


Für mich ist so ein Test unverständlich, ich arbeite selber in der Entwicklung.
Ich teste meinen Kram grundsätzlich gegen das beste was auf dem Markt zu kaufen gibt, vor allen Dingen wenn mein Produkt das teuerste ist.

Gegen limitierte Karten die bei Ihrem Launch 50% billiger waren ist ein Witz.
Sehe ich genau so...
Nur hat NV im Moment leider keine echte Konkurrenz
und daher "testet" man gegen die eigenen, da ja Die bisher das stärkste
Produkt am markt "waren"(Titan V hat noch immer die Performance Krone).

Kein Konkurrent wird sich beschweren wenn eine Firma das eigene Alte Produkt schlecht redet und somit den Vorteil der Neuen Produkte auf "falsche" weise wesentlich besser dastehen lässt als wie es tatsächlich der Fall ist.


Von einer GTX 1080 OC auf eine 1080 Ti oc sind es schon 35% geh in den Benchmark Bereich hier im Forum, vergleich da, eine RTX 2080 ist gleich eine 1080Ti, und jetzt sagt du also es sind nur 15% obwohl schon eine 1080Ti 35% schneller ist, als eine 1080er? Alles klar. Schönen Tag noch.

Hier der Einzige Test den ich als OK empfunden habe. ( woher stammen deine "Fakten" ?)
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/47377-die-geforce-rtx-2080-ti-und-rtx-2080-founders-edition-im-test.html?start=26
"Turing, Volta und Pascal bei 1.850 MHz"

1080 --> 2080 +18,66%
2080 --> 1080Ti +13,36%
1080TI --> 2080Ti +17,43%
2080TI --> Titan V +3,21%
( das sind brauchbare Fakten )

Beim übertakten verschiebt sich das Verhältnis scheinbar eher zugunsten der Alten Grakas !
Scheinbar lassen sich die neuen auch noch etwas weniger weit Übertakten.
https://www.youtube.com/watch?v=ow1cgU3sji0
( bei ~2min nur +7% durch OC trotz Wasser )
... aber sind ja nur die negativsten Vermutungen meinerseits.
( würde auch lieber an +40% glauben )

m.f.g. JVC

Dural
2018-09-23, 16:07:03
Das FE theater wird langsam echt lächerlich... einige müssen ersthaft probleme haben, und das ist sicher nicht turing. ;)

@JVC
Alles was ich jetzt gesehen habe taktet turing sogar leicht besser als pascal.

Raff
2018-09-23, 16:12:52
@JVC
Alles was ich jetzt gesehen habe taktet turing sogar leicht besser als pascal.

Was meine Probenmenge angeht, "geht" GP104 etwas besser als GP102 (~50 MHz). TU102 sowie TU104 gehen etwa genauso hoch wie GP102. Das ist aber noch, ohne die Sparkarten gesehen zu haben.

MfG,
Raff

Digidi
2018-09-23, 16:15:04
@raff
Gibt es noch beyond3d suite werte?

JVC
2018-09-23, 16:19:17
@Raff
Also kann man den "Turing, Volta und Pascal bei 1.850 MHz" Test durchaus als guten Richtwert nehmen ?
Danke für die Info :)

m.f.g. JVC

horn 12
2018-09-23, 16:25:17
https://wccftech.com/exclusive-nvidia-rtx-msrp-tariffs/

Nochmals Teurer, oder wie ist dies zu verstehen ?

Fliwatut
2018-09-23, 16:33:13
Nochmals Teurer, oder wie ist dies zu verstehen ?
Geht um die Importzölle in die USA, ist für uns in der EU uninteressant.

Rancor
2018-09-23, 17:03:58
Geht es darum, das eine bis an die Zähne übertaktet 1080 Custom nur 15% langsamer als die 2080 Fe ist und das bei den PCGH Benchmarks nicht berücksichtigt wurde?

Wenn es sonst nichts ist..... :rolleyes:

JVC
2018-09-23, 17:44:02
Da ist wohl ein bisschen was vom Tread verschwunden ^^

Das hier galt Ex3cut3r
Nenn mich von mir aus einen Pessimist ...
Aber ich lass mich lieber Positiv überraschen
und hab auch kein Problem damit, Fehler ein zu gestehen.

Deine Prognose empfinde ich als zu optimistisch obwohl du von
+40% schon auf +30% herunter gegangen bist ...
Noch 10% weniger und wir Treffen uns an einem,
auch in meinen Augen, realistischem Punkt ;)

m.f.g. JVC

RoughNeck
2018-09-23, 17:44:16
Geht es darum, das eine bis an die Zähne übertaktet 1080 Custom nur 15% langsamer als die 2080 Fe ist und das bei den PCGH Benchmarks nicht berücksichtigt wurde?

Wenn es sonst nichts ist..... :rolleyes:

Die max oder sehr stark übertakteten Karten werden ohnehin nie berücksichtigt, das war bis jetzt bei jedem Launch neuer Karten so. Keine Ahnung warum sich gerade bei Turing eine Aufregen.

Schnoesel
2018-09-23, 17:49:57
Das war nicht die Kritik und auch nicht der "Aufreger". Bitte erst die Posts lesen und nicht auf den Erstbesten anspringen. Ist eh schon Chaos, hier gehört mal aufgeräumt.

JVC
2018-09-23, 17:56:41
Irgendwie lesen viele immer nur die letzten 1-2 Post wirklich ;(
Mir wird es hier zu Chaotisch ...

Ein letztes mal wiederhole ich mich für die lesefaulen:

"Hier der Einzige Test den ich als OK empfunden habe.
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/47377-die-geforce-rtx-2080-ti-und-rtx-2080-founders-edition-im-test.html?start=26
"Turing, Volta und Pascal bei 1.850 MHz"

1080 --> 2080 +18,66%
2080 --> 1080Ti +13,36%
1080TI --> 2080Ti +17,43%
2080TI --> Titan V +3,21%
( das sind brauchbare Fakten )

Beim übertakten verschiebt sich das Verhältnis scheinbar eher zugunsten der Alten Grakas !
Scheinbar lassen sich die neuen auch noch etwas weniger weit Übertakten.
https://www.youtube.com/watch?v=ow1cgU3sji0
( bei ~2min nur +7% durch OC trotz Wasser )
... aber sind ja nur die negativsten Vermutungen meinerseits.
( würde auch lieber an +40% glauben )"

Wobei Raff die "schlechte" Übertaktbarkeit mittlerweile etwas relativiert hat.
Was meine Probenmenge angeht, "geht" GP104 etwas besser als GP102 (~50 MHz). TU102 sowie TU104 gehen etwa genauso hoch wie GP102. Das ist aber noch, ohne die Sparkarten gesehen zu haben.

MfG,
Raff

m.f.g. JVC

Sweepi
2018-09-23, 17:58:35
Aber das einzige was im verlinkten Luxx Test so schlecht skaliert ist Fire Strike Ultra - oder übersehe ich etwas?

JVC
2018-09-23, 18:09:56
Keine echte Ahnung :(
Aber in Mienen Augen ist das der einzige halbwegs belastbare Vergleich
da alle Karten auf der gleichen MHZ Zahl (1850) laufen
und sich auch im OC betrieb ähnlich weit Takten lassen.

m.f.g. JVC

( beim weiter Übertakten verändert sich das Verhältnis natürlich durch unterschiedlich viele Shader-Einheiten ...)

Lowkey
2018-09-23, 18:16:00
Es ist normal, dass ein Thread chaotisch ist.

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=590805

Finde die Idee dort nicht verkehrt.

AffenJack
2018-09-23, 18:30:19
Ein letztes mal wiederhole ich mich für die lesefaulen:

"[I]Hier der Einzige Test den ich als OK empfunden habe.
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/47377-die-geforce-rtx-2080-ti-und-rtx-2080-founders-edition-im-test.html?start=26
"Turing, Volta und Pascal bei 1.850 MHz"

1080 --> 2080 +18,66%
2080 --> 1080Ti +13,36%
1080TI --> 2080Ti +17,43%
2080TI --> Titan V +3,21%
( das sind brauchbare Fakten )

Du wolltest sagen, Firestrike Ultra ist der einzige Cherry-Pick mit dem du deine Argumente belegen kannst. Denn auch der Test zeigt im Durchschnitt bei gleichem takt über alle 11 Benches=
1080 -> 2080 +34% und nicht +18,66%
Ist genau der Wert den Leo auch rausgekriegt hat.
Übrigens zeigt der Test auch schön:
1080 -> 1080Ti +31%
daher die 2080 ist bei gleichem Takt schneller als die 1080Ti

Man muss schon ganz schön verzweifelt sein den gesamten Hardwareluxxtest zu ignorieren und seine ganze Argumentation auf einem schlecht skalierenden synthetischen Test zu basieren.

JVC
2018-09-23, 19:02:53
Wenn ich mit der Maus über den 1080 @ 1850MHZ Balken fahre
erscheint bei der 2080 @ 1850MHZ ein + von 18,66%.

Vielleicht ist meine Annahme auch falsch, das dies der Zugewinn sein müsste :confused:
( wenn es das Ergebnis tatsächlich verbessert, irre ich mich aber gerne )

m.f.g. JVC

AffenJack
2018-09-23, 19:09:13
Ja das Ergebnis von Firestrike Ultra ist +18,66%.
Und alle 10 weiteren Tests darunter ignorierst du oder hast du nicht gesehen?

Fragman
2018-09-23, 19:13:46
Ja das Ergebnis von Firestrike Ultra ist +18,66%.
Und alle 10 weiteren Tests darunter ignorierst du oder hast du nicht gesehen?

Uebrigens wird das ja immer vergessen zu erwaehnen, wenn man mit Joystick spielt, erhoeht sich die Framerate um satte 10% gegenueber der Maussteuerung. ;)

GSXR-1000
2018-09-23, 19:23:28
Das nächste Mal wette ich sehr gerne mit dir (sprich: dagegen). Soll ich mich melden oder tust du das proaktiv, wenn sich ein Launch ankündigt?

MfG,
Raff
Da der Nachweis für keine der beiden Seiten möglich sein wird, ohne gegen das NDA zu verstossen, kannst du wohl jede wette eingehen, da sie sich nie auflösen lassen wird. Vielleicht in 5 Jahren. Insofern: Nice try, aber ziemlich substanzlos und durchschaubar.

JVC
2018-09-23, 19:39:31
Ja das Ergebnis von Firestrike Ultra ist +18,66%.
Und alle 10 weiteren Tests darunter ignorierst du oder hast du nicht gesehen?

Sry ist eine nicht für alle verständliche Art von mir immer vom schlechtesten Fall auszugehen. ( =Pessimistischer Realist )
Aber ich werde dadurch fast immer nur positiv überrascht :)
( was ich gut für mich finde ^^ )
Außerdem ging ich davon aus das so zu mindestens ein paar der Bildchen angeschaut werden ;) ( lesen will ja scheinbar keiner mehr ... )

Natürlich kann sich Das in der summe aller realistischen Testergebnisse
dann durchaus noch von +18,66 auf vielleicht ~25% oder so erhöhen,
aber wenn es mehr wäre würde mich das (natürlich positiv) überraschen.

In meinen Augen liegt das Problem für die meisten, sowie für mich, eher darin:
Das "Problem" ist, dass es bis jetzt (wenn es eine Referenzkarte vom Hersteller gab), diese auch mit Referenztakt lief.
Das ist für manche auch die Definition einer Referenzkarte.
Für andere ist die Referenzkarte die Version der Karte, welche AMD/Nvidia unter eigenem Label vertreibt oder als Referenzdesign vorstellt.

Wir sind also alle miteinander ausgekommen, bis Nvidia ein Herstellerreferenzdesign abgeliefert hat welches nicht mit Referenztaktraten läuft.
Jetzt stellen wir fest, dass wir unterschiedliche Definitionen haben, und kloppen uns :P
UND
Die Leute haben doch nie Kritisiert das die 2080er FE quasi eine OC Version ist, sondern das nicht der IST Zustand bei den 1080er TI verglichen wurde.

Wenn Nvidia ihre FE Politik neu ausrichtet und diese in ehemals Custom Bereiche ändert ist das auch nicht sehr abwegig die Tests anzupassen.
Man muss auch daran denken, dass die Tests eben nicht nur Enthusiasten lesen, die sich mit dem Thema so gut auskennen. Bisher war das auch kein Problem. Der Abstand zwischen alter und neuer FE ließ sich gut auf den Abstand zwischen gleichwertigen Customs übertragen. Da sich die neue FE aber schon wie eine Custom verhält, passt dies hier gerade nicht mehr. Hat jemand schon eine gute Custom, so wird der Leistungszuwachs mit einer Turing eben nicht mehr so groß wie der zwischen den FEs. So etwas muss auf jeden Fall beim Testen thematisiert werden! Sonst muss man sich eben nicht über Kritik wundern.


Aber blos nicht aufregen :redface:
Also allen noch nen schönen ruhigen Sonntag Abend :smile:

m.f.g. JVC

Dural
2018-09-24, 10:28:50
Was meine Probenmenge angeht, "geht" GP104 etwas besser als GP102 (~50 MHz). TU102 sowie TU104 gehen etwa genauso hoch wie GP102. Das ist aber noch, ohne die Sparkarten gesehen zu haben.

MfG,
Raff

Es wurden doch in den tests überall so 2,0-2,1GHz erreicht? Ich finde 2,1Ghz für einen TU102 mit LuKü schon ziemlich gut.

Also meine Pascal Karten machen alle um die 2GHz zu, Stock Kühler ohne Mod.

PHuV
2018-09-24, 10:43:04
Natürlich kann sich Das in der summe aller realistischen Testergebnisse
dann durchaus noch von +18,66 auf vielleicht ~25% oder so erhöhen,
aber wenn es mehr wäre würde mich das (natürlich positiv) überraschen.
Ich verstehe nicht, wie Du auf diese Zahlen kommst? :confused:

Leonidas ermittelt Zahlen von 37- ~40% Unterschied von 1080 TI zu 2080 TI.
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-2021-september-2018

Rancor
2018-09-24, 10:47:14
Von der 1080TI FE.

AffenJack
2018-09-24, 10:51:59
Ich verstehe nicht, wie Du auf diese Zahlen kommst? :confused:

Leonidas ermittelt Zahlen von 37- ~40% Unterschied von 1080 TI zu 2080 TI.
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-2021-september-2018

Ignorier es einfach. Er cherrypicked den schlechtesten Wert asu dem gesamten Hardwareluxxreview und nennt das dann "Pessimistischer Realist ". Es ist einfach Bullshit und macht kein Sinn.

MiamiNice
2018-09-24, 10:55:26
Wahrscheinlich spielt JVC den ganzen Tag Firestrike. Dann hat er natürlich recht mit dem was er schreibt. Alle anderen, die Grafikkarten auch für was anderes verwenden, haben die veranschlagten durchschnittlichen 37% mehr Leistung. Und wir VR Gamer freuen uns über noch mehr Leistungs +.

akuji13
2018-09-24, 11:14:12
Welche der grafisch anspurchslosen Gurken meinst du im Bereich VR nochmal?

Dural
2018-09-24, 11:19:26
Die ersten 2080Ti sind bei uns eingetroffen, aber sehr teuer ;)

MiamiNice
2018-09-24, 11:32:20
Welche der grafisch anspurchslosen Gurken meinst du im Bereich VR nochmal?

Ich schreibe speziell von PCars 2, welches nur auf einer Titan V oder eben auf einer Turing Karte in normalen - high Details rennt. Unter diesen Karten darfst mit Low Details spielen und noch ini Tweaks anwenden, damit Du nicht ständig unter 90FPS fällst damit ASW/ATW triggerst.

Da man eh unter aktuellen HMDs mit massiven Downsampling spielt - kann die Leistung für VR gar nicht groß genug sein. Ich hätte sogar Verwendung für 2x 2080TI wenn das mit VR funktionieren würde.

Wer anspruchslos mit VR in einem Satz verwendet hat aber imo eh keine Erfahrungen mit VR, schätze ich mal ;)

Lowkey
2018-09-24, 11:37:21
Jetzt würdest du doch zu gern wissen, wie sich dann pcars2 mit der 2080 Ti (SLI) in VR verhält?

MiamiNice
2018-09-24, 11:43:09
PCars 2 maxed out mit 500% Renderscaling? Ja, das würde mich ungemein interessieren. Nicht nur das wissen darum, sondern vor allem das spielen.
Dann noch auf ner Vive Pro oder Oculus CV2 (aber da braucht man dann sicher 4x 2080 TI).

Ja Mann, das ist der Zukunft! Monitore sind irgendwie wie aus dem letzten Jahrtausend für mich. Total langweilig und altbacken.

akuji13
2018-09-24, 12:18:48
Wer anspruchslos mit VR in einem Satz verwendet hat aber imo eh keine Erfahrungen mit VR, schätze ich mal ;)

Falsch geschätzt. :wink:
Hatte einige Brillen, habe noch immer welche und konnte lange vor dem Endkunden release z. B. den VBS testen und seitdem bin ich auch Fan.

Ich dachte allerdings auch eher an richtige VR Titel mit entsprechender Interaktion in der Welt und halte Dinge wie 500% rs für sinnlos.

Ist aber ot.

PHuV
2018-09-24, 12:20:09
Die ersten 2080Ti sind bei uns eingetroffen, aber sehr teuer ;)
Teurer als die 1450 € auf Ebay?

https://www.ebay.de/itm/Palit-GeForce-RTX-2080-Ti-GamingPro-OC-11GB-GDDR6-SOFORT-VERFUGBAR-DHL/392129638795?hash=item5b4cbf718b:g:fm4AAOSwnN9bqAGe

JVC
2018-09-24, 12:42:06
Ich verstehe nicht, wie Du auf diese Zahlen kommst? :confused:

Leonidas ermittelt Zahlen von 37- ~40% Unterschied von 1080 TI zu 2080 TI.
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-2021-september-2018

1080Ti FE -->1080Ti Custom MIN+10%

~37% - ~10% =~27%
schon sehr nahe an den für mich eher realistischen +25% ;)
Und als Pessimist runde ich vorsichtshalber noch auf 20% ab.

Wirklich gespannt bin ich auf Tests mit MAX OC 1080Ti VS MAX OC 2080Ti
Eben das alte Beste gegen das neue Beste ;)
Und bei dem Vergleich wäre ich positiv überrascht wenn merklich mehr als 25% rum kämen.

m.f.g. JVC

p.s.:https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11805344&postcount=431
meine erste Einschätzung lies +15-30% zu , jetzt tendiere ich eher zu +20-25%
aber selbst wenn es 40% werden sollten so ist es, für den Preis, zu wenig was NV mir hier bietet.

Was ich hauptsächlich ankreide ist, eben wie sich NV präsentiert und wie Großteils getestet wurde ...
Das ist mir diesmal einfach zu sehr "Grün eingefärbt".

Dural
2018-09-24, 12:45:54
Teurer als die 1450 € auf Ebay?

https://www.ebay.de/itm/Palit-GeForce-RTX-2080-Ti-GamingPro-OC-11GB-GDDR6-SOFORT-VERFUGBAR-DHL/392129638795?hash=item5b4cbf718b:g:fm4AAOSwnN9bqAGe

nicht ganz:
https://www.steg-electronics.ch/de/article/product-25272100.aspx?parnr=12833572

Stretcher
2018-09-24, 12:48:00
Du weißt aber schon, dass die RTX2080 nur ein Abfallprodukt ist? Bei der Quadro RTX 6000 verlangt Nvidia 6.300$. Und nein, alleine durch den doppelten Speicher kann man diesen Preis nicht rechtfertigen.

Das Argument ist nicht besonders stark, da zu Erhöhung von yieldraten immer Teile eines Chips deaktiviert werden, deswegen von Abfall zu sprechen ist stark zugespitzt und vereinfacht.
Dann ist der Threadripper 2950x mit zwei deaktivierten Dies auch Abfall, ohne Kühler und PCB sowie teurem Speicher ausgestattet und dennoch teurer als eine Nvidia GPU.

Bei den Server CPUs verlangt AMD auch viel mehr als für Threadripper.
Und nu? Wie gesagt dein Argument ist dünn und widersprüchlich.

Kurzum klassifizierst du AMD auch als soziales Unternehmen, weil du durch eine unsinnige und lächerliche Argumentation so tust als ob eine CPU wesentlich teurer herzustellen wäre und kein Abfall sei.
Wirklich oberpeinlich.

Als nächstes kommst du auch mit der Brötchen Argumentation um die Ecke?

Digidi
2018-09-24, 13:26:20
Die ersten 2080Ti sind bei uns eingetroffen, aber sehr teuer ;)

Das findest du als Händler natürlich Super!

MiamiNice
2018-09-24, 13:34:24
Das findest du als Händler natürlich Super!

Wohl nur wenn er der Chef der Kette ist. Als Angestellter ist nur relevant wie viel Mitarbeiter Rabatt man bekommt :wink:

Stretcher
2018-09-24, 13:37:36
Ihr solltet definitiv mal eine gegenüberstellung zwischen sozialen und ««unsozialen»» Unternehmen machen, aber dann im separaten Thread.^^