PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 2070 Review-Thread


Seiten : 1 [2] 3

dargo
2018-10-18, 19:30:13
Jede karte kann man untervolten, nur so als info... :rolleyes:

Und? Was ändert das an der Tatsache, dass meine Karte nicht mit 350W betrieben wird? Gar nichts.

Rancor
2018-10-19, 08:10:55
Stellt sich halt nach wie vor die Frage warum AMD die Karten nicht @ Stock so konfiguriert. Nicht jeder hat Bock sich stundenlang hinzusetzten und P States einzustellen um auszuloten was nun am sinnvollsten ist.
Für den normalen Käufer verbrauchen VEGA Karten eben unverhältnissmäßig viel.

dildo4u
2018-10-19, 08:21:30
Mann kann sie gut undervolten weil kaum ein Game sie vernünftig ausnutzt.
Das ist nicht grad positiv.

Dr.Doom
2018-10-19, 08:25:30
So müssten eigentlich alle "Performance per Watt" Tests durchgeführt werden !In einem Nachtest vielleicht oder in einem Kommentar auf den hinteren Seiten des Haupttest.
Normal hat ein Karte bitte so getestet zu werden, wie sie aus der Packung kommt ohne irgendwelches Herumjustieren.

dargo
2018-10-19, 08:31:33
Mann kann sie gut undervolten weil kaum ein Game sie vernünftig ausnutzt.
Das ist nicht grad positiv.
So ein Quatsch. Gerade ein Wolf2 bsw. lastet Vega sehr gut aus. Und dennoch ist der Verbrauch nicht höher als in anderen Games die Vega weniger genug auslasten. Ihr solltet vielleicht mal langsam lernen, dass effizientere Software nicht unbedingt den Stromverbrauch auch in die Höhe treibt. Sprich... Perf/W steigt bei optimierter Software erheblich.

In einem Nachtest vielleicht oder in einem Kommentar auf den hinteren Seiten des Haupttest.
Normal hat ein Karte bitte so getestet zu werden, wie sie aus der Packung kommt ohne irgendwelches Herumjustieren.
Was für ein Herumjustieren? Das was die PCGH dort getestet hat ist einfach eine Karte mit Defaultsettings und 60fps Limit durch Vsync.

Rancor
2018-10-19, 08:49:06
Wie lange hast du gebraucht um deine Karte so einzustellen wie sie jetzt ist?

Dr.Doom
2018-10-19, 08:52:10
Was für ein Herumjustieren? Das was die PCGH dort getestet hat ist einfach eine Karte mit Defaultsettings und 60fps Limit durch Vsync.Lies mal, was ich zitiert habe.

Adam D.
2018-10-19, 10:57:50
Wie lange hast du gebraucht um deine Karte so einzustellen wie sie jetzt ist?
Wenn du einfach 20% Verbrauch einsparen willst, dauert es ein paar Minuten. Willst du wirklich den Sweet Spot finden, dauert es sehr lange meiner Erfahrung nach. Ich bin jetzt auf 1 MHz genau angekommen, das hat aber viele Abstürze und Trial&Error gebraucht.

Trotzdem versteh ich nicht, was AMD da gemacht hat. Wenn du hier im Forum schaust und sonst bei den Erfahrungswerten, gibt es niemanden, der nicht zwischen 1400-1450Mhz Kerntakt bei deutlich abgesenkter Spannung hinkommt.

JVC
2018-10-19, 11:08:24
In einem Nachtest vielleicht oder in einem Kommentar auf den hinteren Seiten des Haupttest.
Normal hat ein Karte bitte so getestet zu werden, wie sie aus der Packung kommt ohne irgendwelches Herumjustieren.

Die Karten sind bei dem Test "unangetastet".
So liest man es im Artikel und so habe ich es auch verstanden und gemeint .

Lies mal, was ich zitiert habe.
Wohl den Test nicht gelesen und dadurch mein Kommentar nicht richtig verstanden.

m.f.g. JVC

Troyan
2018-10-19, 11:43:09
Qualitätsarbeit von nVidia bei der FE:
https://tpucdn.com/reviews/NVIDIA/GeForce_RTX_2070_Founders_Edition/images/front_small.jpg
https://www.techpowerup.com/reviews/NVIDIA/GeForce_RTX_2070_Founders_Edition/5.html

dargo
2018-10-19, 11:47:06
Wie lange hast du gebraucht um deine Karte so einzustellen wie sie jetzt ist?
Das geht ziemlich schnell. Sind doch nur paar wenige Klicks. Das Herausfinden wie man bei Vega richtig undervoltet hat etwas mehr Zeit in Anspruch genommen. Ist auch logisch wenn vorher keiner die Zusammenhänge verstanden hatte. Irgendeiner ist immer der erste der mehr Zeit investieren muss.


Trotzdem versteh ich nicht, was AMD da gemacht hat. Wenn du hier im Forum schaust und sonst bei den Erfahrungswerten, gibt es niemanden, der nicht zwischen 1400-1450Mhz Kerntakt bei deutlich abgesenkter Spannung hinkommt.
Ich vermute das ist der Tradeoff für eine GPU, die nicht nur im Gaming-Bereich verwendet wird. Es wird sicherlich gewisse Workloads außerhalb vom Gaming geben wo das aktuell stabile UV nicht funktionieren wird.

Lies mal, was ich zitiert habe.
Habe ich. Geändert hat sich dadurch nichts. JVC bezog sich nämlich auf den Test der PCGH mit den gesyncten 60fps in Wolf 2.

dildo4u
2018-10-19, 11:54:17
Nvidia hatte schon ein massiven Vorsprung bei UE 4.0,Holy Shit wie hier die 2070 abgeht.

Hellblade 2070 = 1080 Ti

https://www.techpowerup.com/reviews/NVIDIA/GeForce_RTX_2070_Founders_Edition/18.html

Dragon Quest Vega 64 70fps 2070 105fps in 1440p WTF AMD

https://www.techpowerup.com/reviews/NVIDIA/GeForce_RTX_2070_Founders_Edition/13.html

Anvil Next geht auch ab wie Schmidts Katze.

2070= 1080 Ti

https://www.techpowerup.com/reviews/NVIDIA/GeForce_RTX_2070_Founders_Edition/23.html

https://www.techpowerup.com/reviews/NVIDIA/GeForce_RTX_2070_Founders_Edition/7.html

Immer noch kein Plan warum AMD ein Bundle mit Odysee hatte.
Überhaupt krank das Turing je nach Engine über 1000 Cuda Cores einsparen kann,dort kommen die 50%+ Effizienz Gewinn hin.

JVC
2018-10-19, 12:45:05
@dildo4u
Die Leistung in diesen Spielen ist wirklich erstaunlich :eek:
( bei der kompletten 20XX Serie )
Wenn das zum "Standard" wird ... naja mal abwarten ;)

m.f.g. JVC

dildo4u
2018-10-19, 12:50:00
Jetzt macht es auch Sinn warum sie so viel Bandbreite wie die 2080 hat das Potenzial ist da sie zu nutzen.

SKYNET
2018-10-19, 13:54:12
Nvidia hatte schon ein massiven Vorsprung bei UE 4.0,Holy Shit wie hier die 2070 abgeht.

Hellblade 2070 = 1080 Ti

https://www.techpowerup.com/reviews/NVIDIA/GeForce_RTX_2070_Founders_Edition/18.html

Dragon Quest Vega 64 70fps 2070 105fps in 1440p WTF AMD

https://www.techpowerup.com/reviews/NVIDIA/GeForce_RTX_2070_Founders_Edition/13.html

Anvil Next geht auch ab wie Schmidts Katze.

2070= 1080 Ti

https://www.techpowerup.com/reviews/NVIDIA/GeForce_RTX_2070_Founders_Edition/23.html

https://www.techpowerup.com/reviews/NVIDIA/GeForce_RTX_2070_Founders_Edition/7.html

Immer noch kein Plan warum AMD ein Bundle mit Odysee hatte.
Überhaupt krank das Turing je nach Engine über 1000 Cuda Cores einsparen kann,dort kommen die 50%+ Effizienz Gewinn hin.


FE vs. FE... :rolleyes: warum kommt ihr immer mit vergleichen von ner krüppelkühlung(1080Ti FE) mit ner FE aus der turing serie? :confused:

dildo4u
2018-10-19, 14:09:56
Der Wichtige Punkt ist hier eher der Trend bei diesen weit verbreiteten Spiele Engines als ein paar Prozent Leistung durch den Takt,nicht vergessen Turing steht am Anfang was den Treiber angeht.Und da NV diesmal wirklich viel Umgebaut hat dürfte dort diesmal mehr Potenzial sein als bei Pascal.

dargo
2018-10-19, 14:42:13
Raytracing und DLSS: RTX 2070, 2080 und 2080 Ti im Techdemo-Benchmark
https://www.computerbase.de/2018-10/geforce-rtx-raytracing-dlss-benchmark/2/

Die Star Wars Demo läuft also auf einer RTX 2070 in 4k mit DLSS (was nichts weiter als 1080p Renderauflösung bedeutet) mit 20avg.fps. Willkommen bei den Diashows. ;D ;D ;D

Edit:
Das ist auch geil.

In Epics Demo enttäuscht DLSS

Die Infiltrator-Techdemo funktioniert mit DLSS dagegen nicht so gut. Denn bei der UE4-Demo flimmern verhältnismäßig viele Objekte, die bei nativer Auflösung absolut ruhig dargestellt werden. Darüber hinaus wirkt das Bild auch weniger scharf als mit der nativen Auflösung. Der optische Eindruck nimmt mit DLSS also ab.

Bei der Vorführung vor wenigen Wochen hieß es noch genau andersrum. DLSS würde einen hervorragenden Eindruck hinterlassen während das Bild nativ mit 4k + TAA mehr flimmern würde. Haben die damals die Bildschirme vertauscht? ;D Ich hatte mich schon damals gewundert wo CB ein Flimmern sieht wenn das bei mir selbst in 1440p kein Stück flimmert.

Rancor
2018-10-19, 15:01:33
Unter der 2080TI braucht man mit RT garnicht ankommen und selbst das ist eher mau. Wie gesagt. Das ist einfach eine Generation zu früh.

JVC
2018-10-19, 15:05:46
Ich halte DLSS für einen schlechten Schertz von NV. ( ... für einen genialen Marketing Coup ...
im Bezug auf die schlecht informierte Käuferschicht die sich an Präsentationsfolien ergötzt und orientiert )

Das SS klingt nach Super Sampling womit es aber absolut Garnichts zu tun hat ...
Es hört sich einfach nur besser an und verkauft sich besser dachte sich NV wohl ^^
(Ironie an: als nächstes bekommen wir ein handgezeichnetes "Daumenkino" zum vor den Monitor klemmen
weil dann gibt's ja gar keine Pixel mehr und es sieht noch besser aus ^^ :Ironie aus)

Mein Fernseher/Monitor Interpoliert die Auflösung auch prima hoch
und das sieht finde ich auch nicht merklich schlechter aus als bei NV´s DLSSss..
( und das benötigt keinen "Supercomputer" der alles vorkaut )

m.f.g. JVC

dargo
2018-10-19, 15:09:35
Das ist auch wieder zu geil.

Auch Grafikkarten ohne Raytracing-Kerne können entsprechende Software ausführen, solange Microsofts DXR-API unterstützt wird. Die GeForce GTX 1080 Ti schafft in der Demo knapp zehn Bilder in der Sekunde in 2.560 × 1.440, die GeForce RTX 2070 ist um den Faktor 3,5× schneller.

Dass die 1080TI in echten 1440p rendert während die 2070 mit DLSS mit 720p(?) rendert wird bewusst verschwiegen?

JVC
2018-10-19, 15:15:43
p.s.: 10fps mal 3,5 = sind für mich noch immer ungenügende 35fps.

4K +60Fps ... davor empfinde ich RTX für mich als nicht praktikabel.

m.f.g. JVC

dargo
2018-10-19, 15:16:23
Unter der 2080TI braucht man mit RT garnicht ankommen und selbst das ist eher mau. Wie gesagt. Das ist einfach eine Generation zu früh.
Für mich sieht das eher nach zwei, wenn nicht sogar drei Generationen aus. Wenn ich daran denke, dass 2020/2021 die ersten PS5 Spiele kommen wo die Anforderungen bei der Rasterization entsprechend steigen werden werden höchstwahrscheinlich nicht mal drei Generationen reichen. Es sei denn der PC-Gamer möchte in 1080p spielen während 4k bei den Konsolen Standard wird. :freak:

p.s.: 10fps mal 3,5 = sind für mich noch immer ungenügende 35fps.

Wie gesagt... die 10fps sind eh eine Mogelpackung. Wenn die 2070 dank DLSS @1440p mit 720p rendert müsste man die 1080TI auch mit 720p rendern lassen. Erst dann wäre es ein fairer Vergleich was die Last bei Rasterization beider GPUs angeht. Auch wenn das Bild zum Schluss bei der 2070 besser aussehen wird. Typisches Marketinggeblubber.

Troyan
2018-10-19, 15:20:56
Mal so eine Frage: Deine 350W Vega-Karte krebst in 4K auch unter 30 FPS rum, wenn man z.B. Final Fantasy 15 in bester Qualität spielen will. Warum ist das eigentlich in Ordnung?

JVC
2018-10-19, 15:24:36
Mal so eine Frage: Deine 350W Vega-Karte krebst in 4K auch unter 30 FPS rum, wenn man z.B. Final Fantasy 15 in bester Qualität spielen will. Warum ist das eigentlich in Ordnung?

Würde mich wundern wenn sie das täte ...
Einfach aus dem Grund weil die meisten Leute "Regler bedienen" können ^^

Und du machst schon wieder den Fehler etwas falsches zu schreiben obwohl
du mittlerweile weist das seine keine 350W benötigt.
( belehrungsresistent nenn ich so etwas oder du machst es absichtlich,
Alzheimer ? falls es der ist, entschuldige ich mich hiermit aufrichtig )

m.f.g. JVC

dargo
2018-10-19, 15:33:58
Mal so eine Frage: Deine 350W Vega-Karte krebst in 4K auch unter 30 FPS rum, wenn man z.B. Final Fantasy 15 in bester Qualität spielen will. Warum ist das eigentlich in Ordnung?
Da du wohl meine Posts gekonnt ignorierst nochmal für dich extra... meine Vega verbraucht ca. 190-210W. In mancher Bananensoftware wie bsw. ACO auch mal gerne im Schnitt ~130W.

Als weiteres... wie kommst du überhaupt auf die Idee ich würde jemanden bei einer Vega einen 4k Bildschirm empfehlen? Das würde ich nicht mal bei einer 2080TI tun. Beim Kauf vom Bildschirm Kopf einschalten! Erspart viele Sorgen bzw. Geld was die Wahl der Grafikkarte angeht. Ich hatte schon mehrmals gesagt... 4k wird für mich erst ein Thema bei ca. 20-25 TFLOPs GPUs. Das war Stand Q1 2018. Wenn in naher Zukunft Spiele (Bananensoftware zählt da für mich nicht) mit wesentlich höherer GPU-Anforderung kommen wird selbst das eng. Spätestens wenn die PS5 erscheint geht diese Rechnung höchstwahrscheinlich nicht mehr ganz auf.

@JVC
Du hast vollkommen recht, er ist wirklich belehrungsresistent. Kann man nichts machen.

Troyan
2018-10-19, 15:43:52
Aha. 4K ist für dich nicht relevant - außer du kannst es hier zum Trollen verwenden.
Hier, 37FPS in 1440p mit einer 300W Vega-Karte: https://www.computerbase.de/2018-03/final-fantasy-xv-benchmark-test/2/#abschnitt_nvidia_gameworks_im_detail

Nicht viel besser als die 35FPS der RTX2070 in der Star Wars Demo. Aber anscheinend ist das für dich kein Problem.

dargo
2018-10-19, 15:51:18
Nicht viel besser als die 35FPS der RTX2070 in der Star Wars Demo. Aber anscheinend ist das für dich kein Problem.
:facepalm:

Die Star Wars Demo lief in 720p bei den 35fps wenn die DLSS Skalierung 1:1 vom Fake 4k übernommen wird. Ganz großes Kino. :uclap:

SKYNET
2018-10-19, 16:15:08
Mal so eine Frage: Deine 350W Vega-Karte krebst in 4K auch unter 30 FPS rum, wenn man z.B. Final Fantasy 15 in bester Qualität spielen will. Warum ist das eigentlich in Ordnung?

ehm, in bester qualität kackt dann selbst ne 2080Ti ab... in 1920*1200 mit allem an was geht(inkl. treiber) gehts auch mit ner hochgezüchteten 1080Ti richtig zur sache was framedrops angeht... 80fps sind da keine seltenheit, heisst im umkehrschluss ne 2080Ti wird in 4k gnadenlos verrecken :freak:

Troyan
2018-10-19, 16:21:11
:facepalm:

Die Star Wars Demo lief in 720p bei den 35fps wenn die DLSS Skalierung 1:1 vom Fake 4k übernommen wird. Ganz großes Kino. :uclap:

Es wird von 1080p -> 1440p und 1440p -> 2160p skaliert. Keine Ahnung woher Computerbase ihre Zahlen nehmen.

Wäre das 1440p DLSS aus 720p entstanden, dann wäre dies ja fantastisch. :eek:

blaidd
2018-10-19, 16:46:02
Hatte doch kein Gigabyte-Modell da, ist eins von Asus. Und zwar eins der teureren (https://www.asus.com/Graphics-Cards/ROG-STRIX-RTX2070-O8G-GAMING/). Ich spoiler hier mal grad ein paar Ergebnisse zur groben Einschätzung der Performance-Unterschiede (+ ~9 % in Full HD für das Asus-Modell).

Ist CoDBlops 4 im Blackout-Modus, die volle Packung Benchmarks gibt's am Sonntag.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=64508&stc=1&d=1539963700

EDIT: Min-Fps bei RTX 2070 gefixt (s. Kommentar folgende Seite)

dargo
2018-10-19, 16:54:11
Lol... jetzt hast du einigen aus dem grünen Lager das WE versaut. :biggrin:

btw.
Die Skalierung der Frames ist etwas höher als die beim GPU-Takt, was eigentlich unmöglich ist. Messfehler ausgeschlossen? Oder geht das eher auf größere Messtoleranzen?

blaidd
2018-10-19, 17:24:39
btw.
Die Skalierung der Frames ist etwas höher als die beim GPU-Takt, was eigentlich unmöglich ist. Messfehler ausgeschlossen? Oder geht das eher auf größere Messtoleranzen?

Die Taktraten hab ich bei Ultra HD ausgelesen, ich muss da bei den Benchmarks aus technischen Gründen bei allen Auflösungen die gleichen Taktraten angeben, sonst bekomme ich eine Fehlermeldung um die Ohren gehauen.

In Full HD liegen sie einfach noch etwas deutlicher auseinander (die Asus macht da eher um ~1.960 MHz), bei der MSI sind die Taktraten dagegen kaum höher, die wird schon in Full HD früher powerlimitiert. Die Performance ist in Blackout im Grunde ziemlich stabil auf einem Level (zu knapper Speicher kann allerdings ein Faktor sein). EDIT: Ab 1440p sind's auch nur noch 6 % Performance-Differenz.

EDIT: Bei den Min-Fps hab ich mich allerdings vertippt, das müssten 121 Fps sein... das fixe ich mal noch flott, thx.

EDIT 2, bezüglich Verbesserungsvorschlag: Gute Idee, ich hab's sonst in letzter Zeit immer irgendwo im Artikel angegeben, aber direkt im Benchmark ist natürlich deutlich sichtbarer/transparenter.

dargo
2018-10-19, 17:26:10
Aja... danke für die Aufklärung. So ergibt das schon mehr Sinn.

Edit:
Kleiner Verbesserungsvorschlag... könntet ihr zukünftig nicht einen Hinweis ins Diagramm einbauen wo auch steht, dass sich die tatsächlich anliegenden Taktraten nur auf UHD beziehen?

Dural
2018-10-19, 17:42:30
ich frage mich wie so da die admins nicht schon lange durch greifen, da wird von bestimmten user seit wochen turing mit halbwahrheiten und falsch informationen versucht schlecht zu machen. Wirklich sinnvolle ontopic beiträge sieht man dagegen praktisch nocht.

wenn man in einem amd beitrag so was machen würde ginge es nicht mal ein tag...

so meine 2070 liegt auf dem tisch, macht optisch einen wirklich guten eindruck! Werde sie am wochenende einbauen :)

dllfreak2001
2018-10-19, 18:03:56
Das ist auch das Wichtigste. Ohne Optik keine Leistung. ;D

blaidd
2018-10-19, 22:07:32
so meine 2070 liegt auf dem tisch, macht optisch einen wirklich guten eindruck! Werde sie am wochenende einbauen :)

Glückwunsch, auch wenn du vielleicht einen anderen Eindruck hast, halte ich das Ding für eine gute Grafikkarte. Damit könnte ich mangels wirklich attraktiver Alternativen durchaus leibäugeln (auch wenn ich vielleicht eher eine gebrauchte GTX 1080 Ti riskieren würde) – zumindest in den günstigeren Varianten ist die RTX 2070 eine gute Karte.

Die Preisabstufung dabei könnte man schon ein bisschen kritisch sehen; ähnlich einem künstlichen Kastenwesen, aus dem man sich treuglaubend freizukaufen vermag, beispielsweise... "Ich hab aber eine gute von den GTX 2070ern, die machen mindestens 20 Prozent mehr!!!" ;)

w0mbat
2018-10-19, 22:49:42
Die 2070 ist eine effizientere 1080, also auf jeden Fall eine gute GPU. Aber sie kommt eben >2 Jahre nach der 1080 uns kostet mehr, dass ist das Problem. Für ca. 400€ wäre es ein gutes Produkt.

Dural
2018-10-19, 23:40:09
Vergesst das mit den oc karten!!! Die dinger laufen kein stück besser, ihr könnt gut die normalen kaufen. Meine gainward gs hängt auch am PT, max ist nur 116% möglich, trotz TU106-400A chip.

Leistung ist bei etwas über 2ghz gpu und 8ghz (2ghz) speicher aber eigentlich super:

TR in 4K alles max/ultra 40fps (interner benchmark) kann man nichts sagen für ein 106 chip ;) und das spiel liegt turing nicht mal sonderlich.

https://www.3dmark.com/spy/4776150

Die 2070 hat bei 2ghz speicher genau 512gb/s speicherbandbreite, bei ca. 2080mhz gpu hat man im schnitt ca. 1080ti fe leistung. Macht mit stock bios und kühler aber sicherlich nur die wenigsten karten... :(

Monsta
2018-10-20, 01:28:09
Und wenn sie 2060 heißen würde und 250 bis 300€ Euro kosten würde ware sie der Hammer.
Und der normale Leistungssprung den mal früher hatte.

SKYNET
2018-10-20, 02:57:38
Vergesst das mit den oc karten!!! Die dinger laufen kein stück besser, ihr könnt gut die normalen kaufen. Meine gainward gs hängt auch am PT, max ist nur 116% möglich, trotz TU106-400A chip.

Leistung ist bei etwas über 2ghz gpu und 8ghz (2ghz) speicher aber eigentlich super:

TR in 4K alles max/ultra 40fps (interner benchmark) kann man nichts sagen für ein 106 chip ;) und das spiel liegt turing nicht mal sonderlich.

https://www.3dmark.com/spy/4776150

Die 2070 hat bei 2ghz speicher genau 512gb/s speicherbandbreite, bei ca. 2080mhz gpu hat man im schnitt ca. 1080ti fe leistung. Macht mit stock bios und kühler aber sicherlich nur die wenigsten karten... :(


viel interessanter finde, ich das mein 2700X dein 5GHz 7700k förmlich in der luft zerfetzt(+68.7%)... 4 kerne sind sowas von tot. :biggrin:

die Graka ist "nur" 10% schneller bei 2063MHz vs. 2055MHz der 2070...

Dural
2018-10-20, 08:50:10
Ryzen habe ich auch da, das ryzen system liegt aber seit monaten nur rum, den das system habe ich letztes jahr extra für die vega zusammen gebaut, danach kam vega oder besser gesagt kam nicht... ;) Hab mir noch überlegt ob ich die 2070 in diesem system einbauen soll, beim intel system ging es aber halt schneller. Die karte wird aber nicht dort drin bleiben, es ist ein neues system geplant, mit welcher cpu dürfte aktuell ja fast klar sein ;)

Ich bin mir am überlegen ob ich die 2070 schnell auf wakü umbauen soll, hätte sicher alles da auch ein kühler der irgend wie passt. Aber ich befürchte das dies nicht viel bringen würde.

Die 2055mhz werden nicht gehalten, laut gpuz log lief die karte mit "nur" um die 1990mhz +/- der verbrauch bei max 210watt

SKYNET
2018-10-20, 10:02:39
Ryzen habe ich auch da, das ryzen system liegt aber seit monaten nur rum, den das system habe ich letztes jahr extra für die vega zusammen gebaut, danach kam vega oder besser gesagt kam nicht... ;) Hab mir noch überlegt ob ich die 2070 in diesem system einbauen soll, beim intel system ging es aber halt schneller. Die karte wird aber nicht dort drin bleiben, es ist ein neues system geplant, mit welcher cpu dürfte aktuell ja fast klar sein ;)

Ich bin mir am überlegen ob ich die 2070 schnell auf wakü umbauen soll, hätte sicher alles da auch ein kühler der irgend wie passt. Aber ich befürchte das dies nicht viel bringen würde.

Die 2055mhz werden nicht gehalten, laut gpuz log lief die karte mit "nur" um die 1990mhz +/- der verbrauch bei max 210watt


bei mir hält sie den takt brav bei 2063MHz von am anfang 2150(solange unter 45°c. und dann gehts bis zu 62°c. und 2063MHz, darum u.a. will ich auch nen waküblock für die karte, sind mal gut ca. 3% leistung die verschenkt werden, von den 100MHz die der speicher dann wohl mehr machen würde ganz abgesehen :mad: ). und mit wakü würde die 2070 wohl einfach die 2055MHz durchweg halten können...

und ich weiss nicht ob ich mir den 9900k antun würde, sicher die derzeit schnellste CPU, aber um welchen preis... das erinnert mich zu sehr an P4 und BD X-D zumal die CPU eh perlen vor die säue wäre, die karte dürfte eher limitieren als die CPU :)

Dural
2018-10-20, 10:18:57
Muss schauen, früher wäre der stock kühler wahrscheinlich schon weg, bevor sie überhaupt das erstemal ins system kam ;)

Naja ich stelle meine cpu so wie so immer selber ein, ich könnte mir auch gut ein auf verbrauch optimierter 9900k vorstellen, das wird dann die praxis zeigen was sinnvoll und was überhaupt möglich ist.

SKYNET
2018-10-20, 13:14:41
Muss schauen, früher wäre der stock kühler wahrscheinlich schon weg, bevor sie überhaupt das erstemal ins system kam ;)

Naja ich stelle meine cpu so wie so immer selber ein, ich könnte mir auch gut ein auf verbrauch optimierter 9900k vorstellen, das wird dann die praxis zeigen was sinnvoll und was überhaupt möglich ist.

da kannst dann auch nen 2700X nehmen wenn du den 9900k eh "drosseln" würdest, 4200MHz AC läuft bei (mir mit) geschmeidigen 1.26V und 83W... und selbst wenn ich das ding trete komme ich nicht viel weiter als 160W(1.55Vcore @ 4.5GHz + kernschmelze -wenige sekunden bis thermalschutz greift bei dem setting, 4375 ist max mit dem boxed ohne das es zu warm wird, darum auch nicht testbar ob stabil überhaupt gehen würde-, da boxed noch immer verbaut, zu faul die eisbaer zu montieren X-D )

Dural
2018-10-20, 23:36:25
Ok das ist jetzt interessant, habe soeben den kühler abmontiert, das pcb der gainward rtx 2070 gs ist nichts anderes als das referenz von der rtx 2080 fe!

Natürlich für wakü sehr praktisch.

SKYNET
2018-10-21, 03:07:56
Ok das ist jetzt interessant, habe soeben den kühler abmontiert, das pcb der gainward rtx 2070 gs ist nichts anderes als das referenz von der rtx 2080 fe!

Natürlich für wakü sehr praktisch.

mit dem baumelnden PCIe steckeranschluss? sowas von unsexy :freak:

Dural
2018-10-21, 08:30:54
mit dem baumelnden PCIe steckeranschluss? sowas von unsexy :freak:

Von der 2080!
Das einzige wo fehlt ist der nvlink anschluss.

dildo4u
2018-10-21, 09:55:03
Vergesst das mit den oc karten!!! Die dinger laufen kein stück besser, ihr könnt gut die normalen kaufen. Meine gainward gs hängt auch am PT, max ist nur 116% möglich, trotz TU106-400A chip.

Leistung ist bei etwas über 2ghz gpu und 8ghz (2ghz) speicher aber eigentlich super:

TR in 4K alles max/ultra 40fps (interner benchmark) kann man nichts sagen für ein 106 chip ;) und das spiel liegt turing nicht mal sonderlich.

https://www.3dmark.com/spy/4776150

Die 2070 hat bei 2ghz speicher genau 512gb/s speicherbandbreite, bei ca. 2080mhz gpu hat man im schnitt ca. 1080ti fe leistung. Macht mit stock bios und kühler aber sicherlich nur die wenigsten karten... :(
Nett sind 50% zu meiner 1070,muss ich vielleicht doch nicht auf die 2080 gehen.

https://www.3dmark.com/compare/spy/4776150/spy/4580553

Dural
2018-10-21, 10:51:56
Die asus turbo rtx 2070 scheint auch das 2080 pcb zu haben.

Meine sieht praktisch gleich aus, sogar die spannungs versorgung ist exakt gleich bestückt wie bei der 2080 fe! Relativ sinnlos bei max 215watt :rolleyes:

Die einzig grössere änderung ist das fehlen vom nvlink anschluss.

http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/RTX-2080-TU104-Chipfloeche-1263339/galerie/2915802/

Edgecrusher86
2018-10-21, 11:49:09
Sieht doch ganz gut aus für eine 2080 Ti OC AiO in FF XV - VXAO hat er aber aus - kostet grob 10 fps.

https://www.youtube.com/watch?v=cyFgJpj_b-0&t=9s

Später mit DLSS kann man es auch wieder anschalten - dürfte dann 50+ fps min. ergeben in Kämpfen maxed out. :)


RTX 2070 vs Vega 64 vs GTX 1080 - 1440p BENCHMARKS
https://www.youtube.com/watch?v=RzOuIbIIsQE

Mir scheint, dass die RTX 2070 noch in manchen Titeln Leistung brach liegen lässt, wenn dort eine niedriger getaktete 1080 einiges flotter ist (SotTR etwa; grob 10 fps dahinter!).
Im Laufe der Zeit sollte TU106 sich eigentlich immer absetzen in neueren Titeln.
V64 OC macht schon einen guten Eindruck in den Titeln - mit UV und 170-230W Gesamtverbrauch durchaus eine ordentliche Alternative.

dargo
2018-10-21, 12:22:15
RTX 2070 vs Vega 64 vs GTX 1080 - 1440p BENCHMARKS
https://www.youtube.com/watch?v=RzOuIbIIsQE

Mir scheint, dass die RTX 2070 noch in manchen Titeln Leistung brach liegen lässt, wenn dort eine niedriger getaktete 1080 einiges flotter ist (SotTR etwa; grob 10 fps dahinter!).
Im Laufe der Zeit sollte TU106 sich eigentlich immer absetzen in neueren Titeln.
V64 OC macht schon einen guten Eindruck in den Titeln - mit UV und 170-230W Gesamtverbrauch durchaus eine ordentliche Alternative.
Ui... sind die Frametimes bei den Geforces im neuen CoD echt so mies oder ist da bei Joker was im System kaputt? Zudem würde mich mal interessieren welche V64 das speziell ist? Die ~1,6Ghz GPU kommen mir relativ hoch vor, die Temperatur der GPU dafür recht tief. In einem AC Odyssey kann ich es noch nachvollziehen, das Game lastet Vega überhaupt nicht aus wodurch der Takt nach oben geht. Dort gibt es aber auch andere Games die Vega ganz gut auslasten.

Edit:
Moment mal... ist das überhaupt der Frametime-Graphen oder wieder dieser bekloppte Frames-Graphen der da bei Geforces (warum auch immer?) so stark flukturiert?

dildo4u
2018-10-21, 12:30:47
Ich würde auf seine Videos nicht so viel geben laut seinen 9900k Test ist der 2700X in AC: Odysee deutsch schneller als der Intel. :lol:

https://youtu.be/n8QRaYGq4dk?t=263

Dural
2018-10-21, 12:42:44
Vor allem ist das doch eine wakü vega, gpu temperatur oft etwas unter 60°C bei 1600mhz. Sehr fairer vergleich ;)

Bei den meisten youtuber die solche videos reinstellen habe ich so wie so oft den verdacht das sie die hardware gar nicht haben, und nur irgend was zusammen faken für paar klicks.

dargo
2018-10-21, 13:20:21
Vor allem ist das doch eine wakü vega, gpu temperatur oft etwas unter 60°C bei 1600mhz. Sehr fairer vergleich ;)

Oh ja... das ist hier natürlich ausschlaggebend. ;D

Die Sapphire Nitro läuft bei der PCGH bsw. im neuen CoD mit 1540Mhz, wohlgemerkt @4k, nicht 1440p.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11831267&postcount=283

Also sind die Taktraten in 1440p geringfügig höher. Selbst mit 1540Mhz wären es 96% von 1600Mhz, was sich höchstens mit -2% auf die Frameraten auswirkt. Das macht natürlich einen riesen Unterschied. :freak: Die V64 läuft übrigens bei Joker mit ~1580Mhz @1440p im neuen CoD.

Troyan
2018-10-21, 13:24:13
Und zieht 450W. Toll. Die Karte benötigt für sich selbst ein einziges Netzteil. Und die 70€ Stromkosten nach zwei Jahren. Toller Vergleich.

dargo
2018-10-21, 13:27:13
Troyan wieder on the best. :facepalm:

Dural
2018-10-21, 13:34:44
Man testet nicht wakü gegen lüku karten, jegliche diskussion darüber ist unnötig. :rolleyes:

Troyan
2018-10-21, 13:37:56
Die Sapphire benötigt 350W. Mit 350W kann man sich einen kompletten Gaming-PC mit der RTX2070 aufbauen. Hier werden Produkte miteinander verglichen, die überhaupt nichts gemein haben außer dem Preis.

Natürlich spielt das alles ja keine Rolle. Wenn man schon 500€ in eine AMD Karte investiert, dann sind 70€+ für ein neues Netzteil und 70€+ für Stromkosten über zwei Jahre ja nicht mehr relevant.

dargo
2018-10-21, 13:38:33
Wo steht, dass dort eine Wakü getestet wurde? Und selbst wenn... wer in der Schule in Mathematik aufgepasst hatte kann trotz Wakü genügend Informationen von diesem Vergleich ableiten.

Die Sapphire benötigt 350W.
Ist das wieder einer deiner üblichen Fake News?
https://www.tomshardware.co.uk/sapphire-rx-vega-64-nitro,review-34125-6.html

Bei TH sind es 327W. In einem Witcher 3 @4k. In anderen Spielen und @1440p (wofür die Karte exzellent geeignet ist) entsprechend weniger. Aber mit Superlativen hausiert sich am besten, gell? Das ganze lässt sich mit etwas Feintuning entsprechend noch locker um 100W reduzieren.

Mit 350W kann man sich einen kompletten Gaming-PC mit der RTX2070 aufbauen.
Es wird dich jetzt sicherlich schockieren aber mein Gesamtsystem zieht hinter dem Netzteil ~300W. Und das mit einer Vega64 LCE und übertakteten CPU. :eek:

dargo
2018-10-21, 13:45:33
doppelpost

Dural
2018-10-21, 13:52:20
Wie soll sonst eine gpu temp von unter 60°C bei wohl um die 350watt verbrauch zu stande kommen?

Und ja, es steht nirgends was zu der karte, und auf die komentare wie so die karte so hoch lief geht er gar nicht ein. Stattdessen steht nur wie toll die vegas sei... Sorry aber noch deutlicher kann es nicht sein, es würde mich nicht mal überraschen wenn der die ganze hardware die er "bencht" gar nicht hat, das video ist für gar nichts.

Zeigt übrigens das 9900k video auch ganz gut.

Troyan
2018-10-21, 13:58:50
Open Bench mit 100% Lüfter. Das sollte reichen für solche Temperaturen.

Natürlich vollkommen realitätsfern für die meisten.

Dural
2018-10-21, 14:00:40
Und wie so lässt der dann die nv karten nicht voll laufen?!?

Und selbst bei 100% lüfter kann ich mir die temp für eine stock vega 64 @ 1600mhz kaum vorstellen. Zudem steht am anfang das alles auf standard läuft...

Edgecrusher86
2018-10-21, 14:03:50
OT: Dürfte wohl eine V64 Red Devil mit angepasstem Fan-Profile und/oder UV/OC sein bei Joker:
https://www.youtube.com/watch?v=lJe2yOfoQb0

Was den 9900K betrifft - in dem Video hält er nen ES in der Hand:
https://www.youtube.com/watch?v=ozqpKDWHxB0&t=4s

Zugegeben - einige weitere Infos über die HW und wie sie betrieben werden, zumindest im Klappentext, wären gut.

E: In einem anderen Video meinte er aber, dass er sein privates System mit 7700K OC usw. nun gegen einen 9900K tauschen wird, insofern schon bestellt haben dürfte.

Troyan
2018-10-21, 14:04:15
Macht er doch auch. Die GTX1080FE läuft nicht 70°C bei 1800MHz, wenn man das Lüfterprofil und Powerlimit nicht anpasst.

dargo
2018-10-21, 14:06:25
Wie soll sonst eine gpu temp von unter 60°C bei wohl um die 350watt verbrauch zu stande kommen?

Indem man bsw. die Lüfter höher dreht? Der Kühler einer Sapphire Nitro ist dem durchaus gewachsen. Zudem verbraucht die Karte in 1440p keine 350W! Wann lernt ihr endlich mal zu differenzieren?! Diese ganzen Messungen der Maximalverbräuche @4k ist nur noch Gehirnwäsche.

Edit:
Hier hast du mal eine weitere Verbrauchsmessung vom Gesamtsystem die Troyan schockieren dürfte.
https://www2.pic-upload.de/thumb/36142307/Test.jpg (https://www.pic-upload.de/view-36142307/Test.jpg.html)

https://www.eteknix.com/sapphire-nitro-vega-64-graphics-card-review/8/

Es gibt durchaus Szenarios in Applikationen wo eine Vega weniger verbraucht. Die Rechnung von Troyan was die Stromrechnung angeht ist an Bullshit kaum mehr zu überbieten. Eine Verbrauchsmessung der Grafikkarte bei höchster Last und Auflösung ist keine feste Größe. Stromverbrauch in der Praxis ist viel zu dynamisch.

Troyan
2018-10-21, 14:11:01
Natürlich verbraucht die Karte auch in 1440p 350W. WTF? Was sollen deine Fake-News hier?

Der Verbrauch einer Karte ist rein abhängig von der Auslastung der Karte. Genauso gut muss eine 185W RTX2070 auch keine 185W in 1440p benötigen. Trotzdem stimmen die 185W. Deswegen existiert soetwas wie Boost, wo bei geringerer Auslastung die Karte entsprechend höher takten kann.

Edgecrusher86
2018-10-21, 14:18:46
Es kommt doch auch immer auf die verwendete Software an, was eine Karte so verbraucht. Ein neueres AC (ohne GW) oder FM/FH zieht auch deutlich weniger als etwa ein SWBF II, Witcher III, Wolfenstein II, Crysis 3 oder Anno 2070.
Egal, ob es jetzt eine V64 Air (290W BIOS 1 default), V64 LCE (345W BIOS 1 default) oder zum Beispiel GTX 1080 Ti FE (250W) ist.

Dural
2018-10-21, 14:19:10
Noch mal, am anfang steht das alles ohne oc läuft. Das bedeutet für mich auch das man die lüfter stock lässt.

dargo
2018-10-21, 14:36:17
Noch mal, am anfang steht das alles ohne oc läuft. Das bedeutet für mich auch das man die lüfter stock lässt.
Das "Problem" ist, jetzt wo Edgecrusher86 die Red Devil ins Spiel gebracht hat... man müsste erstmal definieren was Standard bei der Karte überhaupt ist? Diese Karte hat sogar drei Biose.
https://www.computerbase.de/2017-11/powercolor-radeon-rx-vega-64-red-devil-test/

Falls Joker das Standard-Bios verwendet wäre die Karte bei 287W.
https://www.computerbase.de/2017-11/powercolor-radeon-rx-vega-64-red-devil-test/3/

Allerdings finde ich dafür die anliegenden Taktraten etwas zu hoch. Ich würde auch auf eine Mischung aus UV/OC tippen.

Natürlich verbraucht die Karte auch in 1440p 350W.
Es wird nicht richtiger je öfter du es wiederholst. :rolleyes:

Edgecrusher86
2018-10-21, 14:40:36
Also bei PCGH ist die genannte V64 Custom in Hellblade 4K bei 1500+ MHz @ 260W ASIC @ 55 Grad maximal (wenn auch nicht unbedingt leise mit 1800RPM).
https://www.youtube.com/watch?v=cYiDQymDiXA

Insofern könnte ich mir in 1440p schon 60 Grad mit Richtung 1600 MHz vorstellen - out of the Box - zumindest mit dem BIOS mit 289W ASIC Power. ;)
260W dürfte dann wohl das mittlere BIOS sein?!

E: So, dann kann man ja wieder zurück auf die RTX 2070 kommen. :D

E2:
Und ja, die Nvidia Karten sind schneller und sparsamer und bringen Out of the Box kein NT zum abschalten.

Außer RTX 2080 Ti OC ohne UV wohl bei einigen Systemen mit NTs im Bereich 450-650W - ja, 60+ A auf +12V sollte es schon haben, wenn man auf Nummer sicher gehen will und vor allem die Karte auf Kante fahren möchte. ;D

RoughNeck
2018-10-21, 14:43:15
@dargo

Stock gibt es nichts schlimmeres als eine Vega 64 LC, das Teil säuft wie ein alter V8 aus den 60er.
Klar, mit UV bekommt man die Vega sparsamer aber das geht mit allen Karten. Und meine 1080 TI mit 2 GHZ braucht nicht so viel wie die Vega Stock und die 2080 TI mit 2 GHZ braucht auch nicht so viel.
Vega ist einfach die ineffizienteste Karte der letzten Jahre.

dargo
2018-10-21, 14:46:31
Du möchtest mir jetzt ernsthaft die Details über eine V64 LCE erklären? Wie putzig. :tongue:


Vega ist einfach die ineffizienteste Karte der letzten Jahre.
Schwachsinn³. Irgendwie habt ihr große Probleme zu verstehen, dass Vega in erster Linie verhältnismäßig nicht gerade wenig verbraucht weil AMD beim Powerlimit mit der Brechstange dran ging. Bei vielen Customs legen die Partner dann noch gerne was drauf.

RoughNeck
2018-10-21, 14:53:35
Putzig sind deine Versuche die Vega in den Himmel zu loben.
Ich habe hier zwei 64 LC rum liegen, weiß ganz genau was mit UV geht und wie sich die zwei Karten verhalten.
Für Dumm kannst andere verkaufen die die Karten nicht haben.
Und ja, die Nvidia Karten sind schneller und sparsamer und bringen Out of the Box kein NT zum abschalten.

Troyan
2018-10-21, 15:00:19
Also bei PCGH ist die genannte V64 Custom in Hellblade 4K bei 1500+ MHz @ 260W ASIC @ 55 Grad maximal (wenn auch nicht unbedingt leise mit 1800RPM).
https://www.youtube.com/watch?v=cYiDQymDiXA

Insofern könnte ich mir in 1440p schon 60 Grad mit Richtung 1600 MHz vorstellen - out of the Box. ;)
260W dürfte dann wohl das mittlere BIOS sein?!

E: So, dann kann man ja wieder zurück auf die RTX 2070 kommen. :D

Hier ist das Problem: 300W+ im Open Bench ist vielleicht noch akzeptabel, aber im Gehäuse sieht es komplett anders aus. Die ganzen Probleme, die man sich mit einer 300W+ Karte einfängt, werden in vielen Fällen überhaupt nicht betrachtet.

Sapphire empfiehlt für die Vega64 Nitro+ OC Limited Edition* ein 850W Netzteil mit 3x 8Pin-Anschlüssen, nVidia nur 550W mit einem 1x 8Pin für die RTX2070FE.

Und PCGH packt die Karten einfach ins selbe Balkendiagramm und vermittelt dem Eindruck, es gäbe keine Unterschiede. Vollkommen absurd.

* die kaufbare Variante wird mit 750W und 2x 8Pin empfohlen.

dargo
2018-10-21, 15:11:56
Lol... dann dürftest du eine RTX 2080TI auch nicht in Betracht ziehen. :rolleyes:
https://www.msi.com/Graphics-card/GeForce-RTX-2080-Ti-GAMING-X-TRIO/Specification


Und ja, die Nvidia Karten sind schneller und sparsamer und bringen Out of the Box kein NT zum abschalten.
Beim nächsten Mal vielleicht was Vernünftiges kaufen? Komisch, dass mein älteres e9 mit 580W überhaupt keine Probleme mit der Vega hat. Auch nicht wenn ich sie mit 350W laufen lasse.

Raff
2018-10-21, 15:21:45
Hier ist das Problem: 300W+ im Open Bench ist vielleicht noch akzeptabel, aber im Gehäuse sieht es komplett anders aus. Die ganzen Probleme, die man sich mit einer 300W+ Karte einfängt, werden in vielen Fällen überhaupt nicht betrachtet.

Es wurde schon mehrfach widerlegt, dass ein Gehäuse automatisch verheerende Temperaturen bedeutet. Jeder ordentliche Gaming-PC braucht eine Belüftung und die meisten Gehäuse stellen diese sicher. Ist diese vorhanden, ergeben sich keine Probleme durch ein "versoffenes" Axialdesign.

MfG,
Raff

RoughNeck
2018-10-21, 16:16:35
Lol... dann dürftest du eine RTX 2080TI auch nicht in Betracht ziehen. :rolleyes:
https://www.msi.com/Graphics-card/GeForce-RTX-2080-Ti-GAMING-X-TRIO/Specification


Beim nächsten Mal vielleicht was Vernünftiges kaufen? Komisch, dass mein älteres e9 mit 580W überhaupt keine Probleme mit der Vega hat. Auch nicht wenn ich sie mit 350W laufen lasse.

Netter Versuch, mehr aber auch nicht.
Mein alt ehrwürdiges Be Quiet E9 450W kann eine 1080 TI & 2080 TI ohne Probleme versorgen. Die Vega ist dann zu viel.
Was besseres muss ich mir auch nicht kaufen, viel besser als ein Dark Power Pro 11 750W geht schwer, was aber nichts daran ändert dass Vega ineffizient ist.

Die 2070 ist wieder ein super Beispiel, mehr Power als eine Vega 64, bei weit weniger Verbrauch und das schon Out of the Box ohne mit Tools ran zu müssen.

horn 12
2018-10-21, 18:19:41
Habe selbst das Dark Power Pro 11 mit 650 Watt und Vega Ref. mit UV und wohl eines der Besten NETZTEILE am Markt, die gesamte DP Pro 11 Serie.
Zudem läuft die Vega Ref. dann in Ultra HD mit ca. 1430 bis 1480 Mhz mit sparsamen 0,885 Volt durch!

dargo
2018-10-21, 18:54:08
Also bei PCGH ist die genannte V64 Custom in Hellblade 4K bei 1500+ MHz @ 260W ASIC @ 55 Grad maximal (wenn auch nicht unbedingt leise mit 1800RPM).
https://www.youtube.com/watch?v=cYiDQymDiXA

Insofern könnte ich mir in 1440p schon 60 Grad mit Richtung 1600 MHz vorstellen - out of the Box - zumindest mit dem BIOS mit 289W ASIC Power. ;)
260W dürfte dann wohl das mittlere BIOS sein?!

Nein... 260W ASIC ist das OC-Bios.
https://www.computerbase.de/2017-11/powercolor-radeon-rx-vega-64-red-devil-test/

SKYNET
2018-10-21, 19:39:57
und bringen Out of the Box kein NT zum abschalten.

kommt wohl immer drauf an was für nen NT eh? wenn man sonen "billigen" 550W singelrail krüppel hat, kanns bei ner durstigen karte halt mal schnell eng werden wenn die CPU zeitgleich auch viel last hat.

Legendenkiller
2018-10-22, 11:02:44
selber Preis wie eine 3 Jahre alte 1080
selbe Leistung wie eine 3 Jahre alte 1080
selber Verbrauch wie eine 3 Jahre alte 1080.

Dafür halt RT. juhu...

Ich sehe da kein Fortschritt

PS: mit 150W TPD wäre sie interessant.

y33H@
2018-10-22, 11:31:14
Seit Mai 2016 ist nun wahrlich keine drei Jahre her ...

Troyan
2018-10-22, 11:32:46
Und zum damaligen Zeitpunkt haben die GTX1080 Karten weit über 600€ gekostet. :D

Adam D.
2018-10-22, 12:29:54
Und zum damaligen Zeitpunkt haben die GTX1080 Karten weit über 600€ gekostet. :D
700€ hat eine Armor OC 1080 damals gekostet. Eine 2070 für 605€ jetzt nicht lieferbar. In fast 30 Monaten, die ja bekanntlich in der Techwelt auch überhaupt keine Ewigkeit darstellen. Amazing Progress!

Daredevil
2018-10-22, 12:32:16
GTX2070 ist doch für 519€ lieferbar?!
https://www.caseking.de/inno3d-geforce-rtx-2070-twin-x2-8192-mb-gddr6-gci3-146.html

Adam D.
2018-10-22, 12:33:52
GTX2070 ist doch für 519€ lieferbar?!
https://www.caseking.de/inno3d-geforce-rtx-2070-twin-x2-8192-mb-gddr6-gci3-146.html
Aber nicht die Armor OC, ich hab das aus Zwecken der Vergleichbarkeit genutzt.

Ändert auch nichts an der grundsätzlichen Sachlage. Denn damals hat man immerhin auch noch State of the Art Technologie bekommen, die NUTZBAR war und kein Versprechen für die Zukunft (die vielleicht nie eintritt mit RTX im Falle der 2070).

dargo
2018-10-22, 12:35:50
GTX2070 ist doch für 519€ lieferbar?!
https://www.caseking.de/inno3d-geforce-rtx-2070-twin-x2-8192-mb-gddr6-gci3-146.html
Das Ding sieht aus wie eine 100€ Graka. :freak: Der Kühler wird bestimmt überzeugen. :D

dildo4u
2018-10-22, 12:40:14
Sind die Laut?Dürfte Vergleichbar viel ziehen.

https://www.mindfactory.de/product_info.php/8GB-PowerColor-Radeon-RX-570-Red-Dragon-Aktiv-PCIe-3-0-x16--Retail-_1227274.html

dargo
2018-10-22, 12:51:52
Sind die Laut?
Was glaubst du wohl? :tongue: Das Ding hat 2x 80mm Lüfter ist ist 6cm kürzer als deine verlinkte Karte.

Troyan
2018-10-22, 12:52:11
700€ hat eine Armor OC 1080 damals gekostet. Eine 2070 für 605€ jetzt nicht lieferbar. In fast 30 Monaten, die ja bekanntlich in der Techwelt auch überhaupt keine Ewigkeit darstellen. Amazing Progress!

Die günstigsten Radial-Designs kosteten bis zum März 2017 irgendwas um die 700€. Es sind 170€ bis 200€ Ersparnis für rund 10% Mehrleistung - macht also 33% Verbesserung von Preis/Leistung zum Start der GTX1080 von vor zwei Jahren.

Klar, schlechter als die rund 60% von GTX980 auf GTX1080, aber es ist eben nicht so als ob vor zwei Jahren die Leute alle sofort und gleich die GTX1080 für mehr als 700€ gekauft hätten.

Daredevil
2018-10-22, 12:57:37
Das Ding sieht aus wie eine 100€ Graka. :freak: Der Kühler wird bestimmt überzeugen. :D
Hat auf jeden Fall mehr Kühlfläche als ne Ref Vega, von daher wird das schon klar gehen. :D ( Wenn man es billig haben will... )

Schnoesel
2018-10-22, 13:00:01
Unterschied ist nur ... Die 1080 war zu Release die schnellste Grafikkarte die man erwerben konnte. Das kann man von der 2070 nicht im Ansatz behaupten. Aber muss ja jeder selbst wissen wie er das einordnet.

dargo
2018-10-22, 13:01:15
Hat auf jeden Fall mehr Kühlfläche als ne Ref Vega, von daher wird das schon klar gehen. :D ( Wenn man es billig haben will... )
Wenn bei dir Referenz Vega Lukü als Maßstab gilt... ok. :usweet:

Troyan
2018-10-22, 13:02:07
Unterschied ist nur ... Die 1080 war zu Release die schnellste Grafikkarte die man erwerben konnte. Das kann man von der 2070 nicht im Ansatz behaupten. Aber muss ja jeder selbst wissen wie er das einordnet.

Deswegen fängt die RTX2070 auch bei 519€ an und nicht bei über 700. :rolleyes:

Schnoesel
2018-10-22, 13:03:16
Schnapper quasi für ne XX70er ...

dildo4u
2018-10-22, 13:11:04
Du kannst bei der Chipgröße vermutlich nicht unter 500€ gehen,siehe Vega der volle Chip sitzt immer noch bei 500€.Die 1080 war lächerlich klein dagegen.

dargo
2018-10-22, 13:17:35
Und den HBM2 klammerst du bei Vega wieder gekonnt aus?

dildo4u
2018-10-22, 13:20:25
GDDR6 ist auch Brand neu,GDDR5X wurde zwei Jahre lang nur bei den 500€+ Karten eingesetzt.So lange die Yields nicht gut sind kann auch dieser Speicher teuer sein.

Daredevil
2018-10-22, 13:22:11
Wenn bei dir Referenz Vega Lukü als Maßstab gilt... ok. :usweet:
Nein, sicher nicht.
Aber wenn die Kühlfläche größer ist und der Verbrauch niedriger, bekommt man dem Preis entsprechend vermutlich eine "okaye" Karte, die so bei 1600-1800rpm @ Stock dreht. Gibt schlimmeres, dafür gibt man halt auch weniger Geld aus.

Ich habe das nur als Vergleich genommen, weil ich den ( winzigen ) Kühlkörper der Vega Ref kenne und die Lautstärke bei verschiedenen Power Limits.

gnomi
2018-10-22, 15:53:30
Die Karte ist schon schnell, aber auf keinen Fall ein Schnäppchen.
Müsste auch eigentlich 2060 heißen imho.
Die 1080FE für 789 war mir @ Launch auch klar zu teuer, (daher und wegen wenig Lüfterüberarbeitungen am Referenz Design Retour) aber die Palit Gamerock Pro Premium für 650 mit Gears 4 war dann Oktober 2016 ein weit besserer Deal.
Man erhielt auch die schnellste bezahlbare Gaming Karte, doppelten Speicher und satte 60-80% auf die 980 (die seinerseits schneller als eine 780TI war) vom Start weg.
Nur der Preis jenseits von 500 Euro war im Gegensatz zu 480 und 680 eben grenzwertig.
Jetzt gibt es neue Preis Kategorien. Und eine 2080 müsste imho auch etwas besser verglichen mit der 1080TI sein.
Ich hielt die Karte immer für zu teuer, aber sie brachte früh viel Leistung.
Bei der 2080 Serie müssen die Preise runter oder die neuen Features endlich nutzbar sein und überzeugen.
So ist das eben nicht top, sondern durchschnittlich für mich als Kunde. (Chip Preis in der Herstellung zählt nicht- eine Xbox habe ich auch nicht für 479, sondern für unter 300 mit drei Spielen gekauft- es muss einfach auch passen abseits von der PR)
Dass die alte Karte wertstabil ist, ist kein Trost und egal, wenn man sie irgendwie weiternutzen oder weitergeben möchte.
Wer natürlich Pascal ausgelassen hat, kann die 2070 gut kaufen. Vermutlich sind das aber 780TI/980 & 980 TI Nutzer.
970 war andere Preisklasse.
Wer ansonsten updatet, unterstützt leider das ganze System. Das ist schon hart für leidenschaftliche PC Spieler. Zumal es mit CPU's von Intel oder High End Gaming Monitoren, Boards und Speicher auch so läuft.

Edgecrusher86
2018-10-22, 16:45:38
Eventuell kann man mit der modifizierten 5.527er NVFlash auch den günstigen 2070ern einen PT-Boost ermöglichen.

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11832370#post11832370

Slipknot79
2018-10-23, 00:12:22
Vermutlich sind das aber 780TI/980 & 980 TI


Wegen 25% Mehrleistung wird er bei mir auch nicht steif. :cool: :redface:

Razor
2018-10-23, 06:48:44
Ob bei Dir irgendetwas "steif" wird, oder nicht... interessiert hier vermutlich niemanden.
Und wenn das bei Dir und einer Grafikkarte der Fall ist, dürfte 'eh nichts mehr zu retten sein, gell? ;D

Wie dem auch sei, 980Ti (schnellste) vs. 2070 (langsamste) sind bei fordernden Scenarien durchaus >40%.
Ist aber auch klar, wenn selbst eine 1070 noch gut 10% schneller ist...

Razor

dildo4u
2018-10-23, 08:04:30
Wegen 25% Mehrleistung wird er bei mir auch nicht steif. :cool: :redface:
Sind 50%.

https://www.3dmark.com/compare/spy/4776150/spy/4580553

denjudge
2018-10-23, 09:46:21
Ob bei Dir irgendetwas "steif" wird, oder nicht... interessiert hier vermutlich niemanden.
Und wenn das bei Dir und einer Grafikkarte der Fall ist, dürfte 'eh nichts mehr zu retten sein, gell? ;D

Wie dem auch sei, 980Ti (schnellste) vs. 2070 (langsamste) sind bei fordernden Scenarien durchaus >40%.
Ist aber auch klar, wenn selbst eine 1070 noch gut 10% schneller ist...

Razor

Ne 1070@Stock ist nicht schneller als eine hochgetaktete 980ti, sondern langsamer.

Dural
2018-10-23, 09:52:22
Am sinnvollsten ist es sicher eine billige Referenz 2070 ohne OC zu holen, und bei dieser einen Hardware Mode machen.

Wasserkühlung drauf und Freude haben ;)

Bei der GPU lohnt sich jedes MHz mehr Takt, kein Wunder bei der für diese GPU extrem hohe Bandbreite von bis zu 512GB/s.

Mr.Bug
2018-10-23, 10:18:21
Tjo, bei der frischen PCGH-Umfrage können sich auch satte 4,37% aller Teilnehmer derzeit für den Kauf einer 2070 begeistern. :rolleyes:

http://www.pcgameshardware.de/Geforce-RTX-2070-Grafikkarte-267864/News/Kaufen-Sie-die-kleinste-Turing-Grafikkarte-1267646/

Dural
2018-10-23, 10:56:20
Schaut mal die Kommentare an, da hat man was zum Lachen :freak:

Gefühlt 50% sagen das die mehr Leistung von der 1070 zur 2070 ihnen zu gering sei. Ich finde den Leistungssprung innerhalb der praktisch gleichen Fertigung eigentlich super, da gibt es nicht viele GPU Generation in den letzten 20 Jahren die da deutlich mehr im selben Prozess geboten haben. Aber die meisten User sind einfach nach wie vor nicht in der Lage dies zu unterscheiden... :rolleyes:

2-3 Sagen das die Karten nicht lieferbar sind und deswegen eine Vega gekauft haben?!? Also ich sehe überall 2070 und 2080 an Lager :wink:

Die einzigen wirklichen Gründe gegen die 2070 sind wohl das man schon was vergleichbares hat (1080 aufwärts) oder es einem schlicht zu teuer ist :wink:

Ich frage mich was die meisten machen wenn sich die Abstände zwischen den Fertigung in Zukunft noch Grösser werden, alle 5 Jahre eine neue GPU kaufen?!?

Raff
2018-10-23, 11:07:13
Bei der GPU lohnt sich jedes MHz mehr Takt, kein Wunder bei der für diese GPU extrem hohe Bandbreite von bis zu 512GB/s.

Jo, die Karte ist relativ "imba", da schlägt erhöhter Kerntakt prima durch. 512 GByte/s kriegst du aber nur mit 2 (8) GHz Speichertakt. Mit 2,1/8,0 GHz kommt man wohl recht bequem an einer gewöhnlichen RTX 2080 vorbei.

Ich frage mich was die meisten machen wenn sich die Abstände zwischen den Fertigung in Zukunft noch Grösser werden, alle 5 Jahre eine neue GPU kaufen?!?

Ja, warum nicht? Es ist nicht Aufgabe des Kunden, Kaufanreize zu schaffen.

MfG,
Raff

SKYNET
2018-10-23, 11:15:28
Schaut mal die Kommentare an, da hat man was zum Lachen :freak:

Gefühlt 50% sagen das die mehr Leistung von der 1070 zur 2070 ihnen zu gering sei. Ich finde den Leistungssprung innerhalb der praktisch gleichen Fertigung eigentlich super, da gibt es nicht viele GPU Generation in den letzten 20 Jahren die da deutlich mehr im selben Prozess geboten haben. Aber die meisten User sind einfach nach wie vor nicht in der Lage dies zu unterscheiden... :rolleyes:

2-3 Sagen das die Karten nicht lieferbar sind und deswegen eine Vega gekauft haben?!? Also ich sehe überall 2070 und 2080 an Lager :wink:

Die einzigen wirklichen Gründe gegen die 2070 sind wohl das man schon was vergleichbares hat (1080 aufwärts) oder es einem schlicht zu teuer ist :wink:

Ich frage mich was die meisten machen wenn sich die Abstände zwischen den Fertigung in Zukunft noch Grösser werden, alle 5 Jahre eine neue GPU kaufen?!?


was hat die fertigung damit zutun, das vielen der leistungssprung einfach zugering ist für das geld das man auf den tisch legen muss? :confused:

wäre es ne bessere fertigung(10 oder gar 7) und der leistungssprung wäre identisch zu jetzt, würde das nix an der ausgangslage ändern: der sprung von pascal auf turing ist zu klein für das geld, das abgerufen werden soll... die einzige karte die sich absetzen kann ist die 2080Ti, und die hat wie ich schon mehrfach erwähnte auch ihre berechtigung, aber der preis ist trotzdem eine frechheit, 30% mehr leistung als der vorgänger aber kostet 70% mehr :freak: hätte sie ne UVP von $999 würd wahrscheinlich kein hahn nach krähen.

BigKid
2018-10-23, 11:20:49
Tjo, bei der frischen PCGH-Umfrage können sich auch satte 4,37% aller Teilnehmer derzeit für den Kauf einer 2070 begeistern. :rolleyes:

http://www.pcgameshardware.de/Geforce-RTX-2070-Grafikkarte-267864/News/Kaufen-Sie-die-kleinste-Turing-Grafikkarte-1267646/
Technisch macht die Karte eigentlich ne ganz gute Figur... mit OC fast 50% auf den direkten Vorgänger + neue Features (Raytracing, DLSS)...
Ich denke die RTX2070 wird einfach auch für die RTX2080 und 2080ti mit abgetraft. Die werden einfach von zu vielen als unverschämt teuer für das Gebotene wahrgenommen und das schlägt jetzt bei der RTX2070 mit durch... Mal abgesehen davon dass die RTX2070 für obere Mittelklasse / Vernunftsklasse jetzt zwar nicht ganz so daneben ist, aber immernoch nicht wirklich preislich attraktiv ist... >500 Euro und das dann noch nichtmal für ne besonders edle Custom - da löscht es halt auch schon einigen ab... (Imho mit Recht aber das ist halt Ansichtssache)...
Genauso sparsam guckt man wenn man für nen 1 Jahr alten, mittelmäßig ausgestatteten Passat Variant 40t Euro beim VW Händler hinlegen soll... Da hat man einfach das Zielpublikum aus den Augen verloren bzw. deren Geldmittel überschätzt...

w0mbat
2018-10-23, 11:44:12
Das Problem ist doch, dass man schon lange 2070 Leistung zum 2070 Preis bekommen hat, nämlich in Form der 1080 custom Karten.

Für 519€ ist die 2070 nicht wirklich interessant, für 419€ wäre es etwas besser, für 319€ (der eigentliche Preis für eine 2060 mit TU106 Chip) wäre sie super.

gnomi
2018-10-23, 11:51:32
Ich frage mich was die meisten machen wenn sich die Abstände zwischen den Fertigung in Zukunft noch Grösser werden, alle 5 Jahre eine neue GPU kaufen?!?

Ganz genau.
Man kann jetzt bequem auf vier Jahre gehen.
Im CPU Bereich (Board, Speicher, Prozessor) und bei Monitoren geht ja noch mehr.
Ich hätte sogar Sandy Bridge noch behalten, wenn ich die Release Strassen Preise für 2080TI & 9900k, sowie GSync HDR einigermaßen richtig eingeschätzt hätte.
Den 8700k habe ich leider gekauft, weil ich unbedingt mal mehr wollte und 330 Euro fair waren. Aber wie schon bei der 1080 habe ich mich sehr schwer getan. Man braucht das alles nicht mehr wirklich.
Selbst die ganzen Anschlüsse von PCIE3 bis USB 3.1 Gen 2 in etwas neuer sind doch nicht sonderlich wichtig.
Es ist langsam wie bei Autos und anderen alten Technikartikeln.
Die Pionierzeiten sind längst vorbei und die Neuheiten weniger der Rede wert und auch zu teuer durch ständige Aufrüstversuchungen per Software.
Natürlich erzählt einem nvidia was anderes, aber strenggenommen wird es irgendwann zu exklusivem überteuerten Müll, den eigentlich keiner mehr ständig braucht. :wink:

dildo4u
2018-10-23, 11:54:30
Das Problem ist doch, dass man schon lange 2070 Leistung zum 2070 Preis bekommen hat, nämlich in Form der 1080 custom Karten.

Für 519€ ist die 2070 nicht wirklich interessant, für 419€ wäre es etwas besser, für 319€ (der eigentliche Preis für eine 2060 mit TU106 Chip) wäre sie super.


Der Chip ist zwei mal so groß wie der der 1060,nur weil es der kleinste Turing Chip ist ist es nicht Automatisch Midrange.Die 1080 Ti ist vergleichbar groß wie die 2070,ist sie deshalb jetzt keine High-End GPU Mehr?

Dural
2018-10-23, 12:11:25
Das würde aber nicht funktionieren, der GPU Markt wäre da doch praktisch tot.

Nicht umsonst kommt NV jetzt mit RT, die brauchen was wo man viel Leistung verballern kann.

Das Rennen um die reinen SP Anzahl in den GPUs ist für NV seit Turing so wie so vorbei, die werden die Alus wahrscheinlich noch mehr in die breite ausbauen. Doppelte SP bei einem neuen Fullnode werden wir sehr wahrscheinlich nicht mehr sehen, gab es bei Pascal ja übrigens auch schon nicht mehr.

Bambuslooter
2018-10-23, 12:42:43
Der Chip ist zwei mal so groß wie der der 1060,nur weil es der kleinste Turing Chip ist ist es nicht Automatisch Midrange.Die 1080 Ti ist vergleichbar groß wie die 2070,ist sie deshalb jetzt keine High-End GPU Mehr?

Klar ist Sie Midrange, es gibt immerhin zwei größere Chips: GT104 und 102.
LowCost 108 wurde bloss noch net vorgestellt oder kommt direkt in 7nm.
Daraus leitet sich die Einteilung nunmal ab.
Nur weil Nvidia es gekonnt schafft euch damals die x80 als Titan zu verkaufen und nun die 2060 eine Stufe höher rückt, wird der 106 kein Highend.
Vergleichen lassen sich die Dies nur untereinander.
RT und Tensor kosten halt Platz.

dargo
2018-10-23, 12:48:38
Ich frage mich was die meisten machen wenn sich die Abstände zwischen den Fertigung in Zukunft noch Grösser werden, alle 5 Jahre eine neue GPU kaufen?!?
Ja was denn sonst? :freak: Ein Upgrade muss sich lohnen. Und wann der Zeitpunkt dafür lohnenswert ist bestimmt jeder individuell. Für mich ist bsw. alles weit unter Faktor 2 ziemlich langweilig. So +80% sollten es schon mindestens sein. Wenns mehr wird umso besser. Und natürlich muss P/L dabei auch passen. Auch das entscheidet jeder individuell für sich.

dildo4u
2018-10-23, 12:51:37
Klar ist Sie Midrange, es gibt immerhin zwei größere Chips: GT104 und 102.
LowCost 108 wurde bloss noch net vorgestellt oder kommt direkt in 7nm.
Daraus leitet sich die Einteilung nunmal ab.
Nur weil Nvidia es gekonnt schafft euch damals die x80 als Titan zu verkaufen und nun die 2060 eine Stufe höher rückt, wird der 106 kein Highend.
Vergleichen lassen sich die Dies nur untereinander.
RT und Tensor kosten halt Platz.
Die 2070 ist teilweise an der 1080 Ti dran,wenn man 500€ auf der Kopf haut kauft man keine alte Architektur mehr.


https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11829653&postcount=262

Raff
2018-10-23, 12:53:51
Überhaupt krank das Turing je nach Engine über 1000 Cuda Cores einsparen kann,dort kommen die 50%+ Effizienz Gewinn hin.

Die INT32-Kerne kosten natürlich auch Fläche (wenn wohl auch nicht so viel wie FP32-ALUs).

MfG,
Raff

dildo4u
2018-10-23, 13:03:46
Wir wissen deutlich mehr wenn die 2060 leakt,ist die deutlich größer als GP 106 ist das nicht alles nur für RT.

Bambuslooter
2018-10-23, 13:12:38
Die 2070 ist teilweise an der 1080 Ti dran,wenn man 500€ auf der Kopf haut kauft man keine alte Architektur mehr.


https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11829653&postcount=262

Das wurde schon hier im Forum deutlich dargestellt, dass die 2070 mehr an einer 1080 dran ist, nicht an einer 1080ti ;)
Die alten FE's täuschen halt bei so manchen Tests noch.
Turing steht quasi oftmals 10% zu gut dar im Vergleich, weil die neue FE eine gute Custom ist.

Dein Denkfehler bezüglich der Chips ist bemerkenswert.
Wir sehen die Einteilung seit so vielen Jahren und wo sich z.B. eine GTX1060 gegenüber eine GTX980 eingeordnet hat.
Raff hat es eben nochmals erwähnt und mich quasi bestätigt.
Turing ist durch die Bank weg deutlich größer als die Vorgänger, korrekt.
Liegt aber auch den aktuell noch nicht nutzbaren Zeug.

Aber an der Einteilung ändert sich halt nix.
102 absolutes Highend
104 Performance
106 Mittelklasse
108 Einstieg/Low

Wie kommst du darauf das gut zu reden mit der jetzigen 2070?
Das eine 2060 die mal so eben 60% größer ist, auch 350-375€ kosten kann - ja okay.
Die 1060 haben sich zwischen 220-300€ eingependelt inklusive Mininghype.
Aber das als 2070 für Minimum 519€ zu verkaufen, sollte eigentlich von jedem seriösen Magazin kritisiert werden.
Da kam nix, leider.

Dural
2018-10-23, 13:13:24
Nein, die 2070 wurde oft als stock karte getestet. Generel hat die 2070 so wie so einen eher nidrigen takt.

Und übrigens, der name einer gpu kann gar keine einteilung sein. Es ist schlicht einfach nur ein name.

Wir wissen deutlich mehr wenn die 2060 leakt,ist die deutlich größer als GP 106 ist das nicht alles nur für RT.

Meinst du da kommt echt noch eine gpu? Ich glaube ja fast nicht.

Dural
2018-10-23, 14:29:57
Hier noch die Fotos vom Kühler und PCB der Gainward RTX 2070 Phoenix GS 8GB.

SKYNET
2018-10-23, 14:33:56
Sind 50%.

https://www.3dmark.com/compare/spy/4776150/spy/4580553


bitte, wirklich, den pimmelmark als vergleich ranziehen?

in echten games ist der durchschnitt bei 25% punkt.

dildo4u
2018-10-23, 14:50:38
Kommt auf den Mix der Games an,hier sind es 40% in 4k.

https://www.techpowerup.com/reviews/NVIDIA/GeForce_RTX_2070_Founders_Edition/33.html

Dural
2018-10-23, 14:52:55
Es sind über 30% im Schnitt. Wolfenstein 2 sind es sogar 45%

Die 40-50% werden in Zukunft öfter auftauchen, das gilt schon als sicher.

Raff
2018-10-23, 15:25:52
Welche Karten vergleicht ihr gerade? :confused: 1070 gegen 2070?

MfG,
Raff

Dural
2018-10-23, 16:40:09
Ursprünglich 980Ti zu 2070 ;)

gbm31
2018-10-23, 17:13:17
Bei der 2070 zieht RTX halt auch nicht richtig weil eine 2080Ti schon zu wenig Performance dafür mitbringt.

Slipknot79
2018-10-24, 00:02:06
Ob bei Dir irgendetwas "steif" wird, oder nicht... interessiert hier vermutlich niemanden.
Und wenn das bei Dir und einer Grafikkarte der Fall ist, dürfte 'eh nichts mehr zu retten sein, gell? ;D

Wie dem auch sei, 980Ti (schnellste) vs. 2070 (langsamste) sind bei fordernden Scenarien durchaus >40%.
Ist aber auch klar, wenn selbst eine 1070 noch gut 10% schneller ist...

Razor


Nimm meinen GPU-Takt und check obs immer noch 40% sind. Würde dein Stehaufmännchen noch reagieren, würde er sich wohlwollend erkenntlich zeigen. So reicht dir aber eben ne GTX 530. :biggrin: :cool: :redface:

robbitop
2018-10-24, 06:11:54
Weiß jemand, ob es TU106 auch für itx geben wird? Also max 17 cm Länge. Bei Pascal gab es ja die Gigabyte mini Modelle.

Loeschzwerg
2018-10-24, 06:25:16
Technisch machbar, aber angekündigt ist aktuell noch nichts. Gigabyte, MSI und Co. haben auch ein paar Monate gebraucht für 1070/1080 im ITX Format.

gbm31
2018-10-24, 07:05:13
Weiß jemand, ob es TU106 auch für itx geben wird? Also max 17 cm Länge. Bei Pascal gab es ja die Gigabyte mini Modelle.

Du meinst sicher Zotacs Mini Reihe?

https://www.zotac.com/cz/product/graphics_card/zotac-gaming-geforce-rtx-2070-mini

robbitop
2018-10-24, 07:15:38
Die kleinsten 2070 Karten sind aktuell >19cm. Itx ist 17cm.

Soll in die Gigabyte Aorus Gamingbox passen. (Itx egpu tb3 - damit wird aus meinem Ultrabook unterwegs etwas mit dem man spielen kann - eine 2070 wäre einfach nett)

Raff
2018-10-24, 08:08:59
Kommt bestimmt. :)

MfG,
Raff

SKYNET
2018-10-24, 10:07:57
Kommt auf den Mix der Games an,hier sind es 40% in 4k.

https://www.techpowerup.com/reviews/NVIDIA/GeForce_RTX_2070_Founders_Edition/33.html


weil 4k mit dieser karte ja auch spielbar ist... :freak:

dildo4u
2018-10-24, 10:12:57
Kommt wie immer aufs Game an Rainbow Six,Call of Duty WW2 liegt bei über 80fps,F1 2018,BF1,Wolfenstein 2,Hitman über 60.

Raff
2018-10-24, 10:14:30
+40 % als Gesamtmittel passt laut frischem PCGH-Index übrigens wie die Faust aufs Auge (GTX 1070 FE vs. RTX 2070 FE), mit Detailunterschieden.

MfG,
Raff

Rancor
2018-10-24, 10:21:34
Leute :) Gebt mir mal nen Tipp. Zur Zeit habe ich eine 1070 @ 2 GHz im Rechner. Die ist mir für WQHD allerdings für die neusten Games etwas zu langsam. Meint ihr ich sollte lieber auf die 2070 oder 2080 upgraden.

CPU ist ein R5 1600@ 4 GHZ.

gbm31
2018-10-24, 10:27:08
Die kleinsten 2070 Karten sind aktuell >19cm. Itx ist 17cm.

Soll in die Gigabyte Aorus Gamingbox passen. (Itx egpu tb3 - damit wird aus meinem Ultrabook unterwegs etwas mit dem man spielen kann - eine 2070 wäre einfach nett)


http://www.inno3d.com/products_detail.php?refid=397


Die ist auch 197mm lang... also zu lang.

dildo4u
2018-10-24, 10:28:22
Leute :) Gebt mir mal nen Tipp. Zur Zeit habe ich eine 1070 @ 2 GHz im Rechner. Die ist mir für WQHD allerdings für die neusten Games etwas zu langsam. Meint ihr ich sollte lieber auf die 2070 oder 2080 upgraden.

CPU ist ein R5 1600@ 4 GHZ.

Die 2080 kosten noch 80€ zu viel zur Zeit,die 2070 für 520 sind ok.

robbitop
2018-10-24, 11:18:15
Ich finde tu106 extrem interessant. Hat von allen Turings die größte Bandbreite pro tflop. Rund 40% mehr Bandbreite als GP104. Ich vermute mal fast, dass er die 14 gbps bei default Taktraten nur selten braucht. Ein wenig wie gp106 (der hat bei pascal mit Abstand die größte Bandbreite pro tflop)

w0mbat
2018-10-24, 11:32:32
Liegt wahrscheinlich auch daran, dass es aktuell nur 14Gbps GDDR6 gibt. Ich finde TU106 auch super, >1080 performance bei weniger Verbrauch und kann besser mit LL-APIs umgehen. Würde sich gut in meinem ITX Gehäuse machen.

Blöd nur, dass Nvidia das ganze als 2070 zum 2080 Preis verkauft :ugly:

gbm31
2018-10-24, 12:45:13
Blöd nur, dass Nvidia das ganze als 2070 zum 2080 Preis verkauft :ugly:


Ja, Launch zu 479€ wie die 1070Ti und dann Straßenpreis um die 400€ wär ok gewesen (rein von der Performance her - auch wenn RT nicht nutzbar).
Die 970 für 330€ war da genau richtig positioniert (Speichergeschichte mal aussen vor).

Egal - mit meiner Ti leb ich noch gut bis 7nm.

SKYNET
2018-10-24, 14:21:58
Kommt wie immer aufs Game an Rainbow Six,Call of Duty WW2 liegt bei über 80fps,F1 2018,BF1,Wolfenstein 2,Hitman über 60.

mit max AA(auch im treiber) sicher nicht...

RLZ
2018-10-24, 14:43:19
Bei der 2070 zieht RTX halt auch nicht richtig weil eine 2080Ti schon zu wenig Performance dafür mitbringt.
Zu wenig für was?

Raff
2018-10-24, 15:46:35
HAHA, wenn das nicht unerwartet ist (zweifach sogar): https://www.instagram.com/p/BpUWHTnnzU4/?taken-by=pcgh.de :biggrin:

MfG,
Raff

Lehdro
2018-10-24, 16:02:32
HAHA, wenn das nicht unerwartet ist (zweifach sogar): https://www.instagram.com/p/BpUWHTnnzU4/?taken-by=pcgh.de :biggrin:

MfG,
Raff
Bringt das denn noch Mehrleistung bzw. synthetische Mehrleistung bei Bandbreitenmessungen?

Das wäre ja schon krass, kennt man aber von diversen 1050 Ti, die haben auch im Afterburner +1000 MHz Speicher mitgemacht, was dann leider die Grenze des Einstellbaren war. Mit dem Inspector habe ich damals aber nicht weiter rumgespielt...:cool:

Raff
2018-10-24, 16:08:11
Yes, effektiv 445 statt 365 GByte/s in AIDA64 (mit 8.400 MHz). :cool:

MfG,
Raff

Dural
2018-10-24, 16:23:34
...es würde mich immer noch Wunder nehmen wie so die 2070 mehr Speicher Takt als die 2080 schafft?

Hat die 2070 mehr Spannung auf der GPU? Was aber irgend wie nicht so logisch wäre, da die 2080 ja höher taktet.


Hat mir jemand das MSI Bios, das soll ja bis auf 250Watt gehen?

SKYNET
2018-10-24, 16:59:42
...es würde mich immer noch Wunder nehmen wie so die 2070 mehr Speicher Takt als die 2080 schafft?

Hat die 2070 mehr Spannung auf der GPU? Was aber irgend wie nicht so logisch wäre, da die 2080 ja höher taktet.


Hat mir jemand das MSI Bios, das soll ja bis auf 250Watt gehen?

das wird das powerlimit sein, die GPU zieht weniger, bleibt mehr luft für den speicher... kann ich auch bei meiner 1080Ti beobachten, wenn ich die GPU aufs max ziehe, kann ich den speicher nicht so hoch takten weil das PL im weg hängt, senke ich den GPU takt samt spannung ab, geht mehr speichertakt... aber da bei der 1080Ti mehr speichertakt mehr bringt als nen paar MHz bei der GPU, ziehe ich den höheren speichertakt vor.

Andi Y
2018-10-24, 18:12:22
Das wäre ja schon krass, kennt man aber von diversen 1050 Ti, die haben auch im Afterburner +1000 MHz Speicher mitgemacht, was dann leider die Grenze des Einstellbaren war. :cool:
Echt? Link bitte, habe für mein 2. Rechner eine Gebrauchte geschossen.

basix
2018-10-24, 18:16:22
Das wäre ja schon krass, kennt man aber von diversen 1050 Ti, die haben auch im Afterburner +1000 MHz Speicher mitgemacht, was dann leider die Grenze des Einstellbaren war. Mit dem Inspector habe ich damals aber nicht weiter rumgespielt...:cool:
Echt? Link bitte, habe für mein 2. Rechner eine Gebrauchte geschossen.

Meine 1050 Ti im Zweitrechner machte auch +1000 MHz beim Speicher mit. Der Rechner ist aber nun im Zustand "Einzelteile" :D

Andi Y
2018-10-24, 18:18:38
Danke für die Info, ich teste gleich mal. ;)

Lehdro
2018-10-24, 18:20:41
Echt? Link bitte, habe für mein 2. Rechner eine Gebrauchte geschossen.
Guru3D (https://www.guru3d.com/articles-pages/msi-geforce-gtx-1050-and-1050-ti-gaming-x-review,36.html)

Meine 1050 Ti habe ich schon verkauft, +1000 MHz lief aber problemlos in Games. Probier es doch einfach mal aus, wenns nicht stabil läuft passiert halt auch nichts. Könnte aber vom Speicherhersteller abhängen. :confused:

basix
2018-10-24, 18:33:51
Hier noch ein paar Benches in 3DMark 11 - Performance. Bringt nicht wahnsinnig viel. Ich war eher erstaunt, wie viel Leistung mit reduziertem Power Target übrig bleiben. Ähnliches Verhalten auch bei Turing (ich setze mein Power Target zwischen 60-70%). Zur Leseart der Tabelle: GPU-Clock Offset / Mem Offset / Power Target. Ergebnisse des GT2 sind FPS.

Andi Y
2018-10-25, 09:57:13
Danke, +1000 Mhz macht meine auch mit. Speicher ist Micron.
Und nun Schluss, ist ja der RTX 2070 Thread. ;)

Ich werde mir wohl zu Weihnachten eine 2070 gönnen, bin mir nur unschlüssig ab A oder non-A Chip.

gbm31
2018-10-25, 11:01:04
Zu wenig für was?

Ich finde den Satz eindeutig, aber ok. Für RT-> https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-24-oktober-2018

robbitop
2018-10-25, 12:35:56
Hat sich bei dsr eigentlich in den letzten Jahren was bzgl dem Downsamplingfilter getan?
Gerade dsr Faktoren waren ja bilinear. Ungerade war Gauss Filter und dann Pointsampling.

Empfohlen waren ja gerade Faktoren (2x2) und halbe (1.5x1.5).
Ist das inzwischen besser? ZB 1.66x1.66? Wäre ja 3200x1800 für FullHD. Oder nur 2880x1620 (1.5x1.5) und 3840x2160 (2x2)?

Für die halben wurde ein blur faktor von~20..25% empfohlen und für gerade 0%.

Gibt es da Verbesserungen?

RLZ
2018-10-25, 12:52:23
Ich finde den Satz eindeutig, aber ok. Für RT-> https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-24-oktober-2018
Sorry, aber der Satz ist Bullshit. Da ist ein massives Unverständnis hintendran wie Echtzeitrendering funktioniert.

Die Aussage ist genauso exakt wie die "Die Grafikkarte ist zu langsam für Pixelshading". Es ist halt schlicht kein Problem Pixelshader zu schreiben, die jede existierende Karte nicht mehr für Echtzeit Rendering nutzen kann. Genauso kann ich in meinem Budget für Raytracing bleiben oder es überschreiten.
Dazu kommt noch die irrsinnige Vorstellung, dass alles in voller Auflösung berechnet werden muss. Dabei wird das auch ohne Raytracing nur noch selektiv gemacht.

gbm31
2018-10-25, 12:56:08
Sorry, aber der Satz ist Bullshit. Da ist ein massives Unverständnis hintendran wie Echtzeitrendering funktioniert.



Mag mein Unverständnis so massiv sein wie du es sehen möchtest - eine 2080Ti schafft es grade mal so durch eine Techdemo. Wir reden hier noch nicht von einem Spiel in dem man sich ziemlich frei bewegt.

Wie soll es dann eine 2070 schaffen rein mit ihrer Hardwareausstattung.

Ohne RT ist die 2070 nicht mehr als eine gute 1080.

Schweb weiter in deinen Sphären.

Raff
2018-10-25, 13:27:14
Sorry, aber der Satz ist Bullshit. Da ist ein massives Unverständnis hintendran wie Echtzeitrendering funktioniert.

Die Aussage ist genauso exakt wie die "Die Grafikkarte ist zu langsam für Pixelshading". Es ist halt schlicht kein Problem Pixelshader zu schreiben, die jede existierende Karte nicht mehr für Echtzeit Rendering nutzen kann. Genauso kann ich in meinem Budget für Raytracing bleiben oder es überschreiten.
Dazu kommt noch die irrsinnige Vorstellung, dass alles in voller Auflösung berechnet werden muss. Dabei wird das auch ohne Raytracing nur noch selektiv gemacht.

Ist das nur eine (valide) Anmerkung deinerseits oder weißt du als Entwickler mehr? :) Es sollte klar sein, dass bei einer Differenz von 10 zu 6 Jiggarays/s ;) (-40 Prozent) und einem Optimierungs-Target auf dem ersten Leistungswert die zweite SKU nur sucken kann.

MfG,
Raff

RLZ
2018-10-25, 13:33:53
eine 2080Ti schafft es grade mal so durch eine Techdemo.
Eine Techdemo als Performance-Maßstab zu nehmen ist schon extremst absurd.
Hohe Framerate ist wohl sehr selten ein Entwicklungsziel einer Techdemo.

AffenJack
2018-10-25, 13:47:15
Ist das nur eine (valide) Anmerkung deinerseits oder weißt du als Entwickler mehr? :) Es sollte klar sein, dass bei einer Differenz von 10 zu 6 Jiggarays/s ;) (-40 Prozent) und einem Optimierungs-Target auf dem ersten Leistungswert die zweite SKU nur sucken kann.

MfG,
Raff

Seit wann gibts keine Regler mehr? Es wird nicht nur RT an oder aus geben. Wenn RT auf High auf der 2080Ti bei 1080p mit 60Fps läuft, dann machts nur Sinn für den Entwickler RT Low/Middle auf der 2070 bei 60Fps zu optimieren.
Z. B. könnte die 2070 Raytracing nur bei halber Auflösung rendern. Bevor hier Leute aufschreien, Screen Space Reflections werden zumindest bei BF schon immer bei halber Auflösung gerendert. Man erhält also die gleiche Auflösung der Reflexion wie immer, aber mit den Vorteilen von RT (Unabhängigkeit vom Monitorinhalt der Reflexion).

Raff
2018-10-25, 14:02:24
Das Problem ist, dass "High" bereits ein hochoptimiertes Cheat-Gebilde sein muss, da die Leistung für volles Raytracing (also n-fache Berechnungen pro Pixel) wohl erst in einer Dekade ausreicht. Mittel und Low haben dann das Risiko, arg hässlich zu werden. Mit den Jahren und der Erfahrung wird das hübscher. Mit etwas Glück beweist DICE jedoch ein gutes Händchen, das sind schließlich keine Amateure. Allerdings hat man sich dort auch von DX12 mehr versprochen ...

MfG,
Raff

RLZ
2018-10-25, 14:11:29
Es gibt eh nicht DEN Raytracing Effekt. Man kann tausende Sachen damit machen und nicht alles wird mit der aktuellen Generation sinnvoll umsetzbar sein.
Screen Space Reflections werden zumindest bei BF schon immer bei halber Auflösung gerendert.
Wobei mit halber Auflösung normal 25% der Pixel gemeint ist.

gbm31
2018-10-25, 15:53:33
Eine Techdemo als Performance-Maßstab zu nehmen ist schon extremst absurd.
Hohe Framerate ist wohl sehr selten ein Entwicklungsziel einer Techdemo.


Da meine Zielgruppe als Grafikkartenhersteller für Spiele(r) (RTX, nicht Quadro) auf hohe Frameraten UND gute Optik steht würde ich genau das in einer Techdemo zeigen.

Da das nicht gezeigt wurde (werden konnte) ist die Erwartung genau die wie sie sich darstellt: extrem kritisch und zweifelnd. ;-)

RLZ
2018-10-25, 16:40:00
Da meine Zielgruppe als Grafikkartenhersteller für Spiele(r) (RTX, nicht Quadro) auf hohe Frameraten UND gute Optik steht würde ich genau das in einer Techdemo zeigen.
Erstmal haben sie mit der Star Wars Demo gezeigt, dass eine Demo, die vorher 4 Voltas benötigt hat um irgendwie zu laufen, nun auf einer einzigen Karten läuft. Eigentlich beeindruckend, aber manche finden halt alles schlecht :)

gbm31
2018-10-25, 17:57:50
Erstmal haben sie mit der Star Wars Demo gezeigt, dass eine Demo, die vorher 4 Voltas benötigt hat um irgendwie zu laufen, nun auf einer einzigen Karten läuft. Eigentlich beeindruckend, aber manche finden halt alles schlecht :)

Wie toll. Ich stelle mit 4 nicht-RT-Karten RT-Effekte dar, die eine Karte mit RT-Technik allein kann. Hast du auch sowas wie Argumente?


Wobei, weisst was? Du hast Recht und ich meine Ruhe.

RLZ
2018-10-25, 18:08:17
Wobei, weisst was? Du hast Recht
Späte Einsicht. :biggrin:

dargo
2018-10-25, 23:18:38
Späte Einsicht. :biggrin:
Der Klügere gibt nach. ;)

RLZ
2018-10-25, 23:49:06
Der Klügere gibt nach. ;)
Die Aussage "zu langsam" für einen undefinierten Workload macht halt keinen Sinn. Egal in welchem Kontext.
"Zu langsam für Auflösung xy" bei Rasterisierung ist genauso Schwachsinn. Wobei man sich dort wenigstens auf existierende Software berufen kann. Die Diskussion führe ich aber gerne überall.

pixeljetstream
2018-10-26, 07:25:03
Die SW demo wurde von Qualität solange verändert um bissl was über 24 FPS auf den voltas zu schaffen. Das Ziel war eine Demo für pre-vis/production Tools in Film & Fernsehen. Der Fokus war nicht Gaming. Die Qualität des Materials/Einstellungen wird von Lucasfilm/Disney abgesegnet.
Auf der Siggraph zeigte ILM wie man in VR diese Szene "drehte" der virtuelle Kameramann bekam dann das raytracing Bild.

Ergo war das Ziel die 24fps mit einer Karte zu schaffen, das hat man dann gut überboten mittlerweile.

Die Gigarays kann man imo ignorieren, Marketing Zahl. Man kann ja im whitepaper lesen wie es gemessen wurde, primary rays simples shading, komplett statische szene aus einem objekt, der haupteinsatz von raytracing sind aber secondary rays und komplexere Szenen (nicht falsch verstehen es ist immer noch schnell im Vergleich zu vorher, aber so ne Zahl ist halt sinnfrei). Am Ende ist das Zusammenspiel aus Shading und Intersections entscheidend und super Content abhängig.

Raytracing in gaming kann beliebig genutzt werden jenseits von "pixel shading". Teile der 4k/144Hz Fraktion sind sicherlich zurecht skeptisch was diese Technik angeht, aber imo sehen sie nicht das late-game bei technischen Entwicklungen und deren Evolution (das müssen sie auch nicht für aktuelles).
Die Probleme die raytracing angeht, Divergenz und räumliche Datenstrukturen, sind universell.

Dural
2018-10-26, 09:41:26
Es wurde doch schon bestätigt das BF in 4K mit RT auf einer 2080Ti laufen soll. Aber wohl kaum in der Qualität wie man es zur Vorstellung gesehen hat.

Rancor
2018-10-26, 09:52:49
Von wem? 1080p@60FPS für eine 2080TI wurden von DICE bestätigt. In 4k kannst du froh sein wenn du die 30 FPS noch hast.

Dural
2018-10-26, 10:16:22
Ich weis nicht mehr wo, hab es letzte Woche gelesen.

Die Demo lief in 1080p60, ja.

4pple
2018-11-04, 15:51:23
Benchmarks TU106-400 vs. TU106-400A (EVGA GeForce RTX 2070 Black vs. EVGA RTX 2070 XC Ultra)
https://www.gamersnexus.net/hwreviews/3386-nvidias-secret-gpu-tu106-400-vs-400a-2070-xc-ultra-review

mironicus
2018-11-17, 19:40:18
Hier hat ein Youtuber genau die gleichen Probleme mit einer Custom RTX 2070, die auch schon mit der RTX 2080 Ti aufgetreten sind. Während er Battlefield V gespielt hat, sind die typischen Space Invaders-Symbole aufgetreten.
https://www.youtube.com/watch?v=ewiFtgfK0KY

Loeschzwerg
2018-11-29, 12:36:37
Weiß jemand, ob es TU106 auch für itx geben wird? Also max 17 cm Länge. Bei Pascal gab es ja die Gigabyte mini Modelle.

Gigabyte legt mit einer kleinen ITX Karte los:
https://www.computerbase.de/2018-11/gigabyte-geforce-rtx-2070-mini-itx/

SKYNET
2018-11-29, 14:56:17
Hier hat ein Youtuber genau die gleichen Probleme mit einer Custom RTX 2070, die auch schon mit der RTX 2080 Ti aufgetreten sind. Während er Battlefield V gespielt hat, sind die typischen Space Invaders-Symbole aufgetreten.
https://www.youtube.com/watch?v=ewiFtgfK0KY


wohl doch mehr als nur der speicher... ;D

ich tippe auf nen vollkommen missgestalteten speicherkontroller, der bei vielen karten nach kurzer zeit stirbt.

dildo4u
2018-11-29, 14:59:29
Das ist auch ein Speicherfehler,die erste Charge 2070 nutzt den selben Micron Speicher wie die großen Karten.Das interessante wäre ob das mit Karten mit Samsung Speicher auch auftritt.

pilzsammler2002
2018-11-29, 15:04:19
Das ist auch ein Speicherfehler,die erste Charge 2070 nutzt den selben Micron Speicher wie die großen Karten.Das interessante wäre ob das mit Karten mit Samsung Speicher auch auftritt.
Soweit ich weiss waren schon RMA Karten mit Samsung betroffen....

dildo4u
2018-11-29, 15:08:06
Klar gibt es Samsung Karten mit Defekten,die Frage ist ob diese über den üblichen 5% liegen.

Raff
2018-12-18, 12:59:40
RTX 2070 ist kein Thema bei euch? IMO die interessanteste der neuen Karten, weil fast preiswert. Für die Video-Freunde:

MSI RTX 2070 Armor vs. Gaming Z | Was wird für den Aufpreis geboten? (https://www.youtube.com/watch?v=ZfHV-9i-Ss4)

~510 vs. ~630 Euro

MfG,
Raff

Pitman
2018-12-18, 13:53:35
Schönes Video. Ich hätte mir hier aber noch die Msi rtx2070 Armor OC gewünscht;)

Raff
2018-12-18, 14:33:32
Hey,

die hat laut Spezifikationsübersicht (https://de.msi.com/Graphics-card/GeForce-RTX-2070-ARMOR-8G-OC/Specification) 185 statt 175 Watt sowie eine werkseitige Übertaktung. Erzielt also 40-41 Fps bei vergleichbarer Lautstärke (Armor: ~39, Gaming Z: ~43 Fps). Ihr Vorteil ist, dass man hier dank A-GPU wohl auch ein Gaming-Z-BIOS aufspielen könnte ... ;)

MfG,
Raff

Geächteter
2018-12-18, 15:09:15
RTX 2070 ist kein Thema bei euch? IMO die interessanteste der neuen Karten, weil fast preiswert. Für die Video-Freunde:

"Preiswert", aber leider nur für 1070-Besitzer und abwärts interessant und AMD-Besitzer werden wohl seltener zu Nvidia greifen, erst recht nicht zu dieser Lederjacke auf Turing.

Rancor
2018-12-18, 16:26:38
Auch für 1070er Besitzer ist das nur bedingt interessant.

Pitman
2018-12-18, 17:25:33
Hey,

die hat laut Spezifikationsübersicht (https://de.msi.com/Graphics-card/GeForce-RTX-2070-ARMOR-8G-OC/Specification) 185 statt 175 Watt sowie eine werkseitige Übertaktung. Erzielt also 40-41 Fps bei vergleichbarer Lautstärke (Armor: ~39, Gaming Z: ~43 Fps). Ihr Vorteil ist, dass man hier dank A-GPU wohl auch ein Gaming-Z-BIOS aufspielen könnte ... ;)

MfG,
Raff

Deswegen wäre für mich die Armor Oc auch spannender gewesen.

Die Fragen wären dann:

Ist der Kühler besser als bei der non OC konstruiert
Läuft das Gaming Z BIOS tatsächlich auf der OC. Wenn ja wie verhält sich dann die Temperatur bzw.. die Bootfrequenz

Bis dann :)

Andi Y
2018-12-21, 22:04:17
Habe selber eine Armor OC. Das Gaming Z BIOS geht zu flashen.
Die Lüfter laufen dann nicht mehr synchron. Die Temperaturen im geschlossenen Gehäuse sind bei mir dann so 75 Grad. Lüfter natürlich hörbar.
Boost ~ 1935 Mhz, Kühler scheint der gleiche zu sein wir bei der normalen Armor.
Da mir die Lüftersteuereung von MSI nicht gefällt, habe ich bei mir das Palit Gamerock Premium BIOS drauf. Dort laufen die Lüfter permanent mit 19% und dann ansteigend.
Bei MSI jaulten sie immer wenn 60 Grad erreicht waren. Boost jetzt 1890 - 1920 Mhz und um die 74 Grad.

Pitman
2018-12-22, 13:15:46
Vielen Dank für die Ausführungen. Ich besitze auch die Msi 2070 OC. Vorher hab ich die Msi gtx 980 Gaming 4g im gleichen Gehäuse betrieben. Bisher bin ich recht zufrieden mit der neuen OC, jedoch „heult“ auch meine Karte bei ca. 60 Grad immer mal wieder auf. Da sie sonst sehr leise ist ein doch gewöhnungsbedürftiges Verhalten. Meine Msi 980 hatte diese Verhalten so nicht.

Werde das mal weiter beobachten.

Mit freundlichen Grüßen

aufkrawall
2018-12-22, 13:20:25
Einfach Custom Kurve ohne ZeroFan nutzen, die Lüfter dürften sich bis in den unhörbaren Bereich runterregeln lassen.

Andi Y
2018-12-23, 13:32:12
Kleines Update.
In fordernden Szenen wie der NVIDIA Asteroids Tech-Demo Benchmark boosted de Karte mit dem Palit BIOS mit 1890 Mhz bei 74 Grad.
Bezüglich Lüfter, fand es blöd, dass der AB immer mit starten soll. Beim Palit BIOS laufen die Lüfter unhörbar mit 19% bei ca. 500 rpm.
Vers. 90.06.18.00.C2, ...C1 ist das quite BIOS mit Fan-Stop.

Timbaloo
2019-01-02, 16:06:07
RTX 2070 ist kein Thema bei euch? IMO die interessanteste der neuen Karten, weil fast preiswert. Für die Video-Freunde:

MSI RTX 2070 Armor vs. Gaming Z | Was wird für den Aufpreis geboten? (https://www.youtube.com/watch?v=ZfHV-9i-Ss4)

~510 vs. ~630 Euro

MfG,
Raff
Hmmmm, die Gaming Z juckt mich ja... Ich warte mal die CES ab...

Die Gaming Z dürfte so ziemlich die leiseste 2070 sein, oder kennst noch was leiseres @raff?

dildo4u
2019-01-02, 16:18:32
Die Palit Jetstream soll genau so laut sein,die ohne OC kostet 550€ bei Mindfactory.


https://www.guru3d.com/articles_pages/palit_geforce_rtx_2070_super_jetstream_review,10.html

Timbaloo
2019-01-02, 16:35:12
Die Palit Jetstream soll genau so laut sein,die ohne OC kostet 550€ bei Mindfactory.


https://www.guru3d.com/articles_pages/palit_geforce_rtx_2070_super_jetstream_review,10.html
Hmmmm, interessant. Ist das immer der identische Kühler bei den Jetstream-Modellen? Egal ob 2070/2080 oder Jetstream vs. Super Jetstream? Und der Unterschied zwischen "Super" und Nicht-"Super" ist nur Werks-OC und wahrscheinlich nicht A1-Silikon?

Aber alter, was für einen Variantendschungel die Hersteller aufmachen ist echt nicht mehr normal...

Ex3cut3r
2019-01-02, 16:48:33
So war es zumindest bisher immer ja, da teureren Modelle takteten halt immer out of the box etwas höher, aber der Kühler war der gleiche. Bei Turing sollte es auch so sein, aber keine Garantie von mir. ;)

Früher gabs auch keine Selektion oder sowas, bei Turing gibt es ja jetzt die A und B Chips.

Timbaloo
2019-01-02, 17:16:36
Was für eine Relevanz hat A/B-Chip denn wenn man Übertaktbarkeit ignoriert? Leistungsaufnahme (im Sinne von Effizienz)?

Ex3cut3r
2019-01-02, 17:18:43
Sehr gute Frage, ich denke mal keine, Undervolting ist genau so eine Glückssache wie OCen allgemein, aber mal sehen was andere sagen.

dildo4u
2019-01-02, 17:23:31
Vermutlich wenn man Undervolting betreibt könnten sie Vorteile haben,ansonsten sind die B Chips extrem harmlos eingestellt.
2070 B Chip TDP ist 175,die 2070 FE liegt z.b bei 185.

Timbaloo
2019-01-02, 17:24:18
Undervolting wäre prinzipiell interessant, aber realistisch habe ich die letzten Karten immer @Stock betrieben und auf Effizienz (beim Chip) und leistungsstarke Kühler gesetzt, und bin damit gut gefahren.

aufkrawall
2019-01-02, 17:36:31
Wie willst du denn vor Turing-Selektierung auf "effiziente Chips" gesetzt haben?

Timbaloo
2019-01-02, 17:58:09
Wie willst du denn vor Turing-Selektierung auf "effiziente Chips" gesetzt haben?
Naja, GP104 = effizient, im Gegensatz zu dem was die Konkurrenz damals zu bieten hatte.

x-force
2019-01-02, 18:08:02
es gab auch bei maxwell schon selektierte chips... was meint ihr warum es keine angezeigte asic qualität mehr für den verbraucher gibt. nvidia und partner haben schon lange ein raster.

aufkrawall
2019-01-02, 18:12:35
Naja, GP104 = effizient, im Gegensatz zu dem was die Konkurrenz damals zu bieten hatte.
Ach so, du wolltest nur trollen.

Timbaloo
2019-01-02, 19:09:16
Ach so, du wolltest nur trollen.
Was willst du jetzt hier für eine schlechte Stimmung reinbringen? Vollkommen unnötig was du hier ablässt.

Freestaler
2019-01-02, 19:49:11
Was willst du jetzt hier für eine schlechte Stimmung reinbringen? Vollkommen unnötig was du hier ablässt.

*Hust* https://www.quora.com/Which-graphics-card-has-the-best-performance-per-watt-rating-Any-graphics-card-from-Nvidia-and-AMD ... Zumindest gflop per watt stimmt deine Aussage einfach schonmal nicht. Per Fps sieht sehr ändlich aus. Die Stimmung ist natürlich heiterer wenn wir alle im 3dc selbst bejaen und alle Aussagen abfeiern.

24p
2019-01-02, 19:55:50
Nein sieht es eben nicht.

Timbaloo
2019-01-02, 19:57:06
Klar sind größere Chips der gleichen Architektur immer ein wenig effizienter, aber halt auch absolut auf einem höheren Verbrauchsniveau. Aber mit GFLOP/W (TDP lol) ankommen, sorry, instant Disqualifizierung...

btt please....

dildo4u
2019-01-02, 19:59:44
*Hust* https://www.quora.com/Which-graphics-card-has-the-best-performance-per-watt-rating-Any-graphics-card-from-Nvidia-and-AMD ... Zumindest gflop per watt stimmt deine Aussage einfach schonmal nicht. Per Fps sieht sehr ändlich aus. Die Stimmung ist natürlich heiterer wenn wir alle im 3dc selbst bejaen und alle Aussagen abfeiern.

Das war maximal mit Pascal noch der Fall,RTX ist deutlich potenter was Compute angeht.

https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/47944-geforce-rtx-2070-von-evga-im-doppeltest.html?start=8

Tesseract
2019-01-02, 20:05:28
*Hust* https://www.quora.com/Which-graphics-card-has-the-best-performance-per-watt-rating-Any-graphics-card-from-Nvidia-and-AMD ... Zumindest gflop per watt stimmt deine Aussage einfach schonmal nicht.

an dieser auflistung stimmt einfach überhaupt nix. TDP ist nicht der realverbrauch (erst recht nicht wenn nicht korrekt gemessen), tflops bei baseclock ist nicht der reale throughput der chips und tflops generell entsprechen nicht der 1:1 der leistungsfähigkeit.

Freestaler
2019-01-02, 20:08:06
Das war maximal mit Pascal noch der Fall,RTX ist deutlich potenter was Compute angeht.

https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/47944-geforce-rtx-2070-von-evga-im-doppeltest.html?start=8

Ja, und? Die Frage war ja, VOR Turing und die Antwort war GP104 sei effizenze Wahl aller erhältlichen GPU (@Stock). Und das diese Aussage falsch ist, zeigt auch dein Link.

Troyan
2019-01-02, 20:08:13
Was für eine Relevanz hat A/B-Chip denn wenn man Übertaktbarkeit ignoriert? Leistungsaufnahme (im Sinne von Effizienz)?

Die Nicht-A-Chips kommen auf den "Billig"-Versionen zum Einsatz, wo das TDP-Limit beschnitten und die Herstellerübertaktung eingeschränkt ist. Daher können diese Karten mit die effizientesten sein, da nicht mehr das letzte Quäntchen Leistung rausgepresst werden darf.

aufkrawall
2019-01-02, 20:10:28
Was willst du jetzt hier für eine schlechte Stimmung reinbringen? Vollkommen unnötig was du hier ablässt.
Ah ja. Weil dir Effizienz so wichtig ist, hast du ja auch nie UV probiert. :rolleyes:

Timbaloo
2019-01-02, 20:13:21
Ah ja. Weil dir Effizienz so wichtig ist, hast du ja auch nie UV probiert. :rolleyes:
Doch habe ich. Doch wenn es nicht notwendig ist um eine Karte akzeptabel leise zu bekommen mache ich es nicht zwangsläufig.

Lass es einfach sein, kein Bock deine Komplexe zu kompensieren. OK?

aufkrawall
2019-01-02, 20:14:57
Gegen AMD trollen, sich beschweren, wenn man das anspricht, und dann selber Gift speien. Typisch Timbaloo. :cool:

dildo4u
2019-01-02, 20:18:19
Ja, und? Die Frage war ja, VOR Turing und die Antwort war GP104 sei effizenze Wahl aller erhältlichen GPU (@Stock). Und das diese Aussage falsch ist, zeigt auch dein Link.

Für Games stimmt es natürlich selbst im Best Case für Vega,bei Wolf 2 ist die 1080 FE auf Level mit Vega 56,die aber im Gegensatz zur Nvidia Karte nicht unter 200Watt für die ganze Karte kommt.

https://www.guru3d.com/articles_pages/msi_geforce_rtx_2070_armor_8g_review,24.html

Timbaloo
2019-01-02, 20:18:59
Gegen AMD trollen, sich beschweren, wenn man das anspricht, und dann selber Gift speien. Typisch Timbaloo. :cool:

Ich habe nicht gegen AMD getrollt, du hast nachgefragt, dir hat die Antwort nicht gefallen. Ende.

aufkrawall
2019-01-02, 20:24:57
Du trollst ständig implizit. Etwa impliziert dein vorletztes Post, AMD-Karten wären wegen des Mehrverbrauchs grundsätzlich laut. Was natürlich Quatsch ist, weil es genug Karten gibt, die entsprechend die Kühlermasse mitskalieren.
Du brauchst mir auch nichts erzählen, ich hatte selber eine MSI 1070 Gaming X. Die lief ohne UV mühelos bei 220W in die Drosselung in 4k...

Ex3cut3r
2019-01-02, 20:25:08
an dieser auflistung stimmt einfach überhaupt nix. TDP ist nicht der realverbrauch (erst recht nicht wenn nicht korrekt gemessen), tflops bei baseclock ist nicht der reale throughput der chips und tflops generell entsprechen nicht der 1:1 der leistungsfähigkeit.

:up: Kann ich alles so unterschreiben.

SKYNET
2019-01-02, 23:04:08
an dieser auflistung stimmt einfach überhaupt nix. TDP ist nicht der realverbrauch (erst recht nicht wenn nicht korrekt gemessen), tflops bei baseclock ist nicht der reale throughput der chips und tflops generell entsprechen nicht der 1:1 der leistungsfähigkeit.


beim ersten punkt muss ich dir teils widersprechen, Igor misst bei den revferenzkarten eigentlich immer ziemlich genau die Hersteller angaben. :wink:

Freestaler
2019-01-02, 23:31:06
an dieser auflistung stimmt einfach überhaupt nix. TDP ist nicht der realverbrauch (erst recht nicht wenn nicht korrekt gemessen), tflops bei baseclock ist nicht der reale throughput der chips und tflops generell entsprechen nicht der 1:1 der leistungsfähigkeit.
Ja, stimmt vorallem was die 1:1 TFlops auf Frames angeht, daher auch angesprochen. Die Tabelle war auf die schnelle und tritt wohl nur auf Dinge wie Dx12 oder Vulkan Titel zu. Nichts desto trotz, die 1080 haut pro Watt mehr Frames raus als die 1070. Seine Aussage stimmt einfach nicht. Ich lass es. Reine Harmonie bedarf.

https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-test/6/#diagramm-performance-pro-watt-3840-2160

The_Invisible
2019-01-12, 08:17:53
Bringt es überhaupt was den Speicher bei der 2070er zu übertakten? Hat ja immerhin die gleiche Bandbreite wie die 2080er, da sollte es ja nicht so schnell zum Mangel kommen, außer die 2080er hätte zu wenig Bandbreite.

SKYNET
2019-01-12, 10:23:53
Bringt es überhaupt was den Speicher bei der 2070er zu übertakten? Hat ja immerhin die gleiche Bandbreite wie die 2080er, da sollte es ja nicht so schnell zum Mangel kommen, außer die 2080er hätte zu wenig Bandbreite.

2080 hat zuwenig... slebst die 1080Ti ist schon verhungert, und die hat ein wenig mehr bandbreite sogar...

BlacKi
2019-01-12, 11:27:36
Bringt es überhaupt was den Speicher bei der 2070er zu übertakten? Hat ja immerhin die gleiche Bandbreite wie die 2080er, da sollte es ja nicht so schnell zum Mangel kommen, außer die 2080er hätte zu wenig Bandbreite.
kommt aufs game an. manche brauchen viel mem bandwith, andere weniger. so kann man zwischen 1070ti und 1080 extreme unterschiede in manchen games beobachten.

Deathcrush
2019-01-12, 12:34:07
Die 2070er ist ja ein richtiges beast :D Bei Destiny 2 steigen die Frames in kritischen stellen um 30 FPS und mehr! Auf Nessus gibt es stellen bei einem Event, wo die Frames auf 60FPS fallen mit meiner Vega56. Mit der MSI 2070 Gaming Z fallen die Frames nicht unter 90 FPS (!) Jetzt muss nur noch Freesync funktionieren und ich bin glücklich und wieder im grünen Lager :D :D

Deathcrush
2019-01-12, 15:25:29
Grafikkarte scheint ein defekt zu haben, gerade mal nen Testprogramm laufen lassen und dort werden Artifakte angezeigt :( Aus dem Mindstar gekauft und es war auch eine gebrauchte Grafikkarte, was ja nicht so schlimm wäre, wenn sie dann Ok wäre

sulak
2019-01-12, 18:25:52
Oder du hast eine aus der 1. Charge erwischt mit GammelRAM: https://www.pcbuildersclub.com/2018/11/defekte-rtx-2080-ti-nvidia-wechselt-beim-gddr6-speicher-von-micron-zu-samsung/

crux2005
2019-01-12, 21:22:22
Grafikkarte scheint ein defekt zu haben, gerade mal nen Testprogramm laufen lassen und dort werden Artifakte angezeigt :( Aus dem Mindstar gekauft und es war auch eine gebrauchte Grafikkarte, was ja nicht so schlimm wäre, wenn sie dann Ok wäre

Was war das Testprogramm?

Oder du hast eine aus der 1. Charge erwischt mit GammelRAM: https://www.pcbuildersclub.com/2018/11/defekte-rtx-2080-ti-nvidia-wechselt-beim-gddr6-speicher-von-micron-zu-samsung/

FUD

sulak
2019-01-13, 12:43:51
Na bei Zotac kann man sogar zuschauen, wie die Karten hergestellt und der Kühler draufgeklatscht wird :D

BIi36PvZojE

dargo
2019-01-13, 13:23:24
Immer wieder interessant sowas zu sehen. Mir tun die Mitarbeiter aber echt leid. Ich würde durchdrehen bei so einer eintönigen Fließbandarbeit. X-D

btw.
Die Maschine die die WLP dort verteilt hat habe ich nicht verstanden. Das sah so aus als ob die Pampe über das ganze PCB verteilt wurde. :freak:

PS: jetzt wissen wir wofür der Schnullermark zu gebrauchen ist. ;D

Timbaloo
2019-01-13, 13:29:42
btw.
Die Maschine die die WLP dort verteilt hat habe ich nicht verstanden. Das sah so aus als ob die Pampe über das ganze PCB verteilt wurde. :freak:
Öhmmm, du verwechselst das gerade nicht mit der Lötpaste?

Die WLP kommt auf den Kühler (5:58 sieht man den Kühler mit WLP).

dargo
2019-01-13, 13:36:57
Öhmmm, du verwechselst das gerade nicht mit der Lötpaste?

Möglich. :freak:

crux2005
2019-01-13, 18:42:15
Na bei Zotac kann man sogar zuschauen, wie die Karten hergestellt und der Kühler draufgeklatscht wird :D

https://youtu.be/BIi36PvZojE

Oh, meine Karte <3 :biggrin:

The_Invisible
2019-01-16, 08:51:53
Habe jetzt durch einen guten Verkauf meiner Gamerock 1070 auch auf eine MSI Armor 2070 nonOC aufgerüstet, 2,5 Jahre die gleiche Graka war doch langsam fad.

Mit 114% PT (200W) sind so 1900 - 1950 Boost stabil, hängt aber in 4k quasi permanent im PT Limit und der Boost schwankt manchmal doch ganz schön. Gibt schon einen netten Performance Boost gegenüber der 1070er, hätte ich so nicht erwartet.

Leise ist aber echt relativ, war da von meiner Gamerock anscheinend schon sehr verwöhnt. Die MSI wird zwar nicht laut aber doch hörbarer als die Gamerock, dabei sollte diese MSI ja schon zu den leisesten gehören. Werde mal weiter testen, Mem OC mit +500 war bist jetzt auch kein Problem (Micron).

Raff
2019-01-16, 09:16:50
Undervolte das Ding per Kurveneditor, dann kommst du etwas aus dem Powerlimit heraus und sparst auch Lärm ein. :)

MfG,
Raff

Deathcrush
2019-01-18, 14:16:40
Heute kam endlich meine Austauschkarte von MF, nagelneu! Und mit Samsungspeicher. Freesync funktioniert tadellos, sogar besser als mit der Vega56 ;D (kein Freesyncgeflacker mit der 2070). The Division scheint auch zu gehen (bisher nur einmal getestet)

The_Invisible
2019-01-18, 14:17:18
Danke, werde ich mal am WE versuchen.

Je nach Game gibt es schon mal 80Mhz Unterschied im max. Takt, vor allem Tropico 6 haut ganz schön rein. Ansonsten bin ich soweit schon mal ganz zufrieden, mir kommt auch vor sie ist leiser geworden ;D

Timbaloo
2019-01-18, 14:30:06
@ Deathcrush: Ist die Gaming Z wirklich so leise? Und danke für die Info, dass die Austauschkarte Samsung hat. Würde ich wissen, dass eine neu bestellte direkt Samsung hat, hätte ich schon den Abzug gedrückt...

Deathcrush
2019-01-18, 21:45:43
Die ist so richtig leise. 1950 Boost Takt, 64C und die Lüfter bleiben unter 900 bzw der zweite um die 700

EDIT

https://abload.de/thumb/bf10uje9.jpg (http://abload.de/image.php?img=bf10uje9.jpg)

Timbaloo
2019-01-18, 22:12:43
Nice. Ich glaube ich frage mal bei MSI nach wegen Micron/Samsung.

Raff
2019-01-18, 22:13:15
Das werden sie dir nicht garantieren können. Ich habe diese Woche sechs RTX-2060-Karten durchgenommen und da war's 50:50 zwischen Micron und Samsung.

MfG,
Raff

Ex3cut3r
2019-01-18, 22:13:44
Die ist so richtig leise. 1950 Boost Takt, 64C und die Lüfter bleiben unter 900 bzw der zweite um die 700

EDIT

https://abload.de/thumb/bf10uje9.jpg (http://abload.de/image.php?img=bf10uje9.jpg)

Da kommt keine Radeon dran, nicht im Leben. :biggrin: :wink:

Timbaloo
2019-01-18, 22:17:42
Das werden sie dir nicht garantieren können. Ich habe diese Woche sechs RTX-2060-Karten durchgenommen und da war's 50:50 zwischen Micron und Samsung.

MfG,
Raff
Ja, befürchte ich auch. Aber Katze im Sack kaufe ich halt nicht.

Raff
2019-01-18, 22:18:36
Naja, sind's 0 bis bestenfalls 300 MHz mehr wert? :) Ab Werk nehmen sich die Dinger schließlich nichts.

MfG,
Raff

Deathcrush
2019-01-18, 22:19:28
Ich dachte NV hätte schon vor längeren auf Samsung umgestellt und MF hat jetzt nen schwung komplett neue MSI Gaming Z bekommen, die vorherigen waren alle ausverkauft.

Da kommt keine Radeon dran, nicht im Leben. :biggrin: :wink:

Ich bin echt wieder froh im grünen Lager zu sein :D Alleine schon die Treiber waren von AMD echt schrecklich bzw ein Überraschungspaket. Und die Vega56 war ein echter Hitzkopf

Timbaloo
2019-01-18, 22:27:58
Naja, sind's 0 bis bestenfalls 300 MHz mehr wert? :) Ab Werk nehmen sich die Dinger schließlich nichts.

MfG,
Raff
Mir geht's nicht um RAM OC, sondern um die Probleme mit Micron RAM. Hab kein Bock auf einbauen, ausbauen, RMA. Und das scheint ja nun wirklich nicht der Einzelfall zu sein.

Deathcrush
2019-01-18, 22:31:56
Laut dem Link werden nur noch Grafikkarten mit Samsungspeicher verkauft

https://www.pcbuildersclub.com/2018/11/defekte-rtx-2080-ti-nvidia-wechselt-beim-gddr6-speicher-von-micron-zu-samsung/

The_Invisible
2019-01-21, 07:41:13
Mit UV bin ich jetzt mal soweit bei 1905 Mhz bei ca. 930mV rausgekommen. In Tropico 6 4k hängt das Teil aber teilweise noch immer voll im PowerLimit 114%, zumindest schwankt es jetzt nur mehr selten auf 1890 zurück. Zudem ist auch die Temp & Lüfterdrehzahl zurückgegangen.

Gibts hier schon andere mit Erfahrungen in UV? Die Gaming Z scheint ja schon standardmäßig 225W zu haben, was geht da eigentlich maximal & vom Takt her? :D