PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 2080/Ti Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 [16] 17 18 19

Ex3cut3r
2019-02-16, 14:34:41
Man sollte auf jedenfall das Bios-Update bei der Gigabyte machen, da die Lüftersteuerung verbessert wurde: https://www.gigabyte.com/Graphics-Card/GV-N2080GAMING-OC-8GC#support-dl-bios

Ohne das Update nervt der Zero-Fan Modus ungemein.

Habe selbst die Gigabyte Gaming OC, dass BIOS Update für den Zero Fan Bug bringt nix, am besten Custom Fan Kurve mit 29% Minimum und der Bug ist Geschichte.

Linmoum
2019-02-16, 16:26:07
Hab die Karte mittlerweile drin, dass mit den Lüftern ist echt nervtötend. Weiß nicht, wie sowas durch die QA kommen kann. Zum Glück einfach zu fixen.

Ansonsten keine Ahnung, was Nvidia da bzgl. Verbrauch (Treiber ist der aktuelle 418.91) gefixt haben will, im Multi-Monitor zieht die GPU 50W, der Speicher läuft mit vollem Takt und die GPU mit ~1300MHz. Über den NV Inspector und Power Saver ist das aber auch gefixt.

Ansonsten hat meine Karte schon das 300W-Bios drauf, logischerweise A-Chip und der GDDR6 ist von Samsung. Mal schauen, was da alles geht.

Edit: Zum Abend hin mal etwas Zeit gehabt. Witcher 3 in UHD boostet die Karte standardmäßig mit 1875MHz, mit OC Scanner (ohne PT-Erhöhung) sind es ~1965MHz. Mem OC folgt als nächstes, erst einmal mit Witcher 3 und Fallout 4 geschaut, wie so die Performancegewinne gegenüber (m)einer Vega64 sind. Beides UHD @max Details (Witcher ohne Hairworks).


Fallout 4 (52fps vs. 17fps (!!), +206% (!!!))

2080 (1995MHz GPU, RAM @Stock)
https://abload.de/img/fallout4_2019_02_16_2rdjiu.jpg
Vega64 (GPU ~1450MHz, HBM 1020MHz):
https://abload.de/img/fallout4_2019_02_16_12skdd.jpg
Witcher 3 (56fps vs. 39fps, +44%)

2080 (1965MHz GPU, RAM @Stock)
https://abload.de/img/witcher3_2019_02_16_2tbjk8.jpg
Vega64 (1410MHz GPU, HBM 1020MHz)
https://abload.de/img/witcher3_2019_02_15_2kukwn.jpg

Mit Mem OC dürfte ich beim Witcher dann auch bei >=50% landen. Lustigerweise zieht mein Rechner im Witcher bei beiden Karten (hinterm Netzteil) mit rund 355W ziemlich exakt dasselbe. Was Fallout betrifft hab ich nicht die leiseste Ahnung. :freak: Hab ich erst gestern frisch installiert gehabt und bisher auch nur den Vergleich damit angestellt. Waren jeweils die aktuellsten Treiber. Selbst in dem Dorf am Anfang hab ich mit der Vega nur ~30fps, da sind's auf der 2080 60fps locked, also wahrscheinlich eher noch mehr. Auf jeden Fall spielbar jetzt. ;D

Troyan
2019-02-17, 08:14:22
Habe selbst die Gigabyte Gaming OC, dass BIOS Update für den Zero Fan Bug bringt nix, am besten Custom Fan Kurve mit 29% Minimum und der Bug ist Geschichte.

Gut zu wissen. Für eine 2080TI gibt es nämlich noch kein Bios... :mad:

Habe mal geschaut, wieweit ich meine 2080TI undervolten kann. Bin jetzt bei 1800Mhz mit 0,887V stabil. Wolfenstein 2 rennt damit zwar immer noch in Richtung 300W(...), aber Anthem und Metro liegen bei rund 240W. Da meine Karte bei über 1950Mhz sowieso aussteigt, werde ich das mal so belassen.
360W ist auch ziemlich viel Strom für den Kühler. :D

dargo
2019-02-17, 12:24:50
Weiß eigentlich einer was bei MF bezüglich RTX 2080TI los ist? Die haben nur noch drei TIs im Programm.
https://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/GeForce+RTX+fuer+Gaming/RTX+2080+Ti.html

Bestellen die nichts mehr nach?

btw.
Die Verkaufszahlen sind auch extrem mager. Und ist die weiße KFA2 vergoldet? :D

dildo4u
2019-02-17, 12:28:23
Yields werden immer noch kacke sein,bei Geizhals gibt es 37 Ti gegenüber 63 2080 Modelle auf Lager.

dargo
2019-02-17, 12:30:28
Bei 12nm? Strange... zumal die TIs noch "Abfall" Resteverwertung sind.

dildo4u
2019-02-17, 12:33:56
Ich mein Intel hat mit 14nm Probleme genug zu liefern,der 8700k ist immer noch bei 400€.Und das sind deutlich kleinere Chips.

dargo
2019-02-17, 12:46:21
Was hat denn Intel damit zu tun? Die lassen doch nicht bei TSMC fertigen. AMD hat übrigens keine Probleme in dem Zusammenhang. ;) Außerdem gibt es viele RTX 2080/2070.

MartinRiggs
2019-02-17, 12:46:51
Weiß eigentlich einer was bei MF bezüglich RTX 2080TI los ist? Die haben nur noch drei TIs im Programm.
https://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/GeForce+RTX+fuer+Gaming/RTX+2080+Ti.html

Bestellen die nichts mehr nach?

btw.
Die Verkaufszahlen sind auch extrem mager. Und ist die weiße KFA2 vergoldet? :D

Mindfactory macht das öfter, sie nehmen die Karten aus dem Programm bis Nachschub da ist, war bei dem Mindstar mit den vielen RTX2080 auch so, da war dann fast nichts mehr gelistet, ein paar Tage später wieder lieferbar.

Die schlechten Verkaufszahlen wundern mich nicht, die Preise sind und bleiben einfach eine Frechheit, aber laut Hr. Lederjacke sind wir ja alle nur ungläubige.

dargo
2019-02-17, 12:54:44
Mindfactory macht das öfter, sie nehmen die Karten aus dem Programm bis Nachschub da ist, war bei dem Mindstar mit den vielen RTX2080 auch so, da war dann fast nichts mehr gelistet, ein paar Tage später wieder lieferbar.

Aber irgendwie macht das keinen Sinn. Karten sind knapp und dann landen die im Mindstar zum günstigeren Preis? Eine TI ist gerade im Mindstar. Wobei... könnten auch Rückläufer sein.

dildo4u
2019-02-17, 12:55:53
Was hat denn Intel damit zu tun? Die lassen doch nicht bei TSMC fertigen. AMD hat übrigens keine Probleme in dem Zusammenhang. ;) Außerdem gibt es viele RTX 2080/2070.
AMD hat bei den CPUs keine Probs weil sie den CCX Modul Ansatz benutzen,2080 Dies sind im Bereich der 1080 Ti.Die 2080 Ti ist eine neue Größe für den "Massenmarkt".

BigKid
2019-02-17, 15:02:41
Ich geb der KFA EX mal ne Chance... Der ZeroFan Bug der Gigabyte schreckt mich ab und abgesehen davon ist die KFA grad im Range dessen was ich auszugeben bereit bin.

Linmoum
2019-02-17, 15:11:46
Bei der Gigabyte muss man einfach nur 'ne Fankurve z.B. im Afterburner einrichten, dann hat man das Problem gelöst. ;)

Aber ja, die KFA ist natürlich billiger und wenn du nicht mehr ausgeben willst, passt das sicherlich schon.

Daredevil
2019-02-17, 15:12:46
Holt euch ja keine Dual Slot KFA, das Ding bekommt man nicht richtig schön leise. x(

BigKid
2019-02-17, 15:19:16
Holt euch ja keine Dual Slot KFA, das Ding bekommt man nicht richtig schön leise. x(
Ja - das dachte ich mir/habs auch gelesen... Hatte auch mal kurz eine gebrauchte Pascal... war jetzt nicht extra schlecht aber kein Vergleich zu ner MSI oder Asus... aber was ich von der 2080 ex gelesen habe scheinen sie da was gelernt zu haben...

Ex3cut3r
2019-02-18, 03:22:42
Hab die Karte mittlerweile drin, dass mit den Lüftern ist echt nervtötend. Weiß nicht, wie sowas durch die QA kommen kann. Zum Glück einfach zu fixen.

Ansonsten keine Ahnung, was Nvidia da bzgl. Verbrauch (Treiber ist der aktuelle 418.91) gefixt haben will, im Multi-Monitor zieht die GPU 50W, der Speicher läuft mit vollem Takt und die GPU mit ~1300MHz. Über den NV Inspector und Power Saver ist das aber auch gefixt.

Ansonsten hat meine Karte schon das 300W-Bios drauf, logischerweise A-Chip und der GDDR6 ist von Samsung. Mal schauen, was da alles geht.

Edit: Zum Abend hin mal etwas Zeit gehabt. Witcher 3 in UHD boostet die Karte standardmäßig mit 1875MHz, mit OC Scanner (ohne PT-Erhöhung) sind es ~1965MHz. Mem OC folgt als nächstes, erst einmal mit Witcher 3 und Fallout 4 geschaut, wie so die Performancegewinne gegenüber (m)einer Vega64 sind. Beides UHD @max Details (Witcher ohne Hairworks).


Fallout 4 (52fps vs. 17fps (!!), +206% (!!!))

2080 (1995MHz GPU, RAM @Stock)
https://abload.de/img/fallout4_2019_02_16_2rdjiu.jpg
Vega64 (GPU ~1450MHz, HBM 1020MHz):
https://abload.de/img/fallout4_2019_02_16_12skdd.jpg
Witcher 3 (56fps vs. 39fps, +44%)

2080 (1965MHz GPU, RAM @Stock)
https://abload.de/img/witcher3_2019_02_16_2tbjk8.jpg
Vega64 (1410MHz GPU, HBM 1020MHz)
https://abload.de/img/witcher3_2019_02_15_2kukwn.jpg

Mit Mem OC dürfte ich beim Witcher dann auch bei >=50% landen. Lustigerweise zieht mein Rechner im Witcher bei beiden Karten (hinterm Netzteil) mit rund 355W ziemlich exakt dasselbe. Was Fallout betrifft hab ich nicht die leiseste Ahnung. :freak: Hab ich erst gestern frisch installiert gehabt und bisher auch nur den Vergleich damit angestellt. Waren jeweils die aktuellsten Treiber. Selbst in dem Dorf am Anfang hab ich mit der Vega nur ~30fps, da sind's auf der 2080 60fps locked, also wahrscheinlich eher noch mehr. Auf jeden Fall spielbar jetzt. ;D
Alter, ich dachte ja eigentlich siehe mein Comment auf der letzen Seite, dass so ein "Upgrade" Blödsinn wäre, ich deinen 2 Spielen (spiele ich selbst nicht (mehr)) ist ein großer Unterschied bemerkbar von dem ich selbst überrascht bin. Von meiner 1070 ausgehend, war es aber auch ein gigantischer Sprung (3440x1440) Die RTX Karten sucken halt angeblich. ;D

Viel Spaß mit der 2080. :up:
Falls noch fragen da sind wegen der Gigabyte Gaming OC, ich bin immer mal hier, habe fast 6 Monate Erfahrung mit dem Ding. Beim Rls Bios gingen sogar nur 225W Maximum. :freak:

Linmoum
2019-02-18, 08:27:45
In DS3 hab ich auch ein knappes plus von 50% in UHD auf max. Details. Gibt dann natürlich noch Spiele(reihen) wie Far Cry oder allgemein Spiele, wo das Plus eher bei 35-40% liegt, aber auch das passt.:D W3 wollte ich eh mal wieder spielen und FO4 hab ich damals 15 Stunden zum Release gespielt und das war es. Zumal es sich jetzt auch lohnt, ohne Details runterdrehen. ;D

Ich bin aktuell bei 1935MHz @912mV (manuell via OC Scanner), damit liegen im Witcher konstante 1905MHz an bei <210W. +1310MHz beim Speicher geben nach kurzer Zeit Artefakte im Time Spy/FS Ultra und Witcher, aber +1300MHz macht der ansonsten anstandslos mit. Gewohnte Samsung-Qualität. :D

mironicus
2019-02-18, 13:15:12
Hier wird DLSS mit hochskalierten 4K verglichen, die eine ähnliche Performance bringen.
https://www.youtube.com/watch?v=3DOGA2_GETQ

BigKid
2019-02-18, 13:41:45
Also - die KFA ist da (hab sie mir auf arbeit senden lassen) - Interesse an nem Kurztest vorhanden?

Linmoum
2019-02-18, 13:45:17
Jetzt gleich auf Arbeit? :D

Troyan
2019-02-18, 13:46:52
Ja, Berichte über günstige Karten fehlen leider viel zu oft. Daher, mach ma.

Daredevil
2019-02-18, 14:02:26
Jap, mich würde vor allem die RPM im Idle und unter Last interessieren.
Die Dual Slot 2080ti versagt in meinem Test da ja relativ arg mit 1400/2300, ist die Tri Slot da ebenso auf Temperatur getrimmt oder bekommt die die Luft besser weg?

BigKid
2019-02-18, 14:10:01
Dann leg ich mal los... Was ich auf Arbeit liefern kann ist ein kleines Unboxing...
;) ...

Box
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=65721&stc=1&d=1550495134

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=65722&stc=1&d=1550495134

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=65723&stc=1&d=1550495134

Zubehoer:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=65725&stc=1&d=1550495134

Karte:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=65724&stc=1&d=1550495134

Die Karte ist ordentlich schwer und wie man klar sehen kann ist es auch kein 2 Slot Design sondern eher ein 3 Slot Design. Die Lüfter sind mit 100mm schonmal recht groß, was hoffen lässt dass sie ihre Arbeit schon bei niedrigen Drehzahlen ordentlich machen können. Die Karte macht rein äußerlich ebenfalls einen recht wertigen Eindruck. Es klappert nix - Spaltmaße sehen gut aus.
Positiv überrascht hat mich, dass immerhin 2 Adapter für den Strom beiligen... Da hab ich schon weniger gesehen...
Die Karte soll einen Zero-Fan Modus haben - das wird sich dann Zuhause zeigen ebenso wie der Rest...

Was mich jetzt schon kekst ist: Ich Naivling hatte angenommen, dass man das Game On Bundle immer bekommt - ist aber Fehlanzeige weil über Amazon bestellt - hätte ich wohl mal besser aufpassen sollen.
Andererseits ist mein Backlock so groß - und da zähle ich Metro noch nichtmal mit - dass mich Anthem und BF5 eh nicht wirklich interessiert hätten...

Daredevil
2019-02-18, 14:17:52
Ähnelt vom Inhalt schon mal der 2080ti. :)
Schreib ansonsten mal KFA bzw. Nvidia an und frag nach einem Code.

Bei AMD hatte das geklappt, dass ich einen zugeschickt bekomme.

Ex3cut3r
2019-02-18, 14:18:32
In DS3 hab ich auch ein knappes plus von 50% in UHD auf max. Details. Gibt dann natürlich noch Spiele(reihen) wie Far Cry oder allgemein Spiele, wo das Plus eher bei 35-40% liegt, aber auch das passt.:D W3 wollte ich eh mal wieder spielen und FO4 hab ich damals 15 Stunden zum Release gespielt und das war es. Zumal es sich jetzt auch lohnt, ohne Details runterdrehen. ;D

Ich bin aktuell bei 1935MHz @912mV (manuell via OC Scanner), damit liegen im Witcher konstante 1905MHz an bei <210W. +1310MHz beim Speicher geben nach kurzer Zeit Artefakte im Time Spy/FS Ultra und Witcher, aber +1300MHz macht der ansonsten anstandslos mit. Gewohnte Samsung-Qualität. :D

+1300 beim Speicher? Krass, das ist fast doppelt so viel wie ich schaffe +700 Micron.

Linmoum
2019-02-18, 14:21:24
Deswegen war die Freude auch sehr groß, als GPU-Z mir Samsung angezeigt hat. :D

VooDoo7mx
2019-02-18, 16:13:10
Also bei meiner RTX 2080Ti bringt wie bei meiner vorherigen Titan X eigentlich so gut wie gar nix.

BigKid
2019-02-18, 16:22:08
Also bei meiner RTX 2080Ti bringt wie bei meiner vorherigen Titan X eigentlich so gut wie gar nix.
Irgendwie fehlt in dem Satz was ;)

So - dann mach ich mal weiter...

Einbau unkompliziert. Die RGB Beleuchtung der Karte pulst im Default langsam alle Farben durch. Dabei leuchten die Lüfter auf der Unterseite und der Schriftzug "Whats your game ?" auf der Seite. Insgesamt ein gelungener Auftritt - und wer es nicht mag kann es ja sicher abschalten - das werde ich aber noch prüfen.
Also mal GPU Z angeworfen. GPU-Z sagt: Samsung Speicher - das sagten auch die Testberichte und das find ich schonmal positiv. Keine Ahnung ob man sich da bei dieser Karte drauf verlassen kann...
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=65729&stc=1&d=1550510889

Auch der Zero FAN Modus ist definitiv da - die Lüfter stehen im Desktop ! Super !
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=65730&stc=1&d=1550510889

3DMark will leider ein Update - das kann etwas dauern - soviel Zeit habe ich jetzt erstmal nicht mehr...
Ich habe die Karte also mal mit OCCT gequält. Power Target auf 111% mit Afterburner. Speicher +1300Mhz und sonst keine Optimierungen... Dann sieht es nach ner Weile so aus:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=65732&stc=1&d=1550512679
Die Lüfter pendeln sich bei 55% und ca. 1450rpm ein, die Karte bleibt damit bei bei 74 Grad... GPU bei 1740Mhz. Die Karte rennt is Power Limit bei c.a. 240 Watt. Also nix mit 300Watt - evtl. mit dem KFA Tool und seinem One-Click OC.
Die Lüfter sind dann präsent aber ich würde sagen im Rahmen - subjektiv auch nicht wesentlich Lauter als meine 1080ti strix wenn man sie unoptimiert mit OCCT gequält hat.
Nächste Schritte - aber nicht mehr heute 3DMark und handgestrickte Kurve für GPU Boost...

Ex3cut3r
2019-02-18, 19:09:44
Gar nicht mal übel, viel Spaß damit. :up:

Daredevil
2019-02-18, 19:19:30
Meine Dual Slot KFA macht bei gleichem Verbrauch ( 235w ) folgendes:
https://abload.de/img/qqqytjer.gif

Was ein einziger Slot so ausmachen kann.... sieht gut aus, wie bei meiner ehemaligen Palit auch. Zero Fan ist toll. :)
Muss ich mich kurz oder langfristig auch mal nach was anderem umschauen...

Linmoum
2019-02-18, 20:28:21
Also bei meiner RTX 2080Ti bringt wie bei meiner vorherigen Titan X eigentlich so gut wie gar nix.
Ich hab's nur mit Witcher 3 ausprobiert. UHD, max. Details mit Hairwork @Ultra/8x MSAA. Hab allerdings noch 'ne Mod drauf, die das für Geralts Haare deaktiviert, kb die extra dafür jetzt runterzuhauen. :D Soll ja auch nur um den Speicher gehen.

Speicher @Default 7000MHz
https://abload.de/img/witcher3_2019_02_18_2z0kc5.jpg

Speicher @8300MHz
https://abload.de/img/witcher3_2019_02_18_2zbj67.jpg

Performanceplus von 8% (54fps vs 50fps) bei einem Speicher-OC von in diesem Fall 18.5%. Beschissene Skalierung, aber "for free" ist das doch schon ein ordentlicher Zuwachs. :D Die Bandbreite steigt in dem Fall ja auch von 448 GB/s auf 531.2 GB/s.

Ex3cut3r
2019-02-18, 22:28:36
Kann man umsonst auf jeden Fall mitnehmen, der Gewinn ist zugegeben nicht der Wahnsinn, muss man aber auch anders sehen, in einem anderen Spiel bringt es vlt. mehr.

BigKid
2019-02-18, 23:02:51
Sodele... Jetzt gerade nochmal ein wenig Zeit gefunden...
Die Karte scheint 1900Mhz bei 0.875 V zu machen - ich glaube das ist gar nicht mal schlecht. Das muss sich aber noch im Alltag als Stable herausstellen.
Die Lüfter bleiben dabei noch etwas leiser unter Voll-Last und die Karte läuft auch unter OCCT nicht ins Power Limit. Den Speicher musste ich allerdings schon in 3D Mark Firestrike auf +1250 zurücknehmen - sonst gabs grüne Artefakte.

EDIT: Ich hab mich entschlossen einen eigenen Thread dafür aufzumachen... Dort habe ich die Posts zusammengefasst und nochmal leicht überarbeitet...

Blutmaul
2019-02-19, 09:46:29
Die Tests mit DLSS sind ja vernichtend, das Zeug ist nicht nur ein Weichzeichner - es ist ein Matschzeichner!

BigKid
2019-02-19, 10:22:54
Die Tests mit DLSS sind ja vernichtend, das Zeug ist nicht nur ein Weichzeichner - es ist ein Matschzeichner!
Von welchen Tests sprichst du ?
Ich habe gerade zum ersten mal DLSS in Aktion gesehen in 3DMark und war begeistert. In Bewegung sah es für mich glatt besser mit aus als ohne. Und den Performance Boost braucht man bei mit RT sowieso...

gbm31
2019-02-19, 11:32:34
Von welchen Tests sprichst du ?
Ich habe gerade zum ersten mal DLSS in Aktion gesehen in 3DMark und war begeistert. In Bewegung sah es für mich glatt besser mit aus als ohne. Und den Performance Boost braucht man bei mit RT sowieso...

Der Bench läuft ja auch immer schön gleich ab, das kann man wunderbar anlernen.

In einem Spiel mit Bewegungsfreiheit sieht das dann schon ganz anders aus.

Linmoum
2019-02-19, 11:32:58
3dmark ist aber kein Spiel, klar sieht das da besser aus. In BFV und Metro ist die Umsetzung einfach miserabel.

Troyan
2019-02-19, 11:36:39
In Rotterdam mit Raytracing macht es sogar Sinn DLSS zu verwenden, da die Reflektionen in den Fensterscheiben deutlich besser dargestellt werden. Müsste nur schärfer sein.

In Metro ist es sinnlos.

BigKid
2019-02-19, 13:49:06
Der Bench läuft ja auch immer schön gleich ab, das kann man wunderbar anlernen.

In einem Spiel mit Bewegungsfreiheit sieht das dann schon ganz anders aus.

Ja... Das habe ich auch nirgends geleugnet ;) ...
Ich habe lediglich wissen wollen von welchen Tests er jetzt konkret spricht weil es mich interessiert - speziell nach dem ich eben grade mal selbst gesehen habe wie gut es funktionieren kann. Defakto muss man das eigentlich schon Live und in Bewegung sehen um sich ein Urteil zu bilden.
Übrigens glaube ich NICHT dass es etwas damit zu hat, dass der Bench immer gleich abläuft. Ich denke eher es kommt prinzipbedingt auf die Varianz des Kontents (Geometrie, Texturen und Shader (=Materialien)) an.

Ich denke, dass in DLSS noch Potential steckt -zB wenn man es pro Level trainiert und nicht nur pro Spiel... Eventuell bekommen sie auch noch eine grundsätzliche Verbesserung hin - schließlich zeigt ja Samsung mit seinen 8K TVs dass vom Prinzip her es auch geht ohne "pro Film" trainieren zu müssen.
DLSS ohne Raytracing bzw sonst noch für 4k macht imho einfach keinen Sinn (ausser zur Sinnfreien Balkenverlängerung.

Fragman
2019-02-19, 14:02:00
Es wurde doch in dem free cam video vom 3DMark gezeigt, das es genauso gut funktioniert, wenn die cam anders ist. Das Trainieren dürfte an sich einfacher sein, da ja, verglichen mit einem Spiel, nicht viel Varianz ist.

Troyan
2019-02-19, 14:12:30
Battlefield 5 hat doch auch kaum varianz. Umso schlechter ist dort das Ergebnis. Kein Vergleich zu Final Fantasy 15, wo man in der riesigen Welt sich frei bewegen kann inkl. Gebäuden, Auto, Tag, Nacht etc.

Vor Allem ist das Ergebnis in FF15 viel schärfer und detaillierter.

Robspassion
2019-02-19, 18:20:47
Battlefield 5 hat doch auch kaum varianz. Umso schlechter ist dort das Ergebnis. Kein Vergleich zu Final Fantasy 15, wo man in der riesigen Welt sich frei bewegen kann inkl. Gebäuden, Auto, Tag, Nacht etc.

Vor Allem ist das Ergebnis in FF15 viel schärfer und detaillierter.

Leider kannst du das bei FF15 aber nur im Vergleich zu einer sehr durchwachsenen TAA Implementierung bewerten, die das Bild sehr stark weichzeichnet. Dagegen ist DLSS in etwa gleich mit ein paar Pros und Cons, wie in einschlägigen Videos gesehen. Bei BF5 und Metro, die eine sehr gute TAA Implementierung haben, ist es im Vergleich nicht konkurrenzfähig aktuell.

Troyan
2019-02-19, 18:25:57
Ich rede nicht vom Vergleich mit TAA. FF15 sieht deutlich schärfer aus mit DLSS als BF5. Alleine die Texturqualität der Charaktere ist Lichtjahre BF5 und Metro voraus.

deekey777
2019-03-19, 10:01:06
https://www.anandtech.com/show/14100/nvidia-april-driver-to-support-ray-tracing-on-pascal-gpus-dxr-support-in-unity-and-unreal

Mir geht es um den mittleren Graph: Es ist also mehr als nur eine interessante Idee INT32-Einheiten zu verbauen.

=Floi=
2019-03-19, 10:33:15
leider liest man darüber sehr wenig.
Man könnte sich auch die frage stellen, ob doppelte FP32 nicht auch gegangen wären.
Im grunde hat man die shaderleistung angehoben und das bild beweist, dass NV hier (bei RTX im detail) tatsächlich in diesem bereich ansteht.

Raff
2019-03-19, 15:40:56
Free Willys before: Lara Croft wird nun RTX-befeuert. Finally -> https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11952848&postcount=415

MfG,
Raff

Daredevil
2019-03-19, 16:16:55
Endlich...... dann muss ich mal schnell n günstigen Key finden. :)

TobiWahnKenobi
2019-03-19, 16:21:55
Free Willys before: Lara Croft wird nun RTX-befeuert. Finally -> https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11952848&postcount=415

MfG,
Raff

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11952874#post11952874


(..)

mfg
tobi

Blaire
2019-03-19, 16:49:12
Free Willys before: Lara Croft wird nun RTX-befeuert. Finally -> https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11952848&postcount=415

MfG,
Raff

Ein gutes halbes Jahr nach Launch. :) Ultra Schatten knüppeln ordentlich... gut das es dafür offiziell MultiGPU-Unterstützung gibt.
Erster Eindruck, die Schatten verleihen dem Ganzen mehr Tiefe und liefern mehr Details zu Tage...
https://www.imagebanana.com/s/1365/Nx6mpioG.html 4K "normal"
https://www.imagebanana.com/s/1365/xNgmHnSx.html 4K Raytracing Schatten "Ultra"
DLSS auch ganz interessant, ob auf ähnlich gutem Niveau wie bereits in Metro Exodus. Battlefield V war ja eher abschreckend was DLSS betraf...

Ex3cut3r
2019-03-19, 17:02:12
Nicht übel, finde aber bisher den Metro RT Ansatz am besten. Beleuchtung macht halt imo den meisten optischen unterschied, als Schatten oder Reflektionen (BF5)

Mein Fazit ist aber ich möchte keine GPU ohne RT Cores mehr, wird witzig wenn DXR auch mit Radeon und normalen GTX Karten freigeschaltet wird, weil wirklich spielbar ist es garantiert nicht, auch wenn AMD Leute gerne was anderes sehen wurden. ;D

Raff
2019-03-19, 17:08:36
DLSS kostet übrigens auch hier Speicher (circa 1 GiByte -> von ~5,5 auf ~6,5 in Ultra HD). Ist schon witzig, denn wir reden hier immerhin über eine reduzierte Auflösung. Aber irgendwo muss der Zusatzkrempel eben gespeichert werden. Was eine RTX 2060 wohl dazu sagt? :naughty:

Ein gutes halbes Jahr nach Launch. :) Ultra Schatten knüppeln ordentlich... gut das es dafür offiziell MultiGPU-Unterstützung gibt.
Erster Eindruck, die Schatten verleihen dem Ganzen mehr Tiefe und liefern mehr Details zu Tage...
https://www.imagebanana.com/s/1365/Nx6mpioG.html 4K "normal"
https://www.imagebanana.com/s/1365/xNgmHnSx.html 4K Raytracing Schatten "Ultra"

Ist definitiv schicker und lebensnäher mit RT. Allerdings fällt's nur im Direktvergleich auf, leider. Den Fps-Drop merkt man hingegen sofort. Aber da DLSS gut aussieht ... :)

MfG,
Raff

Ex3cut3r
2019-03-19, 17:17:50
Eine RTX 2060 wird auch garantiert nicht für UHD benutzt, oder macht man das bei der PCGH so?

Raff
2019-03-19, 17:20:22
Etwas Weitsicht hat noch niemandem geschadet. :)

MfG,
Raff

TobiWahnKenobi
2019-03-19, 17:37:33
ich hatte beim benchen vorhin knappe 8GiB im OSD.


(..)

mfg
tobi

Raff
2019-03-19, 17:48:05
Ja, weil Raytracing auch Speicher kostet. RT + DLSS: 6 GiB, beware. Again.

MfG,
Raff

Ex3cut3r
2019-03-19, 18:13:33
ich hatte beim benchen vorhin knappe 8GiB im OSD.


(..)

mfg
tobi

Ja bei einer 24GB Karte in UHD? :redface: Auch mit 6GB wird da sich da nix abruckeln wenn man auf 1080p oder 1440p bleibt, die PCGH ist halt einfach ein "Speicher Heft". ;)

Klar mehr Speicher ist immer gut, leider übertreiben Sie es vollkommen, siehe Division 2. Und tragen halt dazu bei, das der allgemeine Tenor nach ihh 8GB VRAM reichen nicht mehr usw schreit. dabei fressen alle meine AAA Spiele der letzen 2 Jahre in 3440x1440 kaum mal 5GB.

N0Thing
2019-03-20, 01:05:54
Ein gutes halbes Jahr nach Launch. :) Ultra Schatten knüppeln ordentlich... gut das es dafür offiziell MultiGPU-Unterstützung gibt.
Erster Eindruck, die Schatten verleihen dem Ganzen mehr Tiefe und liefern mehr Details zu Tage...
https://www.imagebanana.com/s/1365/Nx6mpioG.html 4K "normal"
https://www.imagebanana.com/s/1365/xNgmHnSx.html 4K Raytracing Schatten "Ultra"

Die höhere Auflösung der Schatten ist definitiv ein Gewinn. Auf der anderen Seite scheinen einige Stellen mit DXR aber nicht physikalisch korrekt ausgeleuchtet zu sein, das hätte ich nicht erwartet. Dazu dann die hohen Leistungseinbußen, da habe ich mir von der Umsetzung mehr erhofft, zumal es laut dem CB-Forum an einigen Stellen kaum sichtbare Unterschiede zwischen RT on/off zu geben scheint: https://www.computerbase.de/forum/threads/shadow-of-the-tomb-raider-der-raytracing-dlss-patch-fuer-nvidia-turing-ist-da.1862198/

Fragman
2019-03-20, 07:48:55
Auf der anderen Seite scheinen einige Stellen mit DXR aber nicht physikalisch korrekt ausgeleuchtet zu sein, das hätte ich nicht erwartet.

Welche Stellen meinst Du?
Generell sollte es schon genauer sein und man darf bei shadow maps sicher nicht darauf vertrauen, das das ganze "physikalisch" korrekt ist, Light leaks sind ja Teil der Tech dabei, selbst bei sehr hohen Auflösungen, die Spiele gar nicht erst anbieten. Zumindest die höhere Genauigkeit, was erfasst wird, sieht man in den Vergleichsbildern sofort.
Und "physikalisch korrekt" sollte man eh nicht verwenden, eher "plausibel". ;)

N0Thing
2019-03-20, 14:43:29
Ja, plausibel wäre der bessere Begriff gewesen. Konkret meine ich in den Bildern das Gebäude auf der rechten Seite, mit der goldenen Statue auf der Spitze und der Glocke eine Etage tiefer. Mit DXR scheinen einige Teile der Fassade im Schatten zu liegen, obwohl die Sonne diese direkt beleuchten müsste.
Insgesamt gefällt mir die DXR Variante besser, aber bei solchen Stelle frage ich mich, wie das überhaupt passieren kann.

Fragman
2019-03-20, 15:05:13
Wird sicher an der höheren Genauigkeit liegen. Dazu steht die Sonne etwas ungünstig und die Schatten "fallen" dann recht weit die Wand hinunter.

N0Thing
2019-03-20, 15:22:04
Die Sonne steht, wie man an dem Schatten des Torbogens im Vordergrund sehen kann, relativ tief und die Fassade ist der Sonne zugewandt, der Großteil ist ja deutlich ausgeleuchtet, im Gegensatz zur gegenüberliegenden Seite. Es ist natürlich nicht einfach zu beurteilen, wenn man nur einen Bildausschnitt hat, aber die Schatten oberhalb der Glocke passen meiner Ansicht nach einfach nicht zum Rest.

gbm31
2019-03-21, 16:39:25
https://youtu.be/ywDdjKIEzfQ

In Bewegung sieht das ja schlimm aus... Sorry. In high fehlt ja die Hälfte der Schatten, und die Schattengrenze ist grausam. Selbst in Ultra ploppt es fleissig...

mironicus
2019-03-21, 20:49:51
Spielt irgendjemand hier das Spiel "Dead or Alive 6"? Die RTX 2080 Ti scheint die einzige Karte zu sein, mit der man 60 FPS bei 4K erreichen kann (mit höchsten Settings natürlich).

Wird hier auch bestätigt: https://www.dsogaming.com/pc-performance-analyses/dead-or-alive-6-pc-performance-analysis/

Das Spiel lässt meine 2080 Ti vereinzelt bis 2100 MHz hoch boosten, und der Stromverbrauch ist dabei so hoch als wenn ich den Superposition Benchmark laufen lasse. Der Vorgänger Dead or Alive 5 lief noch in 4K und 60 FPS flüssig auf einer GTX 1050 Ti!

In dem verlinkten Bericht meint der Schreiber das Tekken 7 besser aussieht aber das kann ich nicht bestätigen. DOA 6 hat extrem gute Physik-Animationen bei der Kleidung die ihresgleichen suchen. Spielt mal mit einem der weiblichen Kämpfer in einem Hochzeitskleid(!) und staunt. :)

JVC
2019-03-22, 09:17:42
https://www.hartware.de/2019/03/22/nvidia-turing-erfolgreicher-als-pascal/
... in den ersten acht Wochen nach Einführung der GeForce RTX Serie 45 % mehr Umsatz erzielt als mit seinen GeForce GTX ‚Pascal‘ Grafikkarten im gleichen Zeitraum vor drei Jahren."

"Anscheinend ist dies bei Investoren und Börsenexperten gut angekommen. Zumindest stieg der Aktienkurs von Nvidia gestern um etwas mehr als 5 %."

http://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/News/Turing-verkaufte-sich-45-Prozent-besser-als-Pascal-1277910/
"Nvidia hofft zudem, dass sich Nutzer generell immer etwas besserstellen wollen, wenn sie neu kaufen. Man hofft also darauf, dass der Kunde meistens gerne zum nächstbesseren Modell dessen greift, was er gerade besitzt, also doppelt aufrüstet - nicht nur in die neue Generation, sondern auch in die nächste Leistungsebene."
(würde ich ja gerne machen, 1080Ti 11Gb --> RTX Titan 24Gb :confused: ... ne, zu teuer.)
(für ~1200-1400.- für die RTX Titan, hätte ich dieses "Spielchen" mitgemacht)

Anscheinend sind die Karten noch immer "zu teuer" ...

m.f.g. JVC

Fragman
2019-03-22, 09:43:44
Anscheinend sind die Karten noch immer "zu teuer" ...

m.f.g. JVC

Oder einfach doch erfolgreicher, als es dem einen oder anderen lieb ist.
Und mit der 2070 haben sie ja auch ein attraktives Model im Angebot, wenn man nicht gleich über 1000 Euro ausgeben will. ;)

Lowkey
2019-03-22, 10:07:28
Jetzt hatte ich die dicke ITX 1060 durch die größere 2070 non-OC ersetzt und habe bei der Karte bei all dem Plastik und den ganzen Limitern den Eindruck einen low Cost Chip zu haben. Die haben sogar an den Wärmeleitpads gespart.

https://www.3dmark.com/compare/spy/6674638/spy/5410849#

Deutliche 25% Vorsprung, aber 3 Slot + 3 Lüfter Design statt 2 Lüfter Dualslot ist ein großer Unterschied. Mit A GPU wäre die 2070 der Effizienzkönig, denn genau dafür ist die schmale Kühlung ausgelegt. Hätte ich Platz, dann hätte ich nur 3 Slot Kühler auf allen Grafikkarten.

Daredevil
2019-04-01, 15:01:51
Turing Porn. :)

F7maYyFrXF8
h3qYESoy5qI

nordic_pegasus
2019-04-02, 07:22:56
Oder einfach doch erfolgreicher, als es dem einen oder anderen lieb ist.
Und mit der 2070 haben sie ja auch ein attraktives Model im Angebot, wenn man nicht gleich über 1000 Euro ausgeben will. ;)

ich finde diese Nvidia Grafik mit "Majority buying up" irreführend, da hier z.B. der Wechsel von der 1080Ti zur 2080Ti als Upgrade in die höhere Klasse dargestellt wird. Am oberen Ende fehlt dann natürlich das Gegenstück zur Titan X/Xp.

Vielleicht ist auch dies der Grund für die Kontroverse um die Preisgestaltung von Turing. Aus Sicht von Nvidia sollte der Kunde z.B. den Preis der 1080Ti mit der RTX2080 vergleichen (durch die grüne Brille betrachtet kein Preisanstieg), der geneigte Kunde hingegen vergleicht 1080Ti mit 2080Ti und stellt einen saftigen Anstieg fest.

Ich habe genauso wie JVC das Problem, dass ich im Leben nicht den Preisanstieg von meiner TitanXp zur RTX Titan mitmachen werde. Zumal ja Nvidia sogar im "günstigen" 12nm Verfahren produziert statt unnötig Geld für 7nm zu verschwenden, wie uns Jensen jüngst erklärt hat.

Fragman
2019-04-02, 08:16:14
Die Verwirrung kommt daher, weil nv diesmal gleich alles gelauncht hat und die 2080TI dabei die alte Titan ablöst. Also die "normale" Titan und nicht das Golden Sample, das dann für 3K verkauft wird. Nv hätte für dieses Produkt einen anderen Namen wählen sollen.

In welchem Verfahren produziert wird ist irrelevant, da am Ende die Chipgrösse entscheidend ist. Und die 2080TI ist nunmal ein Riesenchip und kostet entsprechend. In 7nm wird die nächste Version auch wieder um die 500mm^2 haben, das wird kein Schnäppchen. Wer sich nur an den Top Karten orientiert, wird sich immer aufregen, da die Zeiten von günstigen Shrinks vorbei sind. Sieht man auch an AMD, die die VII, wohl mehr oder weniger, zum Selbstkostenpreis an den Mann bringen und dabei immer noch 700 Euro Endkundenpreis verlangen (das schon beim neuen 7nm Verfahren und dann geben einige nochmal 120Euro für einen neuen Lüfter aus, weil der default wohl crappy ist).

Daredevil
2019-04-02, 08:25:31
ich finde diese Nvidia Grafik mit "Majority buying up" irreführend, da hier z.B. der Wechsel von der 1080Ti zur 2080Ti als Upgrade in die höhere Klasse dargestellt wird. Am oberen Ende fehlt dann natürlich das Gegenstück zur Titan X/Xp.

Vielleicht ist auch dies der Grund für die Kontroverse um die Preisgestaltung von Turing. Aus Sicht von Nvidia sollte der Kunde z.B. den Preis der 1080Ti mit der RTX2080 vergleichen
Findest du denn, dass der Wechsel von einer 1080ti 11GB auf eine 2080 8GB ein Upgrade ist? Oder gar ein Sidegrade?
Ich würde glatt sagen, dass jedes RAM Downgrade in der Leistungsklasse ein Downgrade Allgemein ist, weswegen eine 2080ti durchaus das nächst logische Upgrade ist.
Freilich ist das eine neue Leistungsklasse, aber die Entwicklung stoppt ja nun auch einmal nicht.

Natürlich hat sich Nvidia bewusst für diesen Weg entschieden, indem sie u.a. die 2060 und die 2080 RAM mäßig eben so "schwachbrüstig" verkaufen.
Manche mag das nicht stören, aber im Zweifel nimmt man dann doch das größere, rundere Modelle, wie es eben zu Pascal Zeiten auch war.

Die 2080ti ist aber nicht nur teuer, sondern halt auch die Karte, die am meisten 4k Performance bringt und die magische 60fps Hürde oft nimmt im Vergleich zu den kleineren Karten. Das sollte man dazu noch extra honorieren.
Computerbase Spiele Parcour in 4k: https://www.computerbase.de/2019-03/geforce-titan-rtx-mifcom-test/2/#diagramm-wolfenstein-2-3840-2160

Wo erreicht wer 60fps?
TitanRTX: 14/16 Spiele
2080ti: 12/16 Spiele
2080: 5/16 Spiele
1080ti: 5/16 Spiele
Radeon VII: 4/16 Spiele

Dit ist schon ein großer Unterschied an der magischen Grenze. :)

JVC
2019-04-02, 10:03:01
Für diese, geringe Magische Grenze, kann ich auch die Regler bedienen ...
Hatte schon immer sehr bald sehr hohe Auflösungen ...
1996 1600x1200 (100Hz 24" Iiyama Röhre, hat damals nen Monatslohn gekostet)
2008 1920x1200 (60Hz erster 24" LCD)
2014 2560x1440 (60Hz VA 32")
2017 3840x2080 (60Hz QLED 64" ~60% eines Monatslohnes)
~2022 ~8K ~80" O-LED ... ?

Ich kann auch ganz gut mit nur 60Fps leben ...
(120Fps wären nett, muss man aber auch versorgen können)

m.f.g. JVC

Fragman
2019-04-02, 10:05:46
Ich kann auch ganz gut mit nur 60Fps leben ...
(120Fps wären nett, muss man aber auch versorgen können)

m.f.g. JVC

Für das ganze mimimi, wenn die neuen Konsolen released sind, kann man sich jetzt schon Popcorntechnisch vorbereiten...

nordic_pegasus
2019-04-02, 10:19:34
Findest du denn, dass der Wechsel von einer 1080ti 11GB auf eine 2080 8GB ein Upgrade ist? Oder gar ein Sidegrade?


Nvidia will mit dieser Grafik suggerieren, dass ein Wechsel von einer 1080Ti auf die 2080 ein normales Upgrade in die nächste Generation ist. Hingegen wäre der Wechsel von 1080Ti zu 2080Ti ein Upgrade mit gleichzeitigen Aufstieg in die höhere Leistungsklasse. Und genau das halte ich für eine fadenscheinige Argumentation um den Preisanstieg von Turing zu tarnen. Mehr wollte ich nicht sagen.

Zum Rest Deines Beitrags sage ich besser nichts. Ich bin nicht der Meinung, dass der Kunde seit Turing für Mehrleistung auch 1:1 mehr Geld bezahlen sollte.

Raff
2019-04-02, 11:51:37
RTX 2080 Ti um Faktor 3,21 schneller als GTX 1080 Ti. (http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Pascal-Raytracing-Benchmarks-1278592/) :naughty:

MfG,
Raff

Matrix316
2019-04-02, 13:14:45
RTX 2080 Ti um Faktor 3,21 schneller als GTX 1080 Ti. (http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Pascal-Raytracing-Benchmarks-1278592/) :naughty:

MfG,
Raff
Hat ja keiner gesagt, dass die 2080Ti zu langsam ist. Nur halt zu teuer. ;)

BlacKi
2019-04-02, 13:18:50
doch, eigentlich ist sie nur zu langsam bzw. hat zu wenig speicher für den preis.
in 1-2 jahren kostet eine gebraucht 2080ti vl 100€ mehr als eine 1080ti. das wäre nicht so, wenn sie schneller wäre und mehr speicher hätte.

wolik
2019-04-02, 13:45:00
RTX 2080 Ti um Faktor 3,21 schneller als GTX 1080 Ti. (http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Pascal-Raytracing-Benchmarks-1278592/) :naughty:

MfG,
Raff
Man soll nicht "verteidigen" lächerliche "Leistung" von RTX Karten. In Tomb Reider DLSS macht gesamtes Bild bei bewegung unscharf, RT Schaten einfach Witz welche ausser fressende Leistung nichts darbitten kann.

Daredevil
2019-04-02, 14:11:29
Also ich hab meine KFA 2080ti Dual nach Verkauf von den beiden Spielen jetzt effektiv für 810€ bekommen.
Die Media Markt Aktion habe ich sogar hier Tage vorher im Forum angekündigt, aber als Reaktion kam nur „Die RTX Karten sind eh nicht dabei“ , „Die machen die vorher teurer“, „Die Karte wird’s nicht unter 1000€ geben.“.

Muss man halt mal dem Daredevil Glauben schenken, dann passt auch der Preis. :)

Ex3cut3r
2019-04-02, 14:31:03
Na ist doch klasse. :up: Hauptsache man ist zufrieden.

BlacKi
2019-04-02, 14:37:45
zu dem zeit punkt stand aber die frage zu den RMA noch offen und man musste glück haben eine zu bekommen.

glück für dich, ich hab mich entschieden auf die next gen zu warten.

Raff
2019-04-02, 14:59:44
Dito. 810 Euro wäre ich aber, zumindest mit A-GPU, mit laut-schmerzhaftem Zähneknirschen aber noch bereit auszugeben.

MfG,
Raff

JVC
2019-04-02, 17:47:25
Ich würde auch 840.- für ne 12Gb 2080Ti extrem OC zahlen...
(bringt mir nur nix, da dann noch immer VRR über HDMI fehlt)

m.f.g JVC

w0mbat
2019-04-02, 18:51:19
Also ich hab meine KFA 2080ti Dual nach Verkauf von den beiden Spielen jetzt effektiv für 810€ bekommen.
Die Media Markt Aktion habe ich sogar hier Tage vorher im Forum angekündigt, aber als Reaktion kam nur „Die RTX Karten sind eh nicht dabei“ , „Die machen die vorher teurer“, „Die Karte wird’s nicht unter 1000€ geben.“.

Muss man halt mal dem Daredevil Glauben schenken, dann passt auch der Preis. :)
>800€ ist mMn halt ein Titan Preis.

dargo
2019-04-02, 20:01:24
RTX 2080 Ti um Faktor 3,21 schneller als GTX 1080 Ti. (http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Pascal-Raytracing-Benchmarks-1278592/) :naughty:

Du könntest ja glatt in der Marketingabteilung von NV arbeiten. ;D

Edit:
Eine Sache finde ich dennoch interessant. Mir wären aber Spieletests wesentlich lieber als dieser Demo Quark. Ich sehe, dass die 1080TI perfekt über die Anzahl der Shader skaliert. Sogar etwas überproportional sofern die min.fps perfekt reproduzierbar sind. Die 1080TI hat 40% mehr Shader und ist 41% bei den avgs. und 50% bei den min.fps schneller in eurem Test als die 1080. Mich würde hier sehr interessieren wie die Skalierung über den Takt genau aussieht? Anhand der Titan XP würde ich jetzt vermuten, dass der GPU-Takt in dieser Disziplin etwas weniger Gewichtung hat als die Anzahl der Shader. Die 1080TI taktet 7% höher und ist dennoch 4% langsamer als die Titan XP. Letztere hat 7% mehr Shader. Und hier bin ich wieder bei dem Punkt Vega 10 mit 4096 Shadern und Vega 20 mit 3840 Shadern, dafür aber mehr Takt. Natürlich muss AMD erst einen passenden Treiber bringen, versteht sich von selbst.

Aber wie gesagt... in einem praxisrelevanten Szenario wie BF V, Metro etc. mit verschiedenen RT-Stufen wären Vergleiche viel interessanter als der Star Wars Demo Quatsch.

Razor
2019-04-02, 22:39:36
Ein gutes halbes Jahr nach Launch. :) Ultra Schatten knüppeln ordentlich... gut das es dafür offiziell MultiGPU-Unterstützung gibt.
Erster Eindruck, die Schatten verleihen dem Ganzen mehr Tiefe und liefern mehr Details zu Tage...
https://www.imagebanana.com/s/1365/Nx6mpioG.html 4K "normal"
https://www.imagebanana.com/s/1365/xNgmHnSx.html 4K Raytracing Schatten "Ultra"
DLSS auch ganz interessant, ob auf ähnlich gutem Niveau wie bereits in Metro Exodus. Battlefield V war ja eher abschreckend was DLSS betraf...
Also mich würden die Screens (habe kein Save von der Umgebung, da noch nicht so weit :() für RTX "medium" und "hoch" noch mal interessieren.
Ich kann aus Sicht eines 2080 Nutzers sagen: hoch/ultra mit einer 2080 bei QHD schlicht nicht spielbar!

Liegt aber nicht an dem VRAM, wie es scheint, sondern an der extremen GPU-Auslastung.
Scheint die RTX-Cores schlicht zu überfordern, die einer 2080ti offenbar nicht.

Schade, dass es keine Möglichkeit gibt, Shader-, Tensor- und RTX-Auslastung separat anzuzeigen...

Razor

pixeljetstream
2019-04-02, 23:53:39
@Razor in dem Bild vom aktuellen nsight graphics kann man schon lesen das fp16/tensor pipe erfasst wird.

https://twitter.com/SebAaltonen/status/1109139821975531521?s=19

Denke rt-core wird da als summary noch folgen. Weiß aber nicht auswendig ob der Screenshot von der Partner Version oder der offenen ist.

Razor
2019-04-03, 07:14:17
Klingt schon ml verheißungsvoll... auch wenn ich auf den Screens von Tensor-Cores oder fp16 instructions nichts sehe.
Vielleicht schau' ich auf den falschen? Muss also nichts heißen :)

Aber zumindest lässt es darauf hoffen, irgendwann einmal sehen zu können, warum die GPU bei 100% ist... und nicht nur, dass sie es ist.

Razor

pixeljetstream
2019-04-03, 07:38:35
Klingt schon ml verheißungsvoll... auch wenn ich auf den Screens von Tensor-Cores oder fp16 instructions nichts sehe.
Vielleicht schau' ich auf den falschen? Muss also nichts heißen :)

Aber zumindest lässt es darauf hoffen, irgendwann einmal sehen zu können, warum die GPU bei 100% ist... und nicht nur, dass sie es ist.

Razor

Die "Unit Throughput" Liste links hat ganz unten "SM FP16+Tensor Pipe" mit rotem Rechteck davor. In dem Szenario des Screenshots wird die halt nicht genutzt daher Null.

Razor
2019-04-03, 19:10:08
Ahhh... jetzt habe ich sowohl das Bild, wie natürlich auch die Ziele gefunden:
https://pbs.twimg.com/media/D2R0xylX0AEJUEq.jpg
Hab' Dank!

Razor

rentex
2019-04-04, 05:51:58
Gibt es überhaupt programmiertechnisch noch Reserven, um RT auf auf Turing wesentlich schneller laufen zu lassen?

pixeljetstream
2019-04-06, 17:08:36
"Wesentlich" klingt nach Ganzzahl Faktoren, das ist eher unwahrscheinlich. Aber bissl was geht immer, gilt auch für herkömmliche Grafik. Ich gehe davon aus Du meinst bestehende Titel im Treiber zu optimieren?
Weil jede Applikation ist im Moment ja noch sehr einzigartig wie sie raytracing nutzt, und es werden unterschiedliche Effekte und Ansätzen gewählt. Also imo sind wir noch nicht bei festen "best practices" und im Treiber rührt sich auch noch viel. Titel am Ende des Jahres werden flotter sein bei ähnlichen Effekten, im Vergleich zu jetzt.

Razor
2019-04-06, 20:15:21
Sehe ich auch so... aktuell gibt es schlicht noch zu wenige Erfahrungen in den Bereichen Tensor- und RT-Cores bzw. DXR.
Tensor-Cores bzw. dessen einziger Einsatzzweck bis dato: DLSS wird wohl nVidia-Exklusiv bleiben und nur genutzt, wenn es nVidia auch "bezahlt" :D

Zu den RT-Cores, bzw. DXR:
- Battlefield 5: Spiegelungen
- Metro-Exodus: Spiegelungen & Licht/Schatten
- Schadow of the TombRaider: nur Schatten (wie der Name schon sagt ;-)

That's it, wenn man mal vom 3DMurks absieht...
So gesehen sollte sich nicht die Frage nach der Performance, sondern eher der Verbreitung stellen... mehr Verbreitung, mehr Erfahrung.

Razor

rentex
2019-04-06, 21:03:24
Danke für die Antworten. Weiß eigentlich Nvidia, wie potent ihre RT Lösung in Turing ist? Oder haben sie bisschen ins Blaue hin entwickelt. Irgendwo muss es ja ne theoretische Performancegröße geben?

pixeljetstream
2019-04-07, 00:35:08
Man kann die Tensor cores unter cuda und Vulkan in compute Shader via intrinsics auch nutzen. Sind als nicht nv-exclusive.

Es ist nicht voll ins Blaue, weil die Erfahrung mit raytracing auf GPUs hatte man ja schon länger, und mit Volta hatte man dann ja auch ein Art Emulator ;) Man kann aus der Analyse der Arbeitslast von Beispielen (wie die Star Wars Demo) recht gut sehen wo die Zeit hingeht und weil man auch den vollen Chip emulieren kann, weiß man einigermaßen vorher wo man rauskommt. Das Problem ist aber der Content. Den gab's halt spärlich, bzw. eigene Tests etc. Aber deswegen ist ein bisschen blau schon dabei.
Auch isses wesentlich einfacher mit richtiger Hardware zu optimieren und zu messen. So ein chip Emulator Brauch schon bissl Zeit. Da ich mit den Mesh shadern diesmal selbst involviert war, warf ich auch erstmal locker flockig reale CAD Daten mit 60 M Dreiecken da rein und bekam dann die Bitte die Szene doch ein bisschen zu verkleinern weil statistisch nicht mehr relevant und es halt echt langsam ist und da jede Minute richtig Geld kostet, weil allzu viele von den Teilen hat man auch nicht. Aber die müssen ein Riesenpensum abarbeiten. Viele Tests aber auch viele Benchmark frames aus Spielen, Anwendungen etc.
Ist schon spannend, das ganze quasi mit dem vollen software stack (windows etc.)
Gibt auch nen Video und Blog dazu. https://youtu.be/650yVg9smfI

BlacKi
2019-04-07, 01:16:23
kann man die tensor cores nicht als externe karte ins system einbinden? oder mit einem extra silizium chip auf der karte? die chips sind schon recht groß geworden bei turing.

rentex
2019-04-07, 09:05:04
@pixeljetstream Vielen Dank für die recht ausführliche Antwort😳 Hab die GPU Simulation in einem Video über Nvidia mal gesehen. Erstaunlich.
Die Frage ist bei einer extra PCIE Karte, welche Bandbreite sie bräuchte. Vllt. mit PCIE 4.0.

pixeljetstream
2019-04-07, 09:41:02
BlacKi die Tensor cores sind ja nur Marketing Name. Wie man an dem nsight counter sieht, ist das einfach die fp16 math pipe die erweitert wurde. Also "normale fp16" Instruktionen stecken da auch drin. Extra Karten, Extra Die etc. macht keinen Sinn wegen der Distanz zum Speicher. Das sind ja einfach nur Rechenoperationen die ganz normal im Verbund mit anderen Operation laufen.
Beispiel shader
https://github.com/jeffbolznv/vk_cooperative_matrix_perf/blob/master/shaders/shmem.comp

Es ist das klassische Henne Ei Problem, neue Technik muss man leichter verfügbar machen. Da reicht es nicht aus sowas nur in Quadro/Tesla zu haben. Ob die Rechnung aufgeht, sieht man halt erst später, aber der Trend für inferencing in hw war in der Industrie schon abzusehen.

Raff
2019-04-11, 09:17:57
Orbmu2ks neues Custom DSR Tool in Aktion! =) Bisschen Spielerei für Grafikhuren. Warum? Weil es geht!

8K und 16K Gaming: Can it run Crysis? (https://www.youtube.com/watch?v=e34sT0VEJeQ)

MSI Lightning Z @ ~2.000/8.400 MHz gibt alles. Aber schafft sie den Killer aus 2007 in 8K und 16K? :D

Ebenfalls spannend: 16K-Gaming | Extreme High-Res | 15.360 x 8.640 | Titan RTX (https://www.youtube.com/watch?v=SMVJTmhgV5w)

Hier sieht man, dass selbst ältere Spiele in 16K exorbitant viel Speicher adressieren. Und die Bildpuffer lagert man besser nicht aus. :ugly:

MfG,
Raff

Ex3cut3r
2019-04-11, 14:00:00
Dazu ein Video aus 2013 Radeon HD7970 vs True 4K
https://www.youtube.com/watch?v=WUIvJYEeOGU

Der Witz ist noch du vermutest im Jahr 2020 das es flüssig sein wird, war dann doch schon eher möglich. :biggrin:

BTW.
Ich habe mit meiner 2080 mal wieder GTA 5 entdeckt. Mit 5160x2160 @ 3440x1440 + 2xMSSA ohne TXAA + Reshade + SMAA + diverse Mods:
https://gta5redux.com/
https://www.gta5-mods.com/misc/gta-v-extreme-draw-distance-mod
https://de.gta5-mods.com/misc/3440x1440-21-9-mini-map-hud-3285e459-3104-4663-8f24-5278e4335945

Motion Blur aus der Mod entfernt + Standard Car Handling

Sieht das Game einfach nur göttlich aus...
https://abload.de/img/gta5_2019_04_09_22_02imk2y.png
https://abload.de/img/gta5_2019_04_09_05_07g8kmy.png

Die Weitsicht ist pervers, leider könnte ich das "Gemüse" bisher nicht so tweaken, dass es nicht mehr so "reinploppt" leider ist der 4770k + 2400er DDR3 auch so am ende.

JVC
2019-04-11, 15:28:34
@Raff
Ich freu mich auf natives 8K :freak:
(4K ist ja schon fast n alter Hut ^^)

Leider gibt es noch keine Grafikkarten mit HDMI 2.1 ...

Natives 16K wäre mir selbst auf ~80" (1,5m Kopfabstand) "zu fein" ...
(bis wir 16K 60Fps übertragen können, dauert es vermutlich noch etwas)

@Ex3cut3r
Schöne Screenshots, aber für 3840x2160 auf 65" leider nicht gut genug.
("gestreckt" auf 4K, fehlt es sichtbar an Details)

m.f.g. JVC

Ex3cut3r
2019-04-11, 15:53:22
Die Bilder sind eigentlich mit 5160x2160 DSR 1.5 von 3440x1440 ausgehend erstellt, ich zocke auf einen 34“ 21:9 und es sieht dort natürlich Mega aus, ehrlich gesagt sogar besser als auf den Screenshots.

JVC
2019-04-11, 16:00:10
Die Bilder sind nativ betrachtet wirklich gut!
(hab die Bilder zum betrachten heruntergeladen, 3440x1440)

Nur eben "zu klein" für meinen "Monitor".
(welcher mir eigentlich auch "zu klein" ist :freak:)

Sobald ich ne Vernünftige Graka mit HDMI 2.1 bekomme,
wird sich auch ein Samsung 8K einfinden ;)
(geschätzt ~ Herbst nächstes Jahr)

m.f.g. JVC

z.b.: Samsung GQ75Q900
https://geizhals.at/samsung-gq75q900-a1904706.html?hloc=at
von 7K auf 5,3K = -25% in 6 Monaten ... hoffe nächsten Herbst auf unter 3K.
(in DE ist er natürlich jetzt schon um nur 4,5K zu bekommen, bei uns ist irgendwie alles teurer :( )

Daredevil
2019-04-13, 17:43:03
A-Chip ist nun am Start. :)

Kleiner Vergleich:
11163pts Stock KFA B-Chip 250w
11263ptd Stock KFA B-Chip OC Scanner 250W

10647pts Stock Palit B-Chip 250w
11404pts Stock Palit B-Chip OC Scanner 250W

11706pts Stock Palit A-Chip 250w
12187pts Stock Palit A-Chip OC Scanner 250w
12573pts Stock Palit A-Chip OC Scanner 325w

Ich bleibe immer noch dabei, wer Preis/Leistung sucht, kann sich auch locker mit nem B-Chip vergnügen und geht ordentlich Aufpreis aus dem Weg.
Bei Overclocking sieht es natürlich anders aus, da haben die Karten schon aufgrund des Power Limits viel mehr Spielraum. Der Chip selbst ist zwar besser, aber auch nicht um Welten. So um die 75-125Mhz packe ich mehr bei gleicher Spannung.
Die KFA² lief auf 0.7v mit 1440Mhz, die Palit A-Chip nun mit 1515Mhz ( Unter 50°C bei 1530 ).


Ein so richtig gutes Händchen hatte ich aber wieder nicht. :D
Erste Karte:
Palit Dual mit B-Chip und Micron RAM

Zweite Karte:
KFA² Dual mit B-Chip und Samsung RAM

Aktuelle Karte:
Palit GamingPro OC mit A-Chip und Micron Ram
Aber immerhin bis 1000Mhz geht der, von daher gibts nichts zu meckern. :)

Der Kühler der Palit GamingPro OC ist ebenso gut, wie der von der Palit Dual, die Maße der Karten sind ja auch gleich.

~950rpm bei ~150w @ 56°C
~1300rpm bei ~260w @ 68°C
~1500rpm bei ~325w @ 77°C
Die 3-Slot Palit haut die gleichem Umdrehungen unter Last raus bei 325w, wie die 2-Slot KFA² im Idle. ;D

(del)
2019-04-13, 17:55:41
A-Chip ist nun am Start. :)

Woher weiß ich welchen Chip ich habe?
Was benchst du denn da?
Ist Samsung Speicher besser als Micron?

Daredevil
2019-04-13, 18:01:12
Wegen der Chipauswahl mal bei GPU-Z schauen.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=65485&d=1548426379

XXXX 1E04 (non-A Chip)
XXXX 1E07 (A Chip)

Gruß
BUG

Gebencht habe ich Superposition in 4k, den nutze ich schon seit Jahren für Vergleiche. ( Stabi Test dann am Ende mit dem Nvidia OC-Scanner im MSI Afterburner )

Kingpin ( bekannter OCler ) hat zu der Speicher Frage mal gesagt, dass Micron perse nicht schlechter ist als der von Samsung. , die Qualität bei Micron aber sehr schwankt.
Samsung bekommst du relativ oft locker über +1000Mhz getaktet, bei Micron musst du halt Glück haben. Mein erster Micron ging bis +600, der jetzt aktuell bis +1000. Der Samsung Speicher der KFA² ging bei mir bis +1400Mhz.
Das ist aber halt nur relevant, wenn du den übertakten möchtest, sonst ist es schlicht egal. Die Performance Sprünge sind i.d.R auch eher unter einstellig.

+0000 10480pts 712mv 1515MHz 950rpm ~162w
+1000 10730pts 712mv 1515MHz 950rpm ~165w
~2.4% in der Situation, wobei der Verbrauch auch hier noch leicht ansteigt.

(del)
2019-04-13, 19:09:22
Vielen Dank für die Erklärung.
Ok bei mir steht 1E07, also wohl A Chip.
Muss ich wohl mal ein bisschen testen, habe mich bisher noch nicht an das OC der Karte heran gewagt.

gedi
2019-04-15, 13:06:36
A-Chip ist nun am Start. :)

Kleiner Vergleich:
11163pts Stock KFA B-Chip 250w
11263ptd Stock KFA B-Chip OC Scanner 250W

10647pts Stock Palit B-Chip 250w
11404pts Stock Palit B-Chip OC Scanner 250W

11706pts Stock Palit A-Chip 250w
12187pts Stock Palit A-Chip OC Scanner 250w
12573pts Stock Palit A-Chip OC Scanner 325w

Ich bleibe immer noch dabei, wer Preis/Leistung sucht, kann sich auch locker mit nem B-Chip vergnügen und geht ordentlich Aufpreis aus dem Weg.
Bei Overclocking sieht es natürlich anders aus, da haben die Karten schon aufgrund des Power Limits viel mehr Spielraum. Der Chip selbst ist zwar besser, aber auch nicht um Welten. So um die 75-125Mhz packe ich mehr bei gleicher Spannung.
Die KFA² lief auf 0.7v mit 1440Mhz, die Palit A-Chip nun mit 1515Mhz ( Unter 50°C bei 1530 ).


Ein so richtig gutes Händchen hatte ich aber wieder nicht. :D
Erste Karte:
Palit Dual mit B-Chip und Micron RAM

Zweite Karte:
KFA² Dual mit B-Chip und Samsung RAM

Aktuelle Karte:
Palit GamingPro OC mit A-Chip und Micron Ram
Aber immerhin bis 1000Mhz geht der, von daher gibts nichts zu meckern. :)

Der Kühler der Palit GamingPro OC ist ebenso gut, wie der von der Palit Dual, die Maße der Karten sind ja auch gleich.

~950rpm bei ~150w @ 56°C
~1300rpm bei ~260w @ 68°C
~1500rpm bei ~325w @ 77°C
Die 3-Slot Palit haut die gleichem Umdrehungen unter Last raus bei 325w, wie die 2-Slot KFA² im Idle. ;D

Ich habe die gleiche Karte wie du, nur mit Samsung-Ram :) - war in meinem Fertig-PC verbaut. Den Kühler finde ich allerdings etwas unterdimensioniert. Zudem hänge ich ständig im PT-Limit. Mittels OC-Scanner liegen so zwischen 1980-2055Mhz unter Last an. Ram läuft mit +1000. Die Performance ist natürlich echt geil und ENDLICH funktioniert HDR im Gegensatz zu Pascal in jedem (!) Spiel! Zudem kostet 10-Bit Farbtiefe keine Performance mehr. Für Besitzer eines HDR-Bildschirms ist Turing ein muss wenn er NV-Kärtchen bevorzugt.

https://s16.directupload.net/images/190415/temp/kitnw93k.png (https://www.directupload.net/file/d/5423/kitnw93k_png.htm)

hq-hq
2019-04-26, 15:47:51
Stützt ihr eure 2080/Ti jetzt ab damit die "Biegekante" des PCBs nach dem PCIe Anschluss die RAM BGAs nicht gegen den Kühler drückt und unter thermischen Belastungen die Balls/Lötanbindungen der BGA RAM-Bausteine reissen?

Radeonfreak
2019-04-26, 16:14:05
http://jtsternberg.com/memes/wat.jpg

hq-hq
2019-04-26, 16:33:14
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=66382&stc=1&d=1556289177

Nvidia scheint sich hier ja mit extra Kleber (und weicheren Wärmepads) zu behelfen (von Igor geklaut) https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=66383&stc=1&d=1556289392

https://youtu.be/nYWAEn_SOfk

Radeonfreak
2019-04-26, 16:53:16
Naja, in wie weit das jetzt auch auf Customs zutrifft ist hier die Frage. Und ich finde meine Karte sitzt sehr schön im metallvverstärkten PCIE Slot und oben noch mal schön verschraubt sollte da nix biegen. :freak:

hq-hq
2019-04-26, 17:02:15
die Strix hat zwar kein ref PCB biegt sich aber schon ein wenig,
bei der alten 1080/Ti gab es zwischen GPU und PCIE keine RAM Bausteine....

Diese Haltelösungen sind auch nicht optimal, die greifen immer auf den Kühler und nicht an das PCB selbst....

rentex
2019-04-27, 10:05:47
Meine 2080Ti Gaming X Trio wird mittig gestützt. Mach ich aber seit der 1080Ti (STRIX) schon so.

hq-hq
2019-04-27, 12:00:09
und was verwendest du?

sowas?
https://www.amazon.de/upHere-GPU-Halterung-Grafikkarten-Halterung-G205/dp/B079HRKCMH/ref=sr_1_10?__mk_de_DE=%C3%85M%C3%85%C5%BD%C3%95%C3%91&keywords=grafikkarten+halter&qid=1556359172&s=gateway&sr=8-10

TobiWahnKenobi
2019-04-27, 15:58:06
hübsch, leider ohne blumenvase :(


(..)

mfg
tobi

rentex
2019-04-27, 18:12:34
und was verwendest du?

sowas?
https://www.amazon.de/upHere-GPU-Halterung-Grafikkarten-Halterung-G205/dp/B079HRKCMH/ref=sr_1_10?__mk_de_DE=%C3%85M%C3%85%C5%BD%C3%95%C3%91&keywords=grafikkarten+halter&qid=1556359172&s=gateway&sr=8-10

Sowas ähnliches.

hq-hq
2019-04-27, 22:55:04
bei mir muss es nicht hübsch sein, hab im Spiele-PC kein Fenster :biggrin:

wenn es das tut werd ich es mir mal bestellen (y):freak:

gedi
2019-04-28, 13:52:48
Meine 2080 Ti ist tot :(. Gestern Nacht beim Rendervorgang mit Opus 1000 erst kleine Regenschirmchen mit extremen Texturflackern auf dem Screen, infolgedessen den PC abgeschaltet, neu gebootet und scheinbar war dann alles gut. Eine halbe Stunde später - klack, kein Bild mehr. Wieder neu gebootet - nun habe ich allerdings lauter rote Wellenlinien auf dem Screen. Kaputt!

hq-hq
2019-04-28, 21:50:42
:frown:

KIA

welches Modell war es denn und war dann Micron oder Samsung RAM verbaut?

gedi
2019-04-28, 22:03:01
:frown:

KIA

welches Modell war es denn und war dann Micron oder Samsung RAM verbaut?
Palit Gaming Pro OC mit Samsung Ram. Ich glaube langsam wirklich es liegt an dem sc..... Referenz-PCB :mad:

hq-hq
2019-04-28, 22:50:01
hm, da du das gute Stück wohl einschickst kann ich dich wohl nicht dazu ermuntern mit einem Heissluftfön die unteren VRAM Bausteine zu bearbeiten :biggrin:

ich hab mir jetzt so einen Halter wie der von Rentex bestellt, der drückt dann halt an die Kunststoffabdeckung des Kühlkörpers aber stützt den Brummer und das PCB verformt sich dann ein Stück weniger

BlacKi
2019-04-28, 22:59:14
das erwärmen würde sowieso nur vorrübergehend helfen. das macht nur sinn wenn die garantie weg ist und man ein paar wenige monate überbrücken muss.

hq-hq
2019-04-29, 00:06:51
würde da schon gscheit draufblasen bis er zu schwimmen anfängt :biggrin:

dar ball pitch ist ziemlich gering, man kann damit aber schon nachlöten oder Bausteine neu aufbringen wenn noch etwas Lötzinn übrig ist... BGAs hab ich frühers so aber nicht selbst aufgelötet dafür gabs ne eigene Anlage...

---

natürlich muss er sie zurückschicken, aber im Falle des Falles ;-)

Daredevil
2019-04-29, 01:48:10
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=66382&stc=1&d=1556289177


Bild 1 sieht echt böse aus, aber bei meiner Palit sitzt der Kühler nicht nur halb auf dem RAM drauf, sondern komplett.
Deswegen wüsste ich jetzt nicht, wo sich was mehr biegen sollte als sonst.
https://abload.de/img/img_14120cjcc.jpg
https://abload.de/img/img_1409d4j95.jpg

Slipknot79
2019-04-29, 19:12:01
Da ist doch noch nen rosa Wärmeleitpad dazwischen? Oo

gedi
2019-04-29, 22:21:38
hm, da du das gute Stück wohl einschickst kann ich dich wohl nicht dazu ermuntern mit einem Heissluftfön die unteren VRAM Bausteine zu bearbeiten :biggrin:

ich hab mir jetzt so einen Halter wie der von Rentex bestellt, der drückt dann halt an die Kunststoffabdeckung des Kühlkörpers aber stützt den Brummer und das PCB verformt sich dann ein Stück weniger

Hab se jetzt doch gebacken, da ich zeitlich sehr einspannt bin - 50´ bei 50°C :freak:, ohne etwas zwecks Garantie zu demontieren - läuft wieder :eek:

rentex
2019-04-30, 07:53:35
@gedi Hätte trotzdem ein mieses Gefühl mit der Karte🤔

hq-hq
2019-04-30, 08:39:25
Hab se jetzt doch gebacken, da ich zeitlich sehr einspannt bin - 50´ bei 50°C :freak:, ohne etwas zwecks Garantie zu demontieren - läuft wieder :eek:


:biggrin: 50° ist ja sehr wenig, so 120 oder auch mehr haben wir da genommen, damit kann man z.B. ESD Schäden reparieren - Swiffertuch. Das kann schon 6 Monate oder länger halten. Mit Kunststoffabdeckungen müsste man wohl unter 100° bleiben.

gedi
2019-04-30, 08:40:54
@gedi Hätte trotzdem ein mieses Gefühl mit der Karte🤔

Im Moment gehts nicht anders, da ich Abends spät nach Hause komme.

rentex
2019-04-30, 11:02:29
@gedi Verständlich!

hq-hq
2019-04-30, 19:36:54
Hab jetzt den GPU HOLDER BLACK-MAG aufgestellt und an den Messpunkten angreifen lassen, erschien mir günstig.
Hebt die Grafikkarte um etliche mm nach oben.

Hm, Verbesserungsvorschläge?

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=66454&stc=1&d=1556645560

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=66455&stc=1&d=1556645560
Der zweite Arm greift noch ein wenig an der Kühlerabdeckung...

Ex3cut3r
2019-04-30, 21:08:00
Nö, wurde ich auch so machen, aber ich weiß echt nicht, ob das was bringen wird. Woher hast du die Information, dass durch das Hängen der VRAM mit der Zeit kaputt geht? Andererseits hat man Garantie, wenn was ist -> zurück damit vor allem bei dem Preis. ;)

ich auch
2019-04-30, 21:44:48
Hab jetzt den GPU HOLDER BLACK-MAG aufgestellt und an den Messpunkten angreifen lassen, erschien mir günstig.
Hebt die Grafikkarte um etliche mm nach oben.

Hm, Verbesserungsvorschläge?

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=66454&stc=1&d=1556645560

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=66455&stc=1&d=1556645560
Der zweite Arm greift noch ein wenig an der Kühlerabdeckung...
wie wäre es hiermit?:tongue:

Cartrend 50290 Unterstellbock 2 Tonnen, Verstellbar

https://www.amazon.de/Cartrend-50290-Unterstellbock-Tonnen-Verstellbar/dp/B078PH822F/ref=sr_1_3?keywords=ein+Auto+aufbocken&qid=1556653372&s=gateway&sr=8-3

Dr.Doom
2019-04-30, 22:14:38
wie wäre es hiermit?:tongue:

Cartrend 50290 Unterstellbock 2 Tonnen, Verstellbar

https://www.amazon.de/Cartrend-50290-Unterstellbock-Tonnen-Verstellbar/dp/B078PH822F/ref=sr_1_3?keywords=ein+Auto+aufbocken&qid=1556653372&s=gateway&sr=8-3Der funktioniert nur bei AMD-Karten. :rolleyes:

(del)
2019-04-30, 22:38:57
Hab jetzt den GPU HOLDER BLACK-MAG aufgestellt und an den Messpunkten angreifen lassen, erschien mir günstig.
Hebt die Grafikkarte um etliche mm nach oben.
Ist das wirklich alles nötig?
Die Asus Karte hat doch ein custom PCB. Die RAM Bausteine sind ein ganzes Stück weiter weg vom PCI-E Slot als beim Referenz PCB.

hq-hq
2019-04-30, 23:41:42
wahrscheinlich nicht, die Asus Strix hat auf Mindfactory nur eine RMA Quote von 2%
andere 2080Ti Karten liegen bei 4% bis 9% … dann noch das geänderte Layout und Samsung RAM...

Der >> Cartrend 50290 Unterstellbock 2 Tonnen, Verstellbar << wäre - insofern die Maße passend sind - die günstigere Alternative gewesen! Naja jetzt ist es schon zu spät.

Glaube die alte Aorus 1080Ti ist sogar schwerer - gefühlt - und hat jetzt fast 2 Jahre ohne Probleme gearbeitet... bzgl PCB aber ein Äpfel-Birnen vergleich ^^

-> die Information gibt NVidia selbst wenn sie die unteren VRAM Bausteine plötzlich ekelhaft verkleben (Igor, RTX Titan)

rentex
2019-05-03, 16:25:37
Würde eher in die Mitte gehen, wenn es geht..rein vom Gefühl her. Mittig wäre dann auf Höhe der PCIE Schnittstelle.
Natürlich gehts auch ohne...man muss aber auch, keine Probleme provozieren🤷*♂️

hq-hq
2019-05-03, 21:30:48
mittig ans PCB würde gehen aber gleich danach kommen oben die VRAM Bausteine, Alternativ an der Kunststoffabdeckung... hm... ich lass es mal so... vielleicht gibt es in eins zwei Jahren mal eine Sterbewelle von 2080Ti Karten mit Ref-Design weil die Löststellen überdurchschnittlich gestresst werden... dann können wir sagen ja hättet ihr euch lieber mal einen Wagenheber ins Gehäuse gestellt ^^

rentex
2019-05-04, 07:54:53
Wagenheber😂

hq-hq
2019-05-11, 17:55:33
Hat schon jemand ein Asus 2080Ti Matrix Bios auf eine 2080Ti Strix geflasht?

Winter[Raven]
2019-05-16, 10:15:14
Hat schon jemand ein Asus 2080Ti Matrix Bios auf eine 2080Ti Strix geflasht?

Nope ;)

Kriegsgeier
2019-05-26, 20:04:59
Zur Info: ASUS Ingenieur hat gerade bestätigt dass die RTX 2080 und Ti alleine wegen Micron GDDR6 ausgefallen sind! 0,5% Ausfälle bei der ersten Revision der Platinen!

Wake
2019-05-27, 02:18:33
Öffentlich (Forum, Social Media, ...) oder bei einer Supportanfrage?

Kriegsgeier
2019-05-27, 07:11:58
Ein 4 Augengespräch auf der Messe in Taipei

Wake
2019-05-27, 07:59:25
Aso.

Btw:
There’s an active air raid drill as of this moment in Taipei and all Computex events have subsequently been put on hold until further notice.
:eek:

Guru3D vermeldet, dass Nvidia ihre Konferenz nicht live streamen wird.

rentex
2019-05-27, 08:06:21
Geschickt eingefädelt AMD...😉😂

ich auch
2019-05-27, 12:16:09
poste das mal hier.

Quake II RTX: Spiel erscheint am 6. Juni, drei Level gibt es für Jedermann

https://www.computerbase.de/2019-05/quake-ii-rtx-raytracing-spiel/

JVC
2019-05-27, 12:29:28
"...sowie weiteren (neuen) G-Sync-Displays."

Und ich dachte, NV will wirklich ernsthaft den VRR-Standard unterstützen. :(

m.f.g. JVC

TobiWahnKenobi
2019-05-27, 12:38:56
Zur Info: ASUS Ingenieur hat gerade bestätigt dass die RTX 2080 und Ti alleine wegen Micron GDDR6 ausgefallen sind! 0,5% Ausfälle bei der ersten Revision der Platinen!

hatter bestimmt im luxx gelesen.


(..)

mfg
tobi

mironicus
2019-05-27, 21:05:34
Hmm.... habe gerade gesehen, dass beim neuesten 3Mark und aktuellstem Treiber der Port Royal-Benchmark locker 300 Punkte nach oben gegangen ist bei der RTX 2080 Ti. Hatte sonst immer unter 8900 Punkte, jetzt über 9200.

hq-hq
2019-05-31, 00:09:01
Mich hat interessiert wieviel Saft die 2080Ti in Dishonored 2 (zocke ich grade) zieht. Da ich noch einen alten 32" Monitor mit nur 60Hz hab (und immer mit adaptive VSync zocke) bleibt es ruhig im PC.

Die Strix ist mit +145MHz Core Clock über Afterburner übertaktet und die Lüfterkurve angepasst, hier ein einfaches Streudiagramm

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=66770&stc=1&d=1559254008

Far Cry 5 New Dawn habe ich nochmal kurz in 4k probiert, obwohl ich selten Downsampling nutze. Die höhere Temperatur drückt den Takt ein wenig.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=66774&stc=1&d=1559335034

ich auch
2019-06-12, 17:07:06
Nvidia: „Super“ soll auch GeForce RTX 2080 Ti beinhalten

https://www.computerbase.de/2019-06/nvidia-geforce-rtx-super/

BlacKi
2019-06-12, 17:15:11
würdet ihr bei der super 2080ti mit 12gb oder gar 22gb (24gb bleibt der titan vorbehalten) und allen shadern bei 1100-1300€ zuschlagen? selbst bei 800€ würde ich mir das glatt überlegen und einfach auf die 3080(ti) warten.

Radeonfreak
2019-06-12, 17:21:22
Hab doch schon ne TI für 1300 €. :redface:

12GB wirds nicht geben auf Grunf des Interfaces denk ich. Vielleicht schnelleren Speicher oder so.

Oder 22 GB für unschlagbare 1599 € + MwST.

Daredevil
2019-06-12, 17:25:47
würdet ihr bei der super 2080ti mit 12gb oder gar 22gb (24gb bleibt der titan vorbehalten) und allen shadern bei 1100-1300€ zuschlagen? selbst bei 800€ würde ich mir das glatt überlegen und einfach auf die 3080(ti) warten.
Ne schnellere 2080ti löst irgendwie kein großes Problem, das finde ich nicht so spannend.
4K@60+ hat man ja schon mit der Karte quasi abgedeckt, es sei denn die Karte wird halt günstiger, weil AMD irgendwo ne 60CU Version backt.

=Floi=
2019-06-12, 17:27:55
würdet ihr bei der super 2080ti mit 12gb oder gar 22gb (24gb bleibt der titan vorbehalten) und allen shadern bei 1100-1300€ zuschlagen? selbst bei 800€ würde ich mir das glatt überlegen und einfach auf die 3080(ti) warten.

bei 11 und 12gb sicherlich nicht. die 2080ti wird sicher auch nicht so viel günstiger werden. lass es als "schnäppchen" 1000€ sein. Das ist dann noch immer viel geld. Ich kann mir auch nicht vorstwellen, dass nv beim 7nm shrink so viel neue einheiten dazupacken wird. Für amd reicht es auch so und man will sicherlich die chipgröße reduzieren. Imho baut man noch den ampere nachfolger mit 7nm und kann mit 7nm turing nicht in die vollen gehen.

Schade ist die super für die ganzen turing käufer, welche hier richtig verarscht wurden. Gerade das von 6 auf 8 gb upgrade der 1060er ist echt bitter.

hq-hq
2019-06-12, 18:34:16
schätze weil die 2080 2000MHz Speicher bekommt wird ihn die 2080Ti auch bekommen

BlacKi
2019-06-12, 18:58:51
Ne schnellere 2080ti löst irgendwie kein großes Problem, das finde ich nicht so spannend.
4K@60+ hat man ja schon mit der Karte quasi abgedeckt, es sei denn die Karte wird halt günstiger, weil AMD irgendwo ne 60CU Version backt.
wenn da eben knapp 35%+ leistung gebracht werden, dann bleibt man eben bei der alten leistung. es reicht einfach nicht um einen wechsel attraktiv zu gestalten. da ist sich nvidia einfach selbst die größte konkurenz ist, durch die alte gen.

Armaq
2019-06-12, 20:18:38
Ich hab ne Gaming OC und mein Netzteil schaltet die Karte unter bestimmten Spielen ab, meint der ganze PC wird runter gefahren. Wenn ich nur das Netzteil ärgere, passiert nichts. Laut Software Tools gehen mehr als 275 Watt über die beiden 8Pol Stecker ...

chiller
2019-06-18, 09:51:38
Mit meinem alten BeQuiet DarkPower Pro 750w is mir auch als die Kiste einfach ausgegangen, seit dem wechsel auf nen neues Corsair HX keine Probleme mehr.

Slipknot79
2019-06-18, 19:59:25
Bei mir ging bisher mein Corsair HW 850W 2x aus, dunno warum. Kann alles mögliche sein.
Bin aber auch draufgekommen, dass ich das NT verkehrt herum eingebaut habe, der Lüfter war nach oben gerichtet, muss aber zum Gehäuseboden gerichtet sein. Vllt wurde da warme Luft aus dem Gehäuse ins NT geballert und so griff vllt die Temperaturabschaltung ein.
Jetzt zieht das NT die Luft durch die Schlitze im Gehäuseboden rein. Mal schauen ob das was bringt, ist erst seit 1 Woche korrigiert worden, bisher noch keine Probleme.
Der Deckel des NT wird aber doch recht warm, sicher gute 42°C.

hq-hq
2019-06-19, 08:32:48
Netzteilprobleme sind wohl nicht so selten mit dicken GPUs...

mit der Voodoo3 3000 musste ich mal den AGP Spannungswandler mit Kühlkörper ausstatten und aktiv kühlen..

mit der GTX 470 und OC hatte mein 500Watt Amacrox Netzteil Abschalter in Metro

das Seasonic SS HT mit 750watt hat seit der GTX 470 über 2x GTX 970 OC SLI bishin zur GTX 1080Ti mit OC (375Watt Powerlimit) alles geschluckt.

Die 2080Ti OC (420 Watt Limit) läuft an einem Corsair TX 850Watt. Keine Abschalter, nur Treiberresets bei zu hohem OC.

gedi
2019-06-19, 09:34:25
Netzteilprobleme sind wohl nicht so selten mit dicken GPUs...

mit der Voodoo3 3000 musste ich mal den AGP Spannungswandler mit Kühlkörper ausstatten und aktiv kühlen..

mit der GTX 470 und OC hatte mein 500Watt Amacrox Netzteil Abschalter in Metro

das Seasonic SS HT mit 750watt hat seit der GTX 470 über 2x GTX 970 OC SLI bishin zur GTX 1080Ti mit OC (375Watt Powerlimit) alles geschluckt.

Die 2080Ti OC (420 Watt Limit) läuft an einem Corsair TX 850Watt. Keine Abschalter, nur Treiberresets bei zu hohem OC.


Welches Vbios für 420W?

TobiWahnKenobi
2019-06-19, 10:03:34
Bei mir ging bisher mein Corsair HW 850W 2x aus, dunno warum. Kann alles mögliche sein.
Bin aber auch draufgekommen, dass ich das NT verkehrt herum eingebaut habe, der Lüfter war nach oben gerichtet, muss aber zum Gehäuseboden gerichtet sein. Vllt wurde da warme Luft aus dem Gehäuse ins NT geballert und so griff vllt die Temperaturabschaltung ein.
Jetzt zieht das NT die Luft durch die Schlitze im Gehäuseboden rein. Mal schauen ob das was bringt, ist erst seit 1 Woche korrigiert worden, bisher noch keine Probleme.
Der Deckel des NT wird aber doch recht warm, sicher gute 42°C.

mal von single auf multirail umschalten. bei meinem alten corsair, das jetzt im AMD steckt, war das der weg, zwei 380W TIs abschaltfrei zu betreiben.
in meinem intel steckt ein 1200W corsair, da ist es genau andersrum.


(..)

mfg
tobi

ChaosTM
2019-06-19, 10:22:07
würdet ihr bei der super 2080ti mit 12gb oder gar 22gb (24gb bleibt der titan vorbehalten) und allen shadern bei 1100-1300€ zuschlagen? selbst bei 800€ würde ich mir das glatt überlegen und einfach auf die 3080(ti) warten.


Bei 22Gb würde ich zu überlegen anfangen. Müsste aber seehr günstig ausfallen für NV Verhältnisse. 1000 max ^

RoughNeck
2019-06-19, 10:40:30
Wie alle immer auf mehr VRAM kommen.
Die Super TI wird einfach schnelleren Speicher bekommen, eventuell paar Shader mehr und fertig.

hq-hq
2019-06-19, 12:37:49
Welches Vbios für 420W?
Dancop XOC BIOS
https://www.techpowerup.com/vgabios/208990/208990

https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/48935-fuer-experimentierfreudige-dancop-oc-bios-der-rog-rtx-2080-ti-bis-1-000-w-power-limit.html

-> https://youtu.be/NvW_F7fb4bU

ähm sollte man vielleicht noch dazuschreiben, es geht wohl auch auf dem ref PCB aber dann gehen glaub ich nicht mehr alle HDMI/Display Ports
bei anderen Custom PCBs besser nicht flashen
abgesehen davon funktioniert der Curve Editor nicht mehr, somit hängt die Karte meist bei 1.043V fest

SamLombardo
2019-07-22, 17:40:09
Da jetzt ja doch einige Titel mit Ray Tracing kommen ...und ich nicht bis Ende 2020 oder so warten will:rolleyes:, habe ich mich jetzt für ein Sidegrade entschieden und eine EVGA RTX 2080 XC Gaming für 649.- bei Notebooks Billiger bestellt. Meine MSI 1080ti Gaming X wird verkauft, mal sehen, was die noch bringt. Die 3GB weniger Ram "schmerzen" schon ein wenig, hoffe mal, dass die in der Praxis nicht allzu viel ausmachen. Freue mich dann erst mal auf Metro, das habe ich extra aufgehoben um es mit RT zu spielen...wenn, dann wird mit bestmöglicher Optik gezockt:wink:. Na mal sehen, ob es die richtige Entscheidung war, oder ob ich mich hinterher ärgere.

Daredevil
2019-07-23, 12:39:59
Neues von der Turing Front, während der Palit B-Chip sich bei 0.7v nur auf 1400Mhz Takten lies und der Palit A-Chip auf 1515Mhz rauf ging, komme ich nun mit ner Msi Trio auf 1575Mhz bei 0.7v. Holy Moly, das Ding geht echt gut. :D
Muss im Laufe der Woche mal den max Takt testen, die Kühlung ist aber echt brachial. Bei Rocket League in WQHD@144fps springt der Lüfter nicht einmal an.

hq-hq
2019-07-23, 13:00:04
Da jetzt ja doch einige Titel mit Ray Tracing kommen ...und ich nicht bis Ende 2020 oder so warten will:rolleyes:, habe ich mich jetzt für ein Sidegrade entschieden und eine EVGA RTX 2080 XC Gaming für 649.- bei Notebooks Billiger bestellt. Meine MSI 1080ti Gaming X wird verkauft, mal sehen, was die noch bringt. Die 3GB weniger Ram "schmerzen" schon ein wenig, hoffe mal, dass die in der Praxis nicht allzu viel ausmachen. Freue mich dann erst mal auf Metro, das habe ich extra aufgehoben um es mit RT zu spielen...wenn, dann wird mit bestmöglicher Optik gezockt:wink:. Na mal sehen, ob es die richtige Entscheidung war, oder ob ich mich hinterher ärgere.

du kannst ja nach Registrierung noch 90 Tage lang das Step-Up Programm von EVGA nutzen ^^

---
@daredevil

na dann lass die Karte mal auf 2150MHz boosten :freak:

SamLombardo
2019-07-23, 13:20:31
du kannst ja nach Registrierung noch 90 Tage lang das Step-Up Programm von EVGA nutzen ^^

Hey cool, danke:). Das wusste ich gar nicht. Na mal sehen....

Raff
2019-07-23, 13:25:04
@daredevil

na dann lass die Karte mal auf 2150MHz boosten :freak:

Das kriegst du nicht dauerhaft. Wenn überhaupt, dann eine halbe Sekunde, aber niemals mit Luft unter 4K-Volllast. ;)

MfG,
Raff

Daredevil
2019-07-23, 16:42:02
~2070Mhz ging gestern im Superposition 4K, aber mein Score war im Vergleich zu deinem um 10% niedriger @ hqhq
CPU Limit mit nem Ryzen 1600@ 3.9Ghz? :D

Ich schau später mal, was ich unter Max Lüfterdrehzahl hinbekomme.


Deine Karte schon da? @Raff
Meine war kein Stein. :D

Slipknot79
2019-07-23, 18:57:23
Neues von der Turing Front, während der Palit B-Chip sich bei 0.7v nur auf 1400Mhz Takten lies und der Palit A-Chip auf 1515Mhz rauf ging, komme ich nun mit ner Msi Trio auf 1575Mhz bei 0.7v. Holy Moly, das Ding geht echt gut. :D
Muss im Laufe der Woche mal den max Takt testen, die Kühlung ist aber echt brachial. Bei Rocket League in WQHD@144fps springt der Lüfter nicht einmal an.


Wie regelst du die GPU Votage?

hq-hq
2019-07-23, 20:00:20
Das kriegst du nicht dauerhaft. Wenn überhaupt, dann eine halbe Sekunde, aber niemals mit Luft unter 4K-Volllast. ;)

MfG,
Raff

darum hab ich ja boosten geschrieben :biggrin:

ohne den Curve Editor nutzen zu können kann ich nur bis ~2130MHz boosten (superpos 4k opt.), der max Takt ist so wahrscheinlich zwei Stufen geringer als er sein könnte....

@daredevil

hast du den Speicher auch hochgezogen, bei mir lief die Ti mit 2080Ti@2055-2135/8200MHz in 4k optimized für einen Score von 14000 (hab mich wohl verschaut können nur 2130MHz gewesen sein...)

k0nan
2019-07-24, 11:12:33
Meh, gestern in Prey ist meine FE 2080 Ti (A1 Chip / Micron VRAM) gestorben: Black Screen bei jeglicher 3D Anwendung. Ich hatte bei Release vorbestellt, damit hat sie jetzt seit Oktober 2018 ganze neun Monate gehalten. I am not amused :nono:

Daredevil
2019-07-24, 11:21:43
Habs gestern mal versucht, mit 330w im PL schaffe ich im Max Boost und Max Kühlung gerade so 2150Mhz für eine Sekunde, der sofort wieder runtergeht. Im Mittel bewegt sie sich dann auch ähnlich wie bei dir, also so um die 2100, eher weniger.
Bin ich aber trotzdem sehr zufrieden mit, ist bislang die schnellste Ti der vier Karten, die ich hatte.

Shadow of the Tomb Raider läuft gut mit WQHD-Max Settings und RT High, mehr wollte ich nicht. ^^
Ich muss mir aber mal noch ein ökologisches Setting suchen, weil ~420w, die die Kiste dann verbrät, steigt mir direkt unter den Schreibtisch hoch zu mir. Im Winter okay, gerade eher nicht so. :D
Werd wohl mal ausloten, was ich für 2Ghz brauche, dann ists auch gut.
Arbeite dann eh immer mit drei Profilen, je nach Spiel.

1575Mhz Lowvoltage @ ~165w ( ~2080 Leistung )
2000Mhz Performance @ ~250w
~2080-2100Mhz MAX PURFORMANCE ~ MAX WUTTAGE

@Slipknot79
Mitm MSI Afterburner Curve Editor

w0mbat
2019-07-24, 11:23:45
Meh, gestern in Prey ist meine FE 2080 Ti (A1 Chip / Micron VRAM) gestorben: Black Screen bei jeglicher 3D Anwendung. Ich hatte bei Release vorbestellt, damit hat sie jetzt seit Oktober 2018 ganze neun Monate gehalten. I am not amused :nono:
Wer billig kauft, kauft zweimal. :wink:

taddy
2019-07-24, 11:45:09
Ich habe nun eine 1080ti verbaut und Spiele mit dem Gedanken diese Karte in einen Rechner zu stecken der im Keller als VR Rechner seinen Dienst tun soll.

Wie sieht ihr den Tausch mit einer 2080? Die sollen ja ähnlich schnell sein, nur die 2080 hat halt "nur" 8Gb VRam. Spiele in WQHD, merkt man die 3Gb weniger?

dargo
2019-07-24, 12:04:03
Mir ist noch kein Game untergekommen wo die 8GB in WQHD zu wenig wären. Ich spiele aber auch nicht alles.

aufkrawall
2019-07-24, 12:16:15
In Far Cry: ND + Textur-Paket sind es knapp zu wenig.

SamLombardo
2019-07-24, 14:27:30
Meine EVGA 2080 kam heute auch schon, und ich bin in der Mittagspause gleich mal nach Hause um sie einzubauen. Testen konnte ich natürlich noch nicht viel, außer dass es der "gute" 1E87 chip ist und dass sie halt erstmal läuft. Habe gleich mal Metro Exodus angeschmissen und die RT Einstellung im Menü eingeschaltet. Läuft auf jeden Fall erstmal schön flüssig, ohne dass ich bisher fps gemessen hätte. Allerdings ist mir dabei gleich das erste "Problem" untergekommen, nämlich dass ich RT nur mit DLSS nutzen kann? Das wäre ja blöd. Geht das irgendwie zu umgehen, niedrigere FPS sind mir da erstmal egal. Ich möchte es mal probieren. Oder ist es wirklich so das wenn ich dlss ausschalte auch Ray Tracing ausgeschaltet wird?

Raff
2019-07-24, 14:30:22
Tray Racing geht auf jeden Fall auch ohne DLSS. DLSS geht aber nicht in allen Auflösungen. Einfach mal bisschen rumdrücken. :)

Deine Karte schon da? @Raff
Meine war kein Stein. :D

Gerade erst gesehen. Heute kam laut meiner Holden ein Paket an - das dürfte sie sein. Ob eine Grafikkarte drin ist, erfahre ich später (die Rechnung kam schon mal digital vorab). :D

DHL scheint Pakete neuerdings durch Werfen von A nach B (statt Fahren) zuzustellen, so wie die mittlerweile oft aussehen und so lange, wie das dauert ... :ugly:

Wer billig kauft, kauft zweimal. :wink:

Der war fies.

MfG,
Raff

woodsdog
2019-07-25, 08:19:18
Werd wohl mal ausloten, was ich für 2Ghz brauche, dann ists auch gut.
Arbeite dann eh immer mit drei Profilen, je nach Spiel.

1575Mhz Lowvoltage @ ~165w ( ~2080 Leistung )
2000Mhz Performance @ ~250w
~2080-2100Mhz MAX PURFORMANCE ~ MAX WUTTAGE


Mal ehrlich... why? Die Karten sind bei 2GHz offensichtlich am Ende. Warum heitzt man >100W zuätzlich weg für lächerliche <=5% mehr Takt? Das ist nicht mal ansatzweise zu spüren und macht praktisch keinen Unterschied abgesehen von Laut und Heiß. :confused:

SamLombardo
2019-07-25, 10:24:42
Tray Racing geht auf jeden Fall auch ohne DLSS. DLSS geht aber nicht in allen Auflösungen. Einfach mal bisschen rumdrücken. :)

Raff
Und so war es natürlich. Es lag an der fehlenden Windows Version 1803 (1903). Ohne diese konnte ich RT zwar anschalten, aber eben mit den genannten Einschränkungen. Strange. Da ich mich damit noch nicht so beschäftigt hatte war mir die Wichtigkeit dieses Windows-Updates nicht so wirklich bewusst. Jetzt funktioniert es sehr gut. Und das war schon ordentlich wow:eek:. Gestern gleich mal ausgiebig und Metro Exodus gespielt. Man kann RT ja problemlos in den Optionen aus und anschalten, um mal einzelne Szenen zu vergleichen. Gerade wenn man in Metro Exodus in Räumen ist und draußen Tageslicht reinscheint,, auch im Zug z.b., ist es doch ein gewaltiger Unterschied. Schon dafür hat sich das "Sidegrade" für mich als Grafikfeteschist gelohnt. Performance mäßig... okay sag ich mal. Ich spiele in 4K, und ohne dlss mit maximalen Einstellungen (extrem) und RT hoch habe ich um die 30 fps. Mit dem alten Trick der benutzerdefinierten 21 zu 9 Auflösung (3840 x 1620) sind es dann um die 40. Damit lässt sich es schon schön spielen, und groß genug ist mein Bildschirm (55 Zoll OLED) ja. Die Karte wird ganz schön warm, ich habe nichts noch übertaktet, nur das Power Taret auf 110 und in Metro mit Raytracing um die 80 Grad. Der Takt fällt nicht unter 1920mhz. Natürlich hatte ich auch 25 Grad im Zimmer, das wird auch noch was machen. Meine 1080 TI war aber etwas kälter (höchstens 77).

Die Global Illumination, und Raytracing überhaupt ist schon sehr beeindruckend. Das ist definitiv der Schritt in die richtige Richtung. Ich freue mich schon auf zukünftige Karten, die hier noch ordentlich an der Geschwindigkeits Schraube drehen. Insgesamt ist es aber geil, die 2080 zu haben. Der Wow-Effekt gestern war das Ganze schon wert:)

Daredevil
2019-07-25, 10:30:42
Weswegen habe ich wohl drei Profile angegeben? Damit ich 24/7 nur den Afterburner zünde?
Profil drei ist for the luls, mehr nicht.

Mein Hauptprofil ist das erste, bei AAA Spielen das zweite. Das dritte ist nur für Benchmarks und als Machbarkeitsstudie, mehr nicht.

Raff
2019-07-25, 11:06:48
Und so war es natürlich. Es lag an der fehlenden Windows Version 1803 (1903). Ohne diese konnte ich RT zwar anschalten, aber eben mit den genannten Einschränkungen. Strange. Da ich mich damit noch nicht so beschäftigt hatte war mir die Wichtigkeit dieses Windows-Updates nicht so wirklich bewusst. Jetzt funktioniert es sehr gut. Und das war schon ordentlich wow:eek:. Gestern gleich mal ausgiebig und Metro Exodus gespielt. Man kann RT ja problemlos in den Optionen aus und anschalten, um mal einzelne Szenen zu vergleichen. Gerade wenn man in Metro Exodus in Räumen ist und draußen Tageslicht reinscheint,, auch im Zug z.b., ist es doch ein gewaltiger Unterschied. Schon dafür hat sich das "Sidegrade" für mich als Grafikfeteschist gelohnt. Performance mäßig... okay sag ich mal. Ich spiele in 4K, und ohne dlss mit maximalen Einstellungen (extrem) und RT hoch habe ich um die 30 fps. Mit dem alten Trick der benutzerdefinierten 21 zu 9 Auflösung (3840 x 1620) sind es dann um die 40. Damit lässt sich es schon schön spielen, und groß genug ist mein Bildschirm (55 Zoll OLED) ja. Die Karte wird ganz schön warm, ich habe nichts noch übertaktet, nur das Power Taret auf 110 und in Metro mit Raytracing um die 80 Grad. Der Takt fällt nicht unter 1920mhz. Natürlich hatte ich auch 25 Grad im Zimmer, das wird auch noch was machen. Meine 1080 TI war aber etwas kälter (höchstens 77).

Die Global Illumination, und Raytracing überhaupt ist schon sehr beeindruckend. Das ist definitiv der Schritt in die richtige Richtung. Ich freue mich schon auf zukünftige Karten, die hier noch ordentlich an der Geschwindigkeits Schraube drehen. Insgesamt ist es aber geil, die 2080 zu haben. Der Wow-Effekt gestern war das Ganze schon wert:)

Sehe ich genauso. Das ist cool, neu und ein Mehrwert (für die schnellsten RTX-Karten). Das Gemotze im Raytracing-Kontext ist zwar nachvollziehbar, aber irgendwer muss mal irgendwann den Anfang machen. Ich freue mich jedenfalls darauf, ebenfalls etwas mit RTX herumzuspielen. Control dürfte spannend werden. =) Apropos:

Deine Karte schon da? @Raff
Meine war kein Stein. :D

Meine Karte ist auch kein Stein und funktioniert! :eek: Wir wurden nicht abgezogen, sondern sind recht günstig an je eine der besten Ti-Karten gekommen. Freude. :biggrin:

MfG,
Raff

HisN
2019-07-25, 12:37:59
Mir ist noch kein Game untergekommen wo die 8GB in WQHD zu wenig wären. Ich spiele aber auch nicht alles.


Und das ist halt immer der Knackpunkt.
Wenn ich z.b. bei einem Spiel wo ich weiß das es in FHD schon 8GB füllt zum Level-Load eine 6GB Karte simuliere, indem ich den Speicher mit Schrott fülle ....

https://abload.de/thumb/rottr_2019_03_03_16_3jvjov.jpg (https://abload.de/image.php?img=rottr_2019_03_03_16_3jvjov.jpg) https://abload.de/thumb/rottr_2019_03_03_16_3fmkua.jpg (https://abload.de/image.php?img=rottr_2019_03_03_16_3fmkua.jpg)

Und es gibt ja durchaus Games die das VRAM erst mal ordentlich füllen zum Level-Start.
https://abload.de/thumb/blackops4_2019_07_01_chke0.jpg (https://abload.de/image.php?img=blackops4_2019_07_01_chke0.jpg)

hq-hq
2019-07-25, 12:53:41
Mal ehrlich... why? Die Karten sind bei 2GHz offensichtlich am Ende. Warum heitzt man >100W zuätzlich weg für lächerliche <=5% mehr Takt? Das ist nicht mal ansatzweise zu spüren und macht praktisch keinen Unterschied abgesehen von Laut und Heiß. :confused:

normal begrenzt ja VSync -bei mir halt bei nur 60Hz- trotzdem taktet die Karte bei Dishonored2, Battletech oder Farcry 5 ND manchmal auf ca. 2070MHz hoch (2045-2100), das sind dann so 220-320Watt was in einzelnen kurzen Szenen gefressen wird...
dafür fällt die Framerate normal nicht unter 60 :freak:
Soo laut wäre es dauerhaft auf ~2070MHz allerdings auch nicht, dann eher 2000MHz bei ca. 1.00V

SamLombardo
2019-07-25, 14:00:09
Was meint ihr, muss ich mir Sorgen machen über die 80 Grad, die meine 2080 unter Volllast erreicht? Ist das unverhältnismäßig viel? Ich meine, noch habe ich Rückgaberecht. Oder würde eine Austauschkarte vermutlich auch keine anderen Temperaturen zeigen? Wie sieht es denn bei euch aus?

MartinRiggs
2019-07-25, 14:03:30
Kenne jetzt deine 2080 nicht genau und es kommt auf die Umgebungswärme an, bei den aktuellen Temperaturen und ohne Curve-Editor geht meine 2080Ti auch auf die 80 Grad zu.
Mit eigener Kurve bleib ich knapp über 70 Grad

aufkrawall
2019-07-25, 14:04:27
80°C GPU sind völlig egal, so lange Kühler und PCB nicht Müll sind.

dildo4u
2019-07-25, 14:07:09
Wie Warm ist es denn im deinem Raum wenn ich jetzt Zocken würde hätte meine GPU natürlich 5 Grad mehr als sonst weil es 26 Grad sind.Bzw der Lüfter würde mehr aufdrehen.

SamLombardo
2019-07-25, 14:30:20
Alles klar, danke für eure Infos. Dann ist es also noch ok.;) Gut zu wissen.

JVC
2019-07-25, 20:40:34
Wie Warm ist es denn im deinem Raum wenn ich jetzt Zocken würde hätte meine GPU natürlich 5 Grad mehr als sonst weil es 26 Grad sind.Bzw der Lüfter würde mehr aufdrehen.
Schaff dir ne Klima an und es wird nicht wärmer! (sondern nur teurer :wink:)
("heißester Sommer" Pfff... wier werden "nur noch" Rekorde erleben :freak:....)

M.f.G. JVC

SamLombardo
2019-07-25, 21:06:55
Hab jetzt mal aufgrund eurer Tipps (danke@MartinRiggs) bisschen an der Lüfterkurve gedreht und siehe da, die Temperatur geht nicht mehr über 72. Selbst bei Metro 4k Extreme mit RT. Und das bei 26 grad im Raum. Hätt nicht gedacht, dass das so viel bringt. Jetzt bin ich uneingeschränkt zufrieden mit der EVGA. Cooler Nebeneffekt: Der Takt geht nicht mehr unter 1980 mhz.



Ach, und hab ich eigentlich schon geschrieben, dass Metro Exodus mit Raytracing und HDR der absolute Hammer ist;D?

Troyan
2019-07-26, 09:57:35
Habe ich im HDR-Thread ja schon geschrieben: Raytracing ist unabdingbar, um vernünftiges HDR in dunklen Bildern zu realisieren.

Daredevil
2019-07-26, 10:34:54
Mal ehrlich... why? Die Karten sind bei 2GHz offensichtlich am Ende. Warum heitzt man >100W zuätzlich weg für lächerliche <=5% mehr Takt? Das ist nicht mal ansatzweise zu spüren und macht praktisch keinen Unterschied abgesehen von Laut und Heiß. :confused:
Manchmal kommt man aber dann doch in Regionen, wo man die 100w opfert. :>
Hach ich liebe diese Karte so, noch nie habe ich das Gefühl gehabt mit einer Karte, viel zu viel Power im System zu haben.
Forza Horizon 4 @ 5K Ultra Details, weil 4k total Mainstream ist
Knapp ~8,7gb VRAM Nutzung, je nach Szene.
wnADQ0r2wuU
PS: Meinen Führerschein habe ich aus nem Kaugummi Automaten!!111

dargo
2019-07-26, 10:38:03
Forza Horizon 4 @ 5K Ultra Details, weil 4k total Mainstream ist

Hast du zuviel Sonne abbekommen? :tongue:

k0nan
2019-07-26, 16:32:20
Meh, gestern in Prey ist meine FE 2080 Ti (A1 Chip / Micron VRAM) gestorben: Black Screen bei jeglicher 3D Anwendung. Ich hatte bei Release vorbestellt, damit hat sie jetzt seit Oktober 2018 ganze neun Monate gehalten. I am not amused :nono:

Breaking News: Die 2080 Ti lebt! Offensichtlich ist die AB Beta schuld :eek: Ich hatte mir kurzfristig eine Titan XP gekauft und hatte die gleiche Black Screen Problematik. Hab' jetzt AB Version 461 (non beta) drauf und es funzt. All hail to Micron VRAM :freak:




Wer billig kauft, kauft zweimal. :wink:

Der war fies.


...und unsensibel :biggrin:

https://files.gamebanana.com/img/ico/sprays/middlefingertransparentfixed.png

Daredevil
2019-07-27, 00:29:54
Hast du zuviel Sonne abbekommen? :tongue:
Ja Sorry Broooooo, ich wohne halt nicht mehr in der
https://abload.de/img/img_2477vakr0.jpg

:D

Raff
2019-07-27, 10:43:38
Erste Benchmarks vom neuen Wolfenferkel: Wolfenstein Youngblood im Benchmark-Test: Technisch beeindruckende Vulkan-Koop-Ballerei (https://www.pcgameshardware.de/Wolfenstein-Youngblood-Spiel-61757/Specials/Grafikkarten-Benchmarks-Test-1295585/)

Macht mit maximalen Details genau 8 GiB voll – ein Schelm ... ;) Die Ti ist ordentlich bestückt, um auch das kommende Raytracing zu stemmen.

MfG,
Raff

Ex3cut3r
2019-07-27, 13:26:00
Turing mal wieder eine Rakete. :)

aufkrawall
2019-07-27, 13:34:51
gamegpu sieht deutlich anders aus...
https://gamegpu.com/action-/-fps-/-tps/wolfenstein-youngblood-test-gpu-cpu

Swissr
2019-07-27, 13:39:06
Danke Raff,

kannst du dir erklären warum der Unterschied zwischen 1080 TI und 2080 TI in jeder Auflösung bei knapp 40 Prozent (Average und Minimum Wert) liegt, AUSSER bei der 21:9 Auflösung 3440x1440?

Dort ist der Average (34 Prozent) bzw. Minimum (18 Prozent) Wert deutlich abweichend.

pixeljetstream
2019-07-27, 13:48:25
Die einfachste Erklärung wäre dass bei widescreen mehr Objekte sichtbar sind, während wir bei den anderen Tests primär mehr Pixel bekommen bei ähnlichen Objekten/Ansicht.

Swissr
2019-07-27, 14:09:35
Ja, das wäre eine Erklärung. Ein kurzer Gegencheck mit dem Abstand der 1080ti zur 2070 sowie der 2070 zur 2080 ti zeigt allerdings ein anderes Bild. Nur die 1080ti scheint bei 21:9 deutlich stärker zu sein als die beiden anderen, die Abstände zur 2070 verringern sich von 9% auf 5%, während das Verhältnis zwischen 2070 und 2080ti gleich bleibt.

dildo4u
2019-07-27, 14:13:51
gamegpu sieht deutlich anders aus...
https://gamegpu.com/action-/-fps-/-tps/wolfenstein-youngblood-test-gpu-cpu
Vermutlich nicht alle Regler auf rechts weniger Vram Verbrauch,die 1660Ti sieht sogar in 1440p sehr gut aus.(Schneller als 1080)

Achill
2019-07-27, 14:21:48
gamegpu sieht deutlich anders aus...
https://gamegpu.com/action-/-fps-/-tps/wolfenstein-youngblood-test-gpu-cpu

Ist das gleiche Level aber eine andere Test-Sequenz. Bei GameGPU scheint es durch den Kampf fordernder zu sein, dafür sollte eine gute Reproduzierbarkeit nahe null sein im Gegensatz zu dem Bench-Lauf von PCGH ...

Ansonsten gibt es ggf. noch Unterschiede bei der Power-Budgets der GPU - die 2080TI von MSI darf auch im Default mehr Power ziehen. GameGPU könnte eine Standard? 2080 TI (FE) testen, leider gibt es da keine Info.

Die Werte von den Vega56er unter 4k sehen dann schon ähnlicher aus ...

aufkrawall
2019-07-27, 14:32:02
Vermutlich nicht alle Regler auf rechts weniger Vram Verbrauch,die 1660Ti sieht sogar in 1440p sehr gut aus.(Schneller als 1080)
Die höchste Streaming-Einstellung hatte bei noch Wolf2 auch null Sinn ergeben.

dafür sollte eine gute Reproduzierbarkeit nahe null sein im Gegensatz zu dem Bench-Lauf von PCGH ...

Das sieht bei denen immer so aus, trozdem sind die Werte der verschiedenen GPUs/CPUs in jedem Test immer untereinander stimmig, so auch hier. Tut also nichts zur Sache.

Ex3cut3r
2019-07-27, 15:24:30
Ich kann die Benches von PCGH in Wolfenstein 2 jedenfalls bestätigen, hatte vorher eine 1070 (Pascal) mit der 2080 lief schon Wolfenstein 2 unverhältnismäßig schneller.

EDIT: Hier mein Original Beitrag im Luxx von fast einem Jahr mit Screenshot und Text (GTX 1070 ~ 70FPS vs 170 FPS ~ 2080, 3440x1440, MAX mit Ueber)
https://www.hardwareluxx.de/community/f305/nvidia-geforce-rtx-2080-tu104-400a-sammelthread-faq-1206772-7.html#post26546127

dargo
2019-07-27, 15:31:04
gamegpu sieht deutlich anders aus...
https://gamegpu.com/action-/-fps-/-tps/wolfenstein-youngblood-test-gpu-cpu
Hehe... ich sehe es schon kommen, 5700XT Custom = RTX2070S/2080. :freak:

dildo4u
2019-07-27, 15:38:23
Die Russenwerte sind eh Müll 2060 103fps vs 106fps mit der 2070 in 1440p.

aufkrawall
2019-07-27, 15:49:15
Der Wert ist in der tat seltsam. Gibt aber mittlerweile auch noch Techpowerup:
https://www.techpowerup.com/review/wolfenstein-youngblood-benchmark-test-performance/4.html

Bei PCGH ist der Vorsprung der 1080 Ti zur Vega 56 ca. doppelt so hoch wie sowohl bei gamegpu als auch TPU. :rolleyes:

dildo4u
2019-07-27, 15:59:06
2060S auf 1080 Ti Level,sieht doch ok aus.Auch nicht wirklich verwunderlich da an der Engine nicht viel gegenüber TNC passiert ist mal sehen ob Doom Eternal weiter geht.

Slipknot79
2019-07-27, 20:08:11
Also ich becume Youngblood auch ned unter 165fps ^^, außer in Zwischensequenzen forced auf 30fps ^^

gnomi
2019-07-28, 09:44:04
Turing ist ne Ecke schneller. :up:
Bringt nur meines Erachtens hier nichts, weil kein Raytracing @ Launch und sowieso noch 60 fps in 4K auf einer 1080 OC Pascal @ Maximum Settings!
Es macht allerdings Hoffnung auf die nächste Flut an Games in der nächsten Generation, die dann tatsächlich auch mehr Grafik auf die Bildschirme zaubern wird. =)

JVC
2019-07-28, 10:07:02
Bringt nur meines Erachtens hier nichts, weil kein Raytracing @ Launch und sowieso noch 60 fps in 4K auf einer 1080 OC Pascal @ Maximum Settings!

Geht mir genau so mit meiner 1080Ti :smile:
Hab irgendwie kein Game was die 1080Ti nicht mit 60Fps stemmen könnte.
(und zur Not kann man ja etwas die Regler bedienen)

Ich freu mich auf HDMI 2.1 :up:
Da verschieben sich die Grenzen dann merklich nach oben.

M.f.G. JVC

basix
2019-07-28, 12:03:03
Die hohen FPS in Wolfenstein sind evtl. mit ein Grund für RTX Promoting. Da kann man RTX mal ausfahren bei gleichzeitig 4K/60fps ;)

dargo
2019-07-28, 13:39:31
Ich finds etwas schade, dass man in diesem Spiel nicht mehr in Grafik investiert hat wenn die Frameraten schon so hoch sind. Und damit meine ich nicht RT. ;) Aber gut... man richtet sich nach den Konsolen. Bei der nächsten Gen wird erst wieder erheblich mehr in Grafik investiert.

Fragman
2019-07-28, 13:54:02
Ich finds etwas schade, dass man in diesem Spiel nicht mehr in Grafik investiert hat wenn die Frameraten schon so hoch sind. Und damit meine ich nicht RT. ;) Aber gut... man richtet sich nach den Konsolen. Bei der nächsten Gen wird erst wieder erheblich mehr in Grafik investiert.

Die Framerates werden deutlich nach unten gehen, soviel ist klar.
Dabei ist es egal, ob RT oder nicht. Wenn man kein RT nutzt für die Beleuchtung, geht man andere Wege, die kennen wir und die Performance wird genauso absacken und Kritik auslösen, weil man keine 60 Frames bei 4K haben wird (Ich rede in dem Zusammenhang von Realtime ;)).

JVC
2019-07-28, 17:21:23
Die Framerates werden deutlich nach unten gehen, soviel ist klar.
Dabei ist es egal, ob RT oder nicht. Wenn man kein RT nutzt für die Beleuchtung, geht man andere Wege, die kennen wir und die Performance wird genauso absacken und Kritik auslösen, weil man keine 60 Frames bei 4K haben wird (Ich rede in dem Zusammenhang von Realtime ;)).
Das ist der normale verlauf alt werdender Hardware ...

Entweder man kann Regler bedienen, oder man kauft sich ne neue Graka.

M.f.G. JVC

Fragman
2019-07-28, 19:48:37
Das ist der normale verlauf alt werdender Hardware ...


Jep, genau deshalb ist diese Diskussion etwas unsinnig.
Wenn man das Argument der Regler ernst nimmt, braucht man über RT oder Alternativen in Software sowieso nicht zu reden, denn man dreht einfach an den Reglern. ;)

JVC
2019-07-28, 20:10:27
Wenn man das Argument der Regler ernst nimmt, braucht man über RT oder Alternativen in Software sowieso nicht zu reden, denn man dreht einfach an den Reglern. ;)
Ich versteh deine Argumentation nicht ganz ...
Natürlich gibt es viele Möglichkeiten die Optik "aufzuhübschen".
Natürlich nehme ich das Thema "Regler"(BQ) ernst ...
Um so mehr ich einstellen kann um so besser ;)
(RT nehme ich noch nicht erst, da kaum existent...
und DLSS? oder sonstige bevormundende verschlimmbesserer ... Pff NO NEED!)

Aber das ist nur meine ganz persönliche Ansicht :wink:

M.f.G. JVC

Mr.Scott
2019-08-01, 08:18:19
Hi Leute, bin grad etwas verwirrt da ich mich schon sehr lange nicht mehr intensiv mit Grafikkarten auseinander gesetzt habe.
Will jetzt wegen so einer Frage auch keinen neuen Thread öffnen.

Wo genau liegt der Unterschied zwischen einer 2070 und 2070FE?
...und wo würde sich da eine MSI 2060 Super Ventus OC einordnen?

dildo4u
2019-08-01, 08:27:12
Wo genau liegt der Unterschied zwischen einer 2070 und 2070FE?
...und wo würde sich da eine MSI 2060 Super Ventus OC einordnen?
Die 2070 FE wird nicht mehr angeboten,das war ein Werk OC Modell direkt von Nvidia.Der Ersatz für die Karte ist die 2060 Super FE die diesmal die Basis darstellt,die 2060 S Ventus OC ist minimal schneller.

Ventus OC 1665mhz Boost

Nvidia 1650 Boost

https://www.nvidia.com/de-de/geforce/graphics-cards/rtx-2060-super/

Mr.Scott
2019-08-01, 09:05:05
Die 2070 FE wird nicht mehr angeboten,das war ein Werk OC Modell direkt von Nvidia.Der Ersatz für die Karte ist die 2060 Super FE die diesmal die Basis darstellt,die 2060 S Ventus OC ist minimal schneller.

Ventus OC 1665mhz Boost

Nvidia 1650 Boost

https://www.nvidia.com/de-de/geforce/graphics-cards/rtx-2060-super/

Danke :-)

hq-hq
2019-08-08, 00:32:56
Was schaffen denn eure 2080/2080Ti`s so mit Luft/Wasserkühlung in Games bei 2160p ohne VSync?

Also der tatsächliche Takt wenn die Gute mal 30 oder 60min rödeln darf :freak:

Bei 26°C Raumtemperatur geht der Takt im Beispiel FarCry5 New Dawn im Ultra-Details-Preset tatsächlich auf 2040MHz runter. Habe die Standard Curve +145MHz mit +0% Voltage verwendet und ein offenes Powerlimit. Mit GPUz Polling @ 300ms und aufgezeichnet (ca. 30 Minuten):

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=67403&stc=1&d=1565216816

Raff
2019-08-11, 01:53:29
Übertaktet ihr eure Ti-Karten hier alle per V/F-Kurve oder "klassisch"? Ich bin gerade am Ausloten mit locked Spannung, ist immer noch mühsam.

MfG,
Raff

TurricanM3
2019-08-11, 02:10:48
Curve. 2010/8000@925mV. Ist auch Exodus stable in der Wüste (alles max. + RT High). Hat bei mir mitunter am meisten reingehauen. Lief vorher @893mV.

Daredevil
2019-08-11, 02:14:37
Ich bin mir ehrlich gesagt ab 2Ghz nicht sicher, ob das große Unterschiede macht, weil selbst 0.7v mit 1575Mhz in 190w resultieren.
Sprich, der Karte ist die Spannung irgendwo doch egal, weil mit dem Takt immer der Verbrauch steigt.

Aktuell bin ich bei Stock mit NVIDIA OC Scanner und komme so auf stabile 2035Mhz bei halt 300w. Viel weniger Verbrauch ist bei dem Takt nicht drin, sonst habe ich halt mit dem Curve Editor 1575Mhz/0.7v/190w und 1100Mhz/0.7v/120w.

Istn bisschen komisch bei Turing, die Karte holt sich irgendwie eh, was sie braucht.

HisN
2019-08-11, 12:41:52
Übertaktet ihr eure Ti-Karten hier alle per V/F-Kurve oder "klassisch"? Ich bin gerade am Ausloten mit locked Spannung, ist immer noch mühsam.

MfG,
Raff


Kurve, da ich bis jetzt mit jeder Karte hart ins PowerLimit renne.

aufkrawall
2019-08-11, 13:03:48
Kurve, da ich bis jetzt mit jeder Karte hart ins PowerLimit renne.
Was? Laut dem User Timbaloo sind die NV-Karten doch von Haus aus so effizient, dass das gar nicht nötig wäre. Mensch, isjan Ding...

hq-hq
2019-08-11, 13:47:29
Ich bin mir ehrlich gesagt ab 2Ghz nicht sicher, ob das große Unterschiede macht, weil selbst 0.7v mit 1575Mhz in 190w resultieren.
Sprich, der Karte ist die Spannung irgendwo doch egal, weil mit dem Takt immer der Verbrauch steigt.

Aktuell bin ich bei Stock mit NVIDIA OC Scanner und komme so auf stabile 2035Mhz bei halt 300w. Viel weniger Verbrauch ist bei dem Takt nicht drin, sonst habe ich halt mit dem Curve Editor 1575Mhz/0.7v/190w und 1100Mhz/0.7v/120w.

Istn bisschen komisch bei Turing, die Karte holt sich irgendwie eh, was sie braucht.

etwas schwierig das pauschal zu sagen, aber ich hätte jetzt gesagt 5-10Watt pro 0,0125V :freak:

Raff
2019-08-11, 17:23:38
Curve. 2010/8000@925mV. Ist auch Exodus stable in der Wüste (alles max. + RT High). Hat bei mir mitunter am meisten reingehauen. Lief vorher @893mV.

Ui, so wenig Spannung? Du spielst doch in Ultra HD, oder? Da könnte die Wasserkühlung helfen. Meine Gaming X Trio ist mir gestern mit 0,950 Volt in DCI-4K sowohl in The Witcher 3 als auch Quake 2 RTX @ ~2.000/8.000 MHz abgeschmiert. Mit 1,0 Volt ist sie noch recht hart powerlimitiert, trotz 330 Watt. Die Stabilität liegt wohl irgendwo dazwischen ...

MfG,
Raff

TurricanM3
2019-08-11, 21:13:57
Nein, nur 1440p. W3 und Q2 habe ich nicht getestet. Meine Karte ist recht gut, ja. Habe das ori 330er Bios, das reicht so. Waren max 315w meine ich in Exodus. W3 mag aber mehr ziehen, weiß ich nicht.

Raff
2019-08-11, 23:04:31
Welches Modell hast du denn unter dem Kühler? Und könntest du mal ein Bild deiner Curve posten? Bin einfach neugierig. :)

Für Wolfenstein Youngblood in 6.144 × 3.240 mit Adaptive Shading brauche ich anscheinend 0,987 Volt für ~2.000/8.000 MHz, sonst fliegt die Kiste irgendwann ab. Heftige Last und rund 11 GiB Speicher-Allokation. :cool:

MfG,
Raff

TurricanM3
2019-08-12, 14:59:04
Ich habe eine Palit (mit A Chip), weil die die deutlich leiseren Magic Spulen haben.
Solch heftige Szenarien wie du spiele ich allerdings nicht. Was das ausmacht kann ich nicht einschätzen. Ich habe die Karte hauptsächlich für möglichst hohe FPS in 1440p (Leistung fehlt noch immer je nach Titel).

Ich mache dir heute Abend einen Screen der Kurve.

TurricanM3
2019-08-12, 17:47:31
Hier meine Kurve:

https://abload.de/img/asdasdzojno.png (https://abload.de/image.php?img=asdasdzojno.png)

Weißt ja wie man das macht oder?

EDIT:
Ich habe gerade mal Valley in 4K vs 1440p getestet. Da scheint das keinen Unterschied zu machen. Lief in beiden Auflösungen mit 875mV:

https://abload.de/img/asdasdasdasdtjkqw.png (https://abload.de/image.php?img=asdasdasdasdtjkqw.png)

(Dips auf 863mV)

Raff
2019-08-13, 21:36:15
Gratz, scheinst wirklich ein Sahnteilchen erwischt zu haben. :up:

Kurve: Jo, ich habe schon mit der Titan X (Pascal) herumgekurvt. Deinen Verlauf checke ich allerdings nicht. Warum die Stufe knapp unter 1,125 Volt? Und lockst du die Spannung nicht?

Oh, wichtig: Wisst ihr, ob die Leistung bei Turing einbricht, wenn man die Kurve "falsch" anlegt, also spätere Taktstufen tiefer liegen als die der locked Spannung?

MfG,
Raff

Nosferatu1
2019-08-13, 21:41:38
Wie viel % packt einen 80ti zu ner 70Super(bescheuerter name hätte ti nicht gereicht) drauf? in 4k?

w0mbat
2019-08-13, 21:45:41
Ca. 40%.

Raff
2019-08-13, 21:45:53
Viel, circa 40 Prozent.

€dit: Sag ich doch. :biggrin:

MfG,
Raff

TurricanM3
2019-08-13, 21:46:27
Danke.
Nein, kein Lock. Ich ziehe einfach die gewünschte Spannung auf die Zieltaktrate (also 925@2010) mit shift und danach alles dahinter einfach runter. Muss man aber nicht bei den Spannungsstufen die eh nicht anliegen. Daher der Knick hinten (spielt eh keine Rolle). Sobald du übernehmen drückst glättet er die Linie dann.

So sähe das komplett runtergezogen aus:

https://abload.de/thumb/asdasdasdasdasdasdasdtrkgs.png (https://abload.de/image.php?img=asdasdasdasdasdasdasdtrkgs.png)

"Richtige" Curve ist ein bisschen langsamer als offset, aber nicht der Rede wert.

Raff
2019-08-13, 21:49:08
Check. Danke für die Bestätigung – genau so (also Shift und dann runterziehen) habe ich's auch gemacht. =) Bei mir sieht das für (bisher) felsenfestes 4K/6K allerdings so aus:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=67453&stc=1&d=1565725830

Ich denke auch, dass der Effizienzgewinn einen marginalen Leistungsverlust klar wettmacht.

MfG,
Raff

Nosferatu1
2019-08-13, 21:53:01
Derb nur 40% dafür fast das doppelte zahlen wenn ich jeweils die billigsten nehme.

Raff
2019-08-13, 21:54:38
Ja, man muss etwas Glück am Gebrauchtmarkt haben. Da kann man mitunter A-GPUs um 700 Euro schießen. Dann ist das okay (mehr aber auch nicht).

Die RTX 2080 Ti ist trotzdem ein drecks Speicherkrüppel. :tongue: Mich regt das RAM-Downgrade vor allem in Kombination mit den theoretischen Möglichkeiten auf. In Wolfenstein Youngblood, das in 6K dank Adaptive Shading mit locked 60 Fps läuft, wird der Speicher bis zur Oberkante allokiert. Und in Battlefield V mit allen Details und Raytracing in 4K erstickt die Karte komplett an Speichermangel, Rotterdam ist ein einziges Ruckelfest (kein regelmäßiges Stocken, sondern fies-hartes aufgrund von Auslagerung). Eine RTX 2080 (Super) mit 8 GiB produziert da übrigens fast nur Standbilder. :ugly: Das nimmt kein gutes Ende, die Ti wird bei mir nicht lange leben. Big Navi, pls.

MfG,
Raff

JVC
2019-08-13, 21:59:29
Derb nur 40% dafür fast das doppelte zahlen wenn ich jeweils die billigsten nehme.
Jup, ne 2080Ti lohnt auf jeden Fall(11Gb ;)), wenn man nicht auf den Preis achtet/achten muss ^^

Ja, man muss etwas Glück am Gebrauchtmarkt haben. Da kann man mitunter A-GPUs um 700 Euro schießen. Dann ist das okay (mehr aber auch nicht)...

MfG,
Raff

Dem ist nichts hinzu zu fügen :up:

M.f.G. JVC

Nosferatu1
2019-08-13, 22:03:08
Das ist klar aber ich kann nicht 3/4 von meinem lohn nur fü ne karte ausgeben wenn ich von der fe ausgehe......vielleicht bei der nächsten gen wenn die 2080ti runtergeht oder auch nicht schielt die 1080ti an.....klar 40% sind gerade in 4k viel aber wenn ich 1000Euro hinlege will ich 4k 144fps garantiert. also vor rente

ChaosTM
2019-08-13, 22:24:36
Ja, man muss etwas Glück am Gebrauchtmarkt haben. Da kann man mitunter A-GPUs um 700 Euro schießen. Dann ist das okay (mehr aber auch nicht).

Die RTX 2080 Ti ist trotzdem ein drecks Speicherkrüppel. :tongue: Mich regt das RAM-Downgrade vor allem in Kombination mit den theoretischen Möglichkeiten auf. In Wolfenstein Youngblood, das in 6K dank Adaptive Shading mit locked 60 Fps läuft, wird der Speicher bis zur Oberkante allokiert. Und in Battlefield V mit allen Details und Raytracing in 4K erstickt die Karte komplett an Speichermangel, Rotterdam ist ein einziges Ruckelfest (kein regelmäßiges Stocken, sondern fies-hartes aufgrund von Auslagerung). Eine RTX 2080 (Super) mit 8 GiB produziert da übrigens fast nur Standbilder. :ugly: Das nimmt kein gutes Ende, die Ti wird bei mir nicht lange leben. Big Navi, pls.

MfG,
Raff




Ja bitte und das besser heute als morgen.

Mit 16GB+ hätte ich sie damals gekauft. So muss die 1080ti noch durchhalten.