PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 2080/Ti Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 [14] 15 16 17 18 19

cR@b
2019-01-04, 11:26:42
Schön aber ich tausche meine Hardware z.B. nur wenn ich dadurch einen Mehrwert habe. Da können mich Schnäppchen mal kreuzweise... Nehmen wir an ich würde als 2080 Ti Besitzer in nem halben Jahr die Titan RTX für 1000€ bekommen. Ich würde die 2080 Ti nicht ersetzen, weil es sich einfach nicht lohnt auch wenn die Titan dann ein absolutes Schnäppchen wäre.

SKYNET
2019-01-04, 11:43:09
Objektiv hast du recht, aber meine Grafikkartenlaufbahn sah so aus:

660 Ti durch die POV Pleite sehr günstig bekommen. Nach 2 Jahren defekt und Kaufpreis wurde komplett erstattet.
Davon eine Asus 970 durch einen Preisfehler bei Alternate gekauft.
Mit fettem Rabatt bei Ebay eine 980 Ti gekauft und die Asus 970 direkt für einen sehr guten Preis verkauft.
Die 980 Ti durfte einer 1070 ohne Aufpreis weichen.
Die 1070 wurde über Einkaufspreis verkauft und dafür kam eine 1080 Ti mit 220 Euro Aufpreis in den PC.
Nun konnte ich die 1080 Ti durch eine 2080 kostenneutral ersetzen, aber die Karten nehmen sich nichts.


Mit dem Cashback und den Gutscheinen konnte ich die Samsung 950 Pro durch eine 970 Pro mit relativ geringen Zeitaufwand tauschen. Der geringe Aufwand entspricht dem geringen Vorteil.

ne 1080Ti durch ne 2080 ersetzen ist ja auch eher nen Downgrade als nen upgrade... Speed mässig schenken die sich als customs nix, ausser das der 2080 3GB fehlen...

Ex3cut3r
2019-01-04, 15:10:13
Es ist höchstens ein Sidegrade, kein Downgrade, es gibt durchhause einige Titel die bis zu 20% schneller laufen.

https://abload.de/thumb/un3zhzbenanntsvfi3.jpg (https://abload.de/image.php?img=un3zhzbenanntsvfi3.jpg)

https://abload.de/thumb/un33benanntmme0k.jpg (https://abload.de/image.php?img=un33benanntmme0k.jpg)

https://abload.de/thumb/unb3zzenannt2wf5y.jpg (https://abload.de/image.php?img=unb3zzenannt2wf5y.jpg)

https://abload.de/thumb/unben2annt9kfum.jpg (https://abload.de/image.php?img=unben2annt9kfum.jpg)

https://abload.de/thumb/unbenanntohdwh.jpg (https://abload.de/image.php?img=unbenanntohdwh.jpg)

https://abload.de/thumb/unbz1enanntzlf4n.jpg (https://abload.de/image.php?img=unbz1enanntzlf4n.jpg)

Quelle: PCGH -> http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/2/

SKYNET
2019-01-04, 17:08:45
Es ist höchstens ein Sidegrade, kein Downgrade, es gibt durchhause einige Titel die bis zu 20% schneller laufen.


ne FE gegen ne FE testen... üüühhhh, ne... kannst grad mal 10% abziehen bei der Differenz... und ich bleibe immernoch dabei, ne karte mit der rohpower und nur 8GB issn schlechter scherz.

Ex3cut3r
2019-01-04, 17:17:23
Bei der RTX ist auch noch 200 mhz Luft, Der Abstand bleibt somit gleich, außerdem wenn man die 1080Ti hochprügelt, frisst die gerne über 350W. Nicht so prickelnd, wenn man denn auf Effizienz und Lautstärke steht.

Schlechter Scherz...wie gesagt habe auch Beweise/Screenshots geliefert ein paar Seiten zurück, 8GB reichen immer, vor allem wenn man unter 4K spielt. Wird auch in Zukunft reichen, wenn die neuen Konsolen kommen, sieht es garantiert anders aus, aber dann reicht auch so eine krümme Speicherbestückung von 11 Gig auch nicht viel mehr. :biggrin:

Bei 7nm wechsle ich eh gerne. 16 GB werden es richten.

Lowkey
2019-01-04, 18:25:18
Die 2080 hatte im Gegensatz zur 1080 Ti deutlich weniger Spulenfiepen und ein gewisses OC Potential, was bei mir in Microrucklern endete. Das steht so nicht auf dem Papier. Ob 1080 Ti oder 2080 spielt keine Rolle, außer man hat diverse Games mit über 8gb Grafikbelegung und dadurch bedingte Ruckler bei nur 8gb. Und letztlich spielt der Preis eine Rolle.

In einem halben Jahr sieht der Markt auch wieder anders aus. Meine 1080 Ti wird nicht geplant ersetzt, sondern nach Zufall auf eine 2080 Ti oder besser. Ich erwarte von kommenden 7nm Nvidia Karten mit Samsung Speicher ein dickes Plus bei der Leistung (samt 16gb, falls die Preise weiter sinken).

TurricanM3
2019-01-04, 19:00:22
Habe meine nonA nun mangels mod Bios hard modded (Shunts gelötet) und die kann sich nun über 400W gönnen. Sollte für stabile 2GHz reichen. :biggrin:
Rechts vorher:

https://abload.de/img/mod_tiiafel.jpg (https://abload.de/image.php?img=mod_tiiafel.jpg)

Taktabfall nur noch Temp bedingt. Vorher Dips auf unter 1900, ich meine sogar 1845.
Bin mal gespannt wann AquaComputer endlich den Wasserkühler verschickt.

Sieht so übrigens drunter aus:

https://abload.de/img/20190104_1619153qf6c.jpg (https://abload.de/image.php?img=20190104_1619153qf6c.jpg)

Der RAM fehlt oben links?!

https://abload.de/img/20190104_151920wpefc.jpg (https://abload.de/image.php?img=20190104_151920wpefc.jpg)

SKYNET
2019-01-05, 03:50:16
Bei der RTX ist auch noch 200 mhz Luft, Der Abstand bleibt somit gleich, außerdem wenn man die 1080Ti hochprügelt, frisst die gerne über 350W. Nicht so prickelnd, wenn man denn auf Effizienz und Lautstärke steht.

Schlechter Scherz...wie gesagt habe auch Beweise/Screenshots geliefert ein paar Seiten zurück, 8GB reichen immer, vor allem wenn man unter 4K spielt. Wird auch in Zukunft reichen, wenn die neuen Konsolen kommen, sieht es garantiert anders aus, aber dann reicht auch so eine krümme Speicherbestückung von 11 Gig auch nicht viel mehr. :biggrin:

Bei 7nm wechsle ich eh gerne. 16 GB werden es richten.


bei meiner 1080Ti waren über 300MHz mehr drinnen... bzw. sogar 400 solange sie unter 46°c. bleibt....


und der unterschied bei ner max hochgedrehten 2080 und 1080Ti ist bei ca. 40W zugunsten der 2080...


klar langt es, wenn man nen matschiges bild will weil das LOD reduziert wird damit der speicher langt.... solltest inzwischen verstanden haben. :tongue:

-=Popeye=-
2019-01-05, 04:42:28
RTX 2070 vs RTX 2080 vs GTX 1080 Ti vs GTX 1070 (https://www.hardocp.com/article/2018/10/22/rtx_2070_vs_2080_gtx_1080_ti_1070/11)

Wirklich überzeugen kann Turing hier nicht.

Razor
2019-01-05, 09:29:47
Dass die 2080 genauso schnell ist, wie eine übertaktete 1080ti?
Dass eine 2070 zwischen 1080 und 1080ti liegt?

Dürfte doch wohl eher "für" die RTX sprechen, nicht dagegen.
Das einzige, was an Turing "negativ" ist, ist der Preis.

That's it!

Razor

JVC
2019-01-05, 18:09:43
@TurricanM3 ui 400W sind sportlich :usweet:

Hab auch mal daran gedacht meine 1080Ti zu moden ;)
Aber auch nur weil die NV Treiber Mist sind und man Zusatz Tools braucht ...

Habs aber dann sein lassen da meine Karte bei 250W min ~1940mhz hält ...
(Vielleicht mach ich ja nächsten Winter mal nen Hardmode,
würde schon gern mal wissen wie gut meine GPU wirklich ist)

Vielleicht hab ich ja auch glück und NV spendiert uns mal so etwas feines wie WattMan :rolleyes:

m.f.g. JVC

TurricanM3
2019-01-05, 18:32:09
Sind 455W um genau zu sein, aber nutzen werde ich die eh nicht. Das läuft mit den Shunts halt sicher ohne failsafe mode und daher hab ich die gelötet. Ist im Endeffekt nur damit ich keine Limits mehr habe und die 2000 sauber laufen.

Über 400 hat mir aber nur kurzzeitig Kombuster v4 gezogen mit 2000/8300 undervoltet. Das hab ich unter Luft aber nur kurz 2 Min. laufen lassen bis 70°.

Karte macht mit dem Samsung RAM 8000 bislang dauerstable trotz der um 70° unter Luft. Benchen kann ich mit 8300 ohne Probleme noch. 8400 wohl kurz auch.

JVC
2019-01-05, 18:55:53
Früher hab ich alles mögliche umgelötet, vom NT bis zu Slott CPU :smile:
Das wahr noch vor 2000 , da hatte jeder Rechner 2-5 Potis die man
natürlich nur in ausgeschalteten Zustand ( wegen eventuellem Rauschen )
bedienen durfte :biggrin:

Irgendwie bin ich langsam zu alt und zu faul für den scheiss ^^

m.f.g. JVC

BlacKi
2019-01-05, 21:22:17
Das einzige, was an Turing "negativ" ist, ist der Preis.

That's it!


ich sehe es genau umgekehrt. der preis ist fast gleich zu vorgängergeneration wenn man den veröffentlichkeitszeitraum betrachtet. was sich geändert hat ist der performance boost und speichermenge.

kann mir einer sagen warum die leute das komplett falsch herum betrachten?

x-force
2019-01-05, 21:27:38
leistung und preis definieren das produkt.

es gibt kein falsch herum. entweder ist das gebotene zu teuer, oder es wird für den preis zu wenig geboten.

der ausdruck, den du suchst, lautet preis/leistung.

BlacKi
2019-01-05, 21:58:41
richtig, aber der preis hat sich nicht geändert.zumindest nicht massiv.

gravitationsfeld
2019-01-05, 22:20:09
Es ist halt wirklich die erste neue Generation bei der man ein schlechteres Preis/Leistungsverhaeltnis hat.

Digidi
2019-01-05, 22:44:59
ich sehe es genau umgekehrt. der preis ist fast gleich zu vorgängergeneration wenn man den veröffentlichkeitszeitraum betrachtet. was sich geändert hat ist der performance boost und speichermenge.

kann mir einer sagen warum die leute das komplett falsch herum betrachten?

Hä? eine 1080ti hat man damals für 850 Euro bekommen jetzt sind es 1200 Euro für die 2080ti. Wo sind hier die Preise gleich? Hinzu kommt das die Performance im gegensatz zur 1080ti nur marginal gestiegen ist.

Blase
2019-01-05, 23:50:07
richtig, aber der preis hat sich nicht geändert.zumindest nicht massiv.

Also ich habe meine 1070 für knapp unter 400 Euro bekommen - für die Leistung etwas oberhalb der Ti Version des Vorgängers (980 Ti - Release Preis um 750 Euro).

Heuer nun bekommst du die 2070 für ca. 500 Euro und von der Leistung sortiert diese sich zwischen der vorherigen 1080 und der 1080Ti ein - mit sehr viel mehr Nähe zur 1080 (Preis zum Release ca. 600 Euro).

Die Karte ist also im Verhältnis zur vorherigen Generation teurer geworden - und bietet ebenfalls im Vergleich zu dieser weniger Leistung. Und das zieht sich durch die komplette Turing Palette.

Entsprechend die "Aufregung" um das Produkt. Wie x-force geschrieben hat. Wahlweise ist einem das Produkt zu teuer für die gebotene Leistung, oder aber für den Preis gibt es zu wenig "oben drauf".

Viele hätten sicherlich nicht einmal ein großes Problem mit den angehobenen Preisen - wenn eben der Leistungssprung entsprechend wäre. Ist er aber nicht...

Ich bin von einer 970 auf die 1070 gegangen - hat sich ordentlich gelohnt, obwohl die 970 (ungeachtet ihrer Speicher-Schwäche) eine tolle Karte war. Die 20XX werde ich schlicht auslassen und schauen, was danach kommt...

MfG Blase

BlacKi
2019-01-06, 00:13:52
hä?

2070 ist ca.50€ teurer als die 1070 damals 2016.

2080 ist nichtmal 50€ teuerer als die 1080 damals2016.

die 2080ti ist ein jahr früher dran und kann deshalb nur mit dem selbigen big chip verglichen werden. das war die titan 2016 für 1300€, die aber mehr speicher im verhältnis hatte. aber big chip bleibt big chip. desweiteren glaube ich an 850-900€ ein jahr nach dem release, also dem eigentlichen zu erwartendem release.

die preise sind also gleich geblieben, jedoch weicht die performance und die speichermenge ab.

Lowkey
2019-01-06, 00:28:23
Es gab zum Release der 1080 Ti eine Preissenkung von 1070 und 1080. Wobei die Währung immer mitspielt.

Raff
2019-01-06, 07:55:32
Sieht so übrigens drunter aus:

https://abload.de/img/20190104_1619153qf6c.jpg (https://abload.de/image.php?img=20190104_1619153qf6c.jpg)

Der RAM fehlt oben links?!

https://abload.de/img/20190104_151920wpefc.jpg (https://abload.de/image.php?img=20190104_151920wpefc.jpg)

Interessant! Ist der erste "K6", den ich sehe. :) Der Defekt des Speicher-Controllers bestimmt anscheinend wirklich die Zahl und die Position des fehlenden RAM-Chips.

MfG,
Raff

Razor
2019-01-06, 08:21:16
Es ist halt wirklich die erste neue Generation bei der man ein schlechteres Preis/Leistungsverhaeltnis hat.
Korrekt!

Hä? eine 1080ti hat man damals für 850 Euro bekommen jetzt sind es 1200 Euro für die 2080ti. Wo sind hier die Preise gleich? Hinzu kommt das die Performance im gegensatz zur 1080ti nur marginal gestiegen ist.
Falsch, die 1080ti kam erst ein Jahr nach der 1080 und hat dann genauso viel gekostet wie eben diese.
Vergleich 1080 vs 2080 ist legitim, der zwischen 1080ti und 2080ti nicht.
Habe mal ähnlich gedacht, wie Du, aber die Preise gingen nach unten.

ich sehe es genau umgekehrt. der preis ist fast gleich zu vorgängergeneration[...]
Ersetze "ist" durch "war"... in meinem Post :)

2070 ist ca.50€ teurer als die 1070 damals 2016.
2080 ist nichtmal 50€ teuerer als die 1080 damals2016.
die 2080ti ist ein jahr früher dran [...]

die preise sind also gleich geblieben, jedoch weicht die performance und die speichermenge ab.
Ebenfalls korrekt... und wo ist nun Dein Problem?
Die Ti liegt "schräg" und die Titans waren immer schon "teuer" und die Ursache hast Du selbst genannt...

Razor

Digidi
2019-01-06, 14:34:47
Falsch, die 1080ti kam erst ein Jahr nach der 1080 und hat dann genauso viel gekostet wie eben diese.
Vergleich 1080 vs 2080 ist legitim, der zwischen 1080ti und 2080ti nicht.
Habe mal ähnlich gedacht, wie Du, aber die Preise gingen nach unten.



PFfffffffffffffffffffffff. Vergleich zwischen 1080ti und 2080ti ist nicht legitim??

Beides sind die Topmodelle damals bei Pascal und heute bei Turing. Das Nvidia mit 1080 noch so einen mist macht und die 1080ti Käufer 1 Jahr warten lässt war reine abzocke seitens Nvidia.

nordic_pegasus
2019-01-06, 15:16:07
Falsch, die 1080ti kam erst ein Jahr nach der 1080 und hat dann genauso viel gekostet wie eben diese.
Vergleich 1080 vs 2080 ist legitim, der zwischen 1080ti und 2080ti nicht.
Habe mal ähnlich gedacht, wie Du, aber die Preise gingen nach unten.


richtig, als Nvidia die 1080Ti gelaunched hatte, wurden die Preise der 1080/1070 noch unten korrigiert.

Diesmal wurden 2080Ti und 2080/2070 gleichzeitig released, wird es also eine Preiskorrektur in der Mitte des Lebenszyklus geben? Ich vermute nicht, darum hinkt Dein Vergleich.

Maxwell und Pascal waren jeweils riesige Sprünge in der Performance, darum hat man die Entwicklung bei VRAM und Preis verziehen. Jedoch fehlt dies bei Turing. Stattdessen bekommt man Gimmicks (zumindest aktuell noch unbrauchbare Features) mit DLSS und RT.

Ferner ist weiterhin der VRAM im Vergleich zur Rohleistung zu klein (auch wenn GDDR6 deutlich teurer sein mag als GDDR5, wobei GDDR5X auch nicht günstig war... oder HBM). Ferner ist zum ersten mal, soweit ich mich mit High-End VGA beschäftige, nur ein Salvage Chip in der x80 nonTi verbaut. Nvidia verkauft die B-Ware ihrer Quadro-Chips zu Apotheker-Preisen. Auch der Preissprung bei der Titan von der Xp (1300 €) zu RTX (2700 €) ist nicht übersehbar und keinesfalls mit den 24 GB VRAM aufgewogen.

Ferner hat Nvidia mMn mit dem VR USB-C Ausgang auf ein totes Pferd gesetzt, stattdessen wurde HDMI 2.1 und VRR verschlafen. Wir werden diese Woche auf der CES sehen, wie der HypeTrain diesbezüglich losfahren wird.

Ich war einer der Verrückten, der sich eine TitanXp zum Release gekauft hat und habe es nicht bereut. Aber bei Turing reizt mich derzeit gar nichts.

Cubitus
2019-01-06, 15:16:45
Dass die 2080 genauso schnell ist, wie eine übertaktete 1080ti?
Dass eine 2070 zwischen 1080 und 1080ti liegt?

Dürfte doch wohl eher "für" die RTX sprechen, nicht dagegen.
Das einzige, was an Turing "negativ" ist, ist der Preis.

That's it!

Razor

Also wer von einer 1080 GTX kommt kann zu einer 2080 RTX greifen und genießt die Geschwindigkeit/Vorteile der neuen Gen.

Von der TI kommend wäre es wegen dem Vram ein schlechter Deal, RTX bietet keinen ausgleichenden Vorteil..

Ex3cut3r
2019-01-06, 15:20:08
Kann ich bestätigen was Cubi sagt, ich kam von einer 1070 auf die 2080. Hat sich voll gelohnt. :up:

Troyan
2019-01-06, 16:14:55
Ferner hat Nvidia mMn mit dem VR USB-C Ausgang auf ein totes Pferd gesetzt, stattdessen wurde HDMI 2.1 und VRR verschlafen. Wir werden diese Woche auf der CES sehen, wie der HypeTrain diesbezüglich losfahren wird.

HDMI 2.1 ist vollkommen irrelevant für 2019. Die meisten High-End Fernseher kommen frühsten im April auf dem Markt. Sony soll sogar erst Ende 2019 Geräte mit 2.1 bringen.

Virtuallink ist für den Anschluss von VR Headset an einem Anschluss. Da hilft dir HDMI2.1 überhaupt nicht weiter...


Ich war einer der Verrückten, der sich eine TitanXp zum Release gekauft hat und habe es nicht bereut. Aber bei Turing reizt mich derzeit gar nichts.

Huh? Titan XP #1 kostete 1200€ und war genauso beschnitten wie die RTX2080TI. Ich fand Titan XP #1 langweilig, da die GTX1080 zum damaligen Zeitpunkt vollkommen ausreichend war. Dank den Custom-Karten konnte man diese auch viel besser übertakten.

nordic_pegasus
2019-01-06, 16:39:32
HDMI 2.1 ist vollkommen irrelevant für 2019. Die meisten High-End Fernseher kommen frühsten im April auf dem Markt. Sony soll sogar erst Ende 2019 Geräte mit 2.1 bringen.

Virtuallink ist für den Anschluss von VR Headset an einem Anschluss. Da hilft dir HDMI2.1 überhaupt nicht weiter...


Laut Ankündigung von LG wird der Großteil des OLED und LCD Line-Ups mit HDMI 2.1, 120 Hz, Low Latency Gaming Mode und VRR kommen. Die LG TVs kommen immer recht früh im Jahr.

Samsung hat Low Latency und VRR bereits in 2018er TVs verbaut (u.a. Q8 und Q9), hier fehlt nur noch 120Hz@UHD per HDMI 2.1. Die Displays sind also bald da, aber die Gegenstücke fehlen derzeit.

Das der VirualLink nichts mit HDMI zu hat, ist mir klar. Mir ging es darum, dass mMn Nvidia neben RT nicht auch mit VR eine weitere Nische hätte bedienen sollen. Stattdessen (oder zusätzlich) wäre HDMI 2.1 sinnvoller gewesen. Selbst wenn Nvidia weiterhin nicht VRR als offenen Standard unterstützt, zumindest hätte ich gerne mehr als 60Hz an meinem OLED. Ich werde mit Sicherheit bei LG 55" C9 OLED zuschlagen dieses Jahr.

Edit: ich habe die Titan Xp (also die #2 in Deiner Sprechweise). Also den vollen GP102 Chip... alles andere ist unsexy ;-) Die erste Titan XP und die 1080Ti habe ich aus diesen Gründen verschmäht.

Bucklew
2019-01-06, 16:50:43
Kann ich bestätigen was Cubi sagt, ich kam von einer 1070 auf die 2080. Hat sich voll gelohnt. :up:
Dito (wobei: 1070Ti :)) :up:

just4FunTA
2019-01-06, 16:54:23
HDMI 2.1 ist vollkommen irrelevant für 2019. Die meisten High-End Fernseher kommen frühsten im April auf dem Markt. Sony soll sogar erst Ende 2019 Geräte mit 2.1 bringen.



Was jetzt? Ist hdmi 2.1 irrelevant für 2019 oder kommen schon im April hdmi 2.1 Fernseher dann wäre hdmi 2.1 sehr wohl relevant für 2019.

JVC
2019-01-06, 17:02:50
Also wer von einer 1080 GTX kommt kann zu einer 2080 RTX greifen und genießt die Geschwindigkeit/Vorteile der neuen Gen.

Von der TI kommend wäre es wegen dem Vram ein schlechter Deal, RTX bietet keinen ausgleichenden Vorteil..
Kann ich bestätigen was Cubi sagt, ich kam von einer 1070 auf die 2080. Hat sich voll gelohnt. :up:

Wie viel hat die 1070 gekostet und wie viel die 2080 ?
( ich tipp mal auf ~450.- und auf ungefähr ~850.- )

Viele kaufen hald alle 1-X Jahre immer im ungefähr selben Preisbereich
und erwarten dann natürlich, eine merkliche Leistungssteigerung...

Ist hald momentan doof, denn Läute die sich weniger auskennen sagen dann schnell einmal
"was ? das hab ich doch fürs gleiche Geld schon vor Jahren bekommen ... !?"

Ok CPU technisch hat AMD mit seiner "Kernschwemme" für Entspannung gesorgt
aber GPU technisch ist es momentan noch immer schwer ...
Beim Arbeitsspeicher wird sich noch zeigen wohin der Preis geht.

Jap ist gut geschrieben von Cubitus.
Dem kann ich auch nur beipflichten.
( gerade wenn man die Kosten außer Acht lässt )
Der Sprung von der 1080Ti FE zur 2080Ti FE ist mir aber leider zu klein.

m.f.g. JVC

dildo4u
2019-01-06, 17:03:36
Für Nvidia spielt es 2019 vermutlich keine Rolle,Schätze mal Navi hat HDMI 2.1 Support,dann 2020 die neuen Konsolen.

JVC
2019-01-06, 17:29:02
Was jetzt? Ist hdmi 2.1 irrelevant für 2019 oder kommen schon im April hdmi 2.1 Fernseher dann wäre hdmi 2.1 sehr wohl relevant für 2019.

Leider schon etwas älter, hab nix neueres gefunden.
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Specials/Interview-Tungler-Wasson-CES-2018-1248666/
AMD:
"...Außerdem werden wir per Treiber-Update auch die VRR-Technologie von HDMI 2.1 unterstützen..."
NV :
"... hat der VRR-Technologie von HDMI 2.1 eine Absage erteilt - weil es "keinen Markt dafür gibt"..."

Also ich hätte auch gerne HDMI 2.1 auf meiner nächsten Graka.

m.f.g. JVC

x-force
2019-01-06, 17:31:40
das könnte ein ko kriterium für mich werden.

wenn bald alle tvs das haben und fast jeder monitor freesync hat, ist das ein starkes argument die fahnen rot zu färben ;)

TobiWahnKenobi
2019-01-06, 17:36:13
da gibt es doch dann bestimmt adapter.. von usb-c auf was-auch-immer.


(..)

mfg
tobi

just4FunTA
2019-01-06, 17:40:59
also freesnyc interessiert mich nicht wirklich, aber wenn die NV Karte auf dem neuen TV nur mit 60Hz läuft während die AMD Karten dank hdmi 2.1 mit 120Hz laufen wäre das der Supergau für Nvidia.

aufkrawall
2019-01-06, 17:58:30
Das würd ich jetzt mal besser noch nicht als sicher abfeiern, AMD hatte HDMI 2.0 bei Fiji verkackt.

dildo4u
2019-01-06, 18:00:52
also freesnyc interessiert mich nicht wirklich, aber wenn die NV Karte auf dem neuen TV nur mit 60Hz läuft während die AMD Karten dank hdmi 2.1 mit 120Hz laufen wäre das der Supergau für Nvidia.

Dafür muss die Performance aber auch da sein,so lange Navi im 500€ Bereich bleibt wird sie sich vermutlich um oder unter 60fps in 4k bewegen.
Der wichtigere Punkt in der Spec ist Freesync damit sich drops auf 50fps ok anfühlen 120hz in 4k sind Luftschlösser.

Troyan
2019-01-06, 18:00:55
Was jetzt? Ist hdmi 2.1 irrelevant für 2019 oder kommen schon im April hdmi 2.1 Fernseher dann wäre hdmi 2.1 sehr wohl relevant für 2019.

LG bringt HDMI 2.1 nur in den "High-End" Fernseher. Die günstigen TVs werden erstmal nur 2.0 haben. Da LG und die Händler die alte Serie immer ein Jahr weiter verkaufen, bekommst du die deutlich günstiger. Bei Mediamarkt gibt es den E7 z.B. 1000€ günstiger als den E8...

Daher erst 2020. Außer Leute wollen Early-Adapter spielen. :cool:

just4FunTA
2019-01-06, 18:09:27
Dafür muss die Performance aber auch da sein,so lange Navi im 500€ Bereich bleibt wird sie sich vermutlich um oder unter 60fps in 4k bewegen.
Der wichtigere Punkt in der Spec ist Freesync damit sich drops auf 50fps ok anfühlen 120hz in 4k sind Luftschlösser.


nein das ist egal du profitierst trotzdem von 120Hz auch wenn deine Graka nur 70fps liefert. Aber davon abgesehen ist allein schon der Imageschaden der dadurch entstehen würde enorm. Ich sehe schon die Schlagzeilen AMD mit 120Hz @4k während Nvidia nur 60Hz kann.

LG bringt HDMI 2.1 nur in den "High-End" Fernseher. Die günstigen TVs werden erstmal nur 2.0 haben. Da LG und die Händler die alte Serie immer ein Jahr weiter verkaufen, bekommst du die deutlich günstiger. Bei Mediamarkt gibt es den E7 z.B. 1000€ günstiger als den E8...

Daher erst 2020. Außer Leute wollen Early-Adapter spielen.

Also hier steht was anderes: "Die 9er-Serie löst die 8er-Modelle ab und steigert mindestens beim 88-Zöller, dem Z9, die Auflösung von 4K auf 8K. Alle Varianten nutzen HDMI 2.1, um mehr Pixel mit hoher Frequenz ansprechen zu können."

https://www.golem.de/news/fernseher-lgs-tvs-haben-8k-oled-hdmi-2-1-und-gen2-ai-chip-1901-138498.html

aufkrawall
2019-01-06, 18:09:56
Die 2018er-OLEDs von LG waren kürzlich wegen hässlicher Artefakte in den Schlagzeilen. So etwas wollte ich auch nicht reduziert haben...

BlacKi
2019-01-06, 18:30:51
NV :
"... hat der VRR-Technologie von HDMI 2.1 eine Absage erteilt - weil es "keinen Markt dafür gibt"..."
mich persönlich wird das zwar nicht betreffen, weil ich mir wohl keinen hdmi2.1 tv kaufen werden, aber vorreiter mit rtx zu spielen zu wollen und dann einfach den hdmi2.1 auszulassen passt vorne und hinten nicht zusammen. eine 2080ti kauft der normalo nicht jedes jahr.

das schlimme daran ist eben das die wenigsten das wissen und die wenigsten wissen können ob man das braucht oder nicht und dann in 1-2 jahren rumfluchen werden sich ne neue graka kaufen zu müssen.

24p
2019-01-06, 18:32:55
LG bringt HDMI 2.1 nur in den "High-End" Fernseher. Die günstigen TVs werden erstmal nur 2.0 haben. Da LG und die Händler die alte Serie immer ein Jahr weiter verkaufen, bekommst du die deutlich günstiger. Bei Mediamarkt gibt es den E7 z.B. 1000€ günstiger als den E8...

Daher erst 2020. Außer Leute wollen Early-Adapter spielen. :cool:

Blödsinn. Auch das C9 Modell wird hdmi 2.1 haben und der wird günstiger sein als das BFG (wenn es denn jemals erscheint).

AffenJack
2019-01-06, 20:31:53
also freesnyc interessiert mich nicht wirklich, aber wenn die NV Karte auf dem neuen TV nur mit 60Hz läuft während die AMD Karten dank hdmi 2.1 mit 120Hz laufen wäre das der Supergau für Nvidia.

Ist doch völliger Standard, dass ein Produkt, was wohl 9 Monate später erscheint, bessere Displayanschlüsse als das ältere hat. Das war doch schon oft so. Kein Plan wo auch immer hier der Supergau sein soll. Klar wirds ein Nachteil für Nv, aber die meisten Leute interessiert das nicht.

JVC
2019-01-06, 23:02:54
Ist doch völliger Standard, dass ein Produkt, was wohl 9 Monate später erscheint, bessere Displayanschlüsse als das ältere hat. Das war doch schon oft so. Kein Plan wo auch immer hier der Supergau sein soll. Klar wirds ein Nachteil für Nv, aber die meisten Leute interessiert das nicht.

Anschluss ist Identisch
und
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Specials/Interview-Tungler-Wasson-CES-2018-1248666/
AMD:
"...Außerdem werden wir per Treiber-Update auch die VRR-Technologie von HDMI 2.1 unterstützen..."

m.f.g. JVC

AffenJack
2019-01-07, 06:41:57
Anschluss ist Identisch
und
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Specials/Interview-Tungler-Wasson-CES-2018-1248666/
AMD:
"...Außerdem werden wir per Treiber-Update auch die VRR-Technologie von HDMI 2.1 unterstützen..."

m.f.g. JVC

Ist er nicht. AMD wird nur VRR von HDMI2.1 unterstützen, weil das eben Adaptive Sync ist. HDMI 2.1 wird keine jetzt existierende Karte per Treiber kriegen, weil das nicht geht.

Edit:
Hat sich gerade eh erledigt, nachdem Nvidia A-Sync Support angekündigt hat.

JVC
2019-01-07, 09:32:51
https://www.guru3d.com/news-story/nvidia-to-support-vesa-adaptive-sync-technologygsync-compatible.html
NVIDIA To support VESA Adaptive-Sync Technology

According to Nvidia this works on the 10 and 20 series.

driver enabled for adaptive sync on January 15th

Not certified monitors will work as well by manually enabling the mode.

Das find ich mal fein, das die 10ner Serie auch Free-Sync bekommt :smile:
Es geht ja doch :rolleyes:

Somit darf die 1080Ti auf jeden fall noch einige Monate bleiben :)
Fehlt nur noch n Free-Sync Fernseher ;)
( das Freesync Update hat ja meiner leider nicht bekommen ;( )

http://www.pcgameshardware.de/Fernseher-Hardware-134500/Tests/Samsung-Q9FN-Freesync-TV-1268364/
"Samsung Q9FN im Test: Kann Freesync am TV überzeugen?"
"Auf der Seite der TVs jedenfalls dürfte der Samsung Q9FN mit Freesync 2 HDR,
120 Hz und guter Bildqualität das aktuell beste Modell fürs Wohnzimmer-Gaming sein."
"Kurz gesagt: absolut spieletauglich."

m.f.g. JVC

Lowkey
2019-01-07, 10:15:30
Klingt nach der News des Monats. Nvidia bewegt sich.

dildo4u
2019-01-07, 10:17:18
Das Game Bundle wird um Anthem erweitert das Game soll DLSS Support bekommen.


https://www.nvidia.com/en-us/geforce/news/geforce-rtx-anthem-battlefield-v-bundle/

BlacKi
2019-01-07, 11:18:54
https://www.guru3d.com/news-story/nvidia-to-support-vesa-adaptive-sync-technologygsync-compatible.html
NVIDIA To support VESA Adaptive-Sync Technology

According to Nvidia this works on the 10 and 20 series.

driver enabled for adaptive sync on January 15th

Not certified monitors will work as well by manually enabling the mode.
waaaaaaaas?:biggrin:

aufkrawall
2019-01-07, 11:24:29
Witzig, dass Maxwell ausgenommen ist, obwohl es mit eDP in Notebooks geht. Man will wohl jetzt nochmal Anreize schaffen, dass Leute (vor Navi?) auf Turing upgraden...

Dural
2019-01-07, 11:37:18
Ja an dem wird es sicher liegen... :rolleyes:

SKYNET
2019-01-07, 12:39:29
https://www.guru3d.com/news-story/nvidia-to-support-vesa-adaptive-sync-technologygsync-compatible.html
NVIDIA To support VESA Adaptive-Sync Technology

According to Nvidia this works on the 10 and 20 series.

driver enabled for adaptive sync on January 15th

Not certified monitors will work as well by manually enabling the mode.

Das find ich mal fein, das die 10ner Serie auch Free-Sync bekommt :smile:
Es geht ja doch :rolleyes:

Somit darf die 1080Ti auf jeden fall noch einige Monate bleiben :)
Fehlt nur noch n Free-Sync Fernseher ;)
( das Freesync Update hat ja meiner leider nicht bekommen ;( )

http://www.pcgameshardware.de/Fernseher-Hardware-134500/Tests/Samsung-Q9FN-Freesync-TV-1268364/
"Samsung Q9FN im Test: Kann Freesync am TV überzeugen?"
"Auf der Seite der TVs jedenfalls dürfte der Samsung Q9FN mit Freesync 2 HDR,
120 Hz und guter Bildqualität das aktuell beste Modell fürs Wohnzimmer-Gaming sein."
"Kurz gesagt: absolut spieletauglich."

m.f.g. JVC


und wer hat es seit moooooonaten gesagt das NV es 19 spätestens 20 freischalten wird?

:P:P:P

aber mann kann wohl sagen. nv geht der kackstift gewaltig wegen AMD und der CES ;D

Sven77
2019-01-07, 13:02:34
aber mann kann wohl sagen. nv geht der kackstift gewaltig wegen AMD und der CES ;D

Danke AMD, so muss ich jetzt doch kein AMD kaufen.. hatte schon Angst

SKYNET
2019-01-07, 13:07:17
Danke AMD, so muss ich jetzt doch kein AMD kaufen.. hatte schon Angst


dann warte mal ab was navi zu sagen hat ;D

180W und Leistung zwischen 2080 / 2080Ti werfe ich mal dreist in raum mit 16GB speicher, UVP $599-649 :wink:

Sven77
2019-01-07, 13:08:33
da warte ich lieber auf horn12

Screemer
2019-01-07, 13:09:55
dann warte mal ab was navi zu sagen hat ;D

180W und Leistung zwischen 2080 / 2080Ti werfe ich mal dreist in raum mit 16GB speicher, UVP $599-649 :wink:
Träumer

JVC
2019-01-07, 13:12:15
Danke AMD, so muss ich jetzt doch kein AMD kaufen.. hatte schon Angst

Jup das trifft es, für die Meisten, ganz gut ;)

Tja so ist das nun mal, das ist der Dank für AMD´s Arbeit für offene Standards.

Sofern für mich AMD wieder einmal genug Leistung liefert,
wird das natürlich mit einem bevorzugten AMD kauf belohnt :up:
( jetzt brauch ich aber erst mal nen Fu Free-Sync Fernseher )

m.f.g. JVC

Sven77
2019-01-07, 13:25:00
Sofern für mich AMD wieder einmal genug Leistung liefert,
wird das natürlich mit einem bevorzugten AMD kauf belohnt :up:

Dank solch noblen Käufern wie dir muss ich dann kein Downgrade machen.. danke dafür

DrumDub
2019-01-07, 14:37:27
Was jetzt? Ist hdmi 2.1 irrelevant für 2019 oder kommen schon im April hdmi 2.1 Fernseher dann wäre hdmi 2.1 sehr wohl relevant für 2019. gibt schon vier lieferbare von sony!

https://geizhals.de/?cat=tvlcd&xf=122_HDMI+2.1

Troyan
2019-01-07, 14:43:52
Ist HDMI 2.0 mit eARC: https://www.trustedreviews.com/reviews/sony-zf9

TwoBeers
2019-01-07, 14:55:55
https://www.guru3d.com/news-story/nvidia-to-support-vesa-adaptive-sync-technologygsync-compatible.html
NVIDIA To support VESA Adaptive-Sync Technology


Sehr nice, dass Nvidia da endlich auch mitmacht. Hat nur viel zu lange gedauert.

Ohne AMD Konkurrenz wäre es wohl nie dazu gekommen und die hätten weiter ihr $500 G-Sync Modul verkauft.

Ich opfere mich dann einfach auch mal, damit die Nvidia Käufer weiterhin offene Standards bekommen und werde weiter versuchen AMD zu unterstützen. :D

JVC
2019-01-07, 15:25:39
Jetzt muss sich NV nur noch auch die Treiber von AMD "abschauen" ...
Langsam wird es Zeit das sie die, um einige zusätzliche Funktionen erweitern.
( Tackt, Spannung, Lüfter Kurve, Powertarget ... )

Ohne AMD Konkurrenz wäre es wohl nie dazu gekommen und die hätten weiter ihr $500 G-Sync Modul verkauft.

Darauf kannst du "Gift nehmen" ^^

m.f.g. JVC

DrumDub
2019-01-07, 15:32:16
Ist HDMI 2.0 mit eARC: https://www.trustedreviews.com/reviews/sony-zf9 mal wieder toll, dass das dann als hdmi 2.1 definiert wird, obwohl eArc nur ein teil der spezifikation ist.

https://cdn.mos.cms.futurecdn.net/XhU9uoAFNvHRirr5knbcgi-650-80.jpg

Klevapalis
2019-01-07, 15:34:42
Tja so ist das nun mal, das ist der Dank für AMD´s Arbeit für offene Standards.
AMD hat da gar nichts gemacht, sondern sich ins gemachte VESA-Nest gesetzt. FreeSync ist nichts weiter als AdaptiveSync, wie es seit 2009 im eDP Standard existiert.

Vielleicht Mal lieber sie VESA loben?

JVC
2019-01-07, 16:38:08
AMD hat da gar nichts gemacht, sondern sich ins gemachte VESA-Nest gesetzt. FreeSync ist nichts weiter als AdaptiveSync, wie es seit 2009 im eDP Standard existiert.

Vielleicht Mal lieber sie VESA loben?

http://www.pcgameshardware.de/Monitor-Display-Hardware-154105/News/Freesync-AMD-G-Sync-Konter-mit-offenen-Standards-Techdemo-1103932/
"...2014 hat AMD einen unscheinbaren Stand aufgebaut, auf dem der Konkurrent zu Nvidias G-Sync "Freesync" veranschaulicht wird. Dabei wird keine proprietäre Hard- beziehungsweise Software benötigt, genutzt wird der offene VESA-Standard VBLANK (Vertical Blanking)."
"...dynamische VBLANKS bereits ab DP 1.0..."
"Demnach arbeitet AMD aktuell mit den Display-Herstellern des VESA-Konsortiums zusammen, um künftige Panel-Steuerungen an den variablen VBLANK-Standard anzupassen."

https://de.wikipedia.org/wiki/DisplayPort
"Die erste DisplayPort-Spezifikation wurde am 1. Mai 2006 veröffentlicht."

AMD und Nvidia sind nicht unwissend ...
NV hat G-Sync herausgebracht obwohl sie wussten das ein Standard kommt.
AMD hat beim neuen Standard mitgeholfen.

m.f.g. JVC

p.s.: Bild ich mir das ein, oder wurde genau dieser unkorrekte Post von dir, nicht schon einmal gelöscht ?

SKYNET
2019-01-07, 16:51:40
AMD hat da gar nichts gemacht, sondern sich ins gemachte VESA-Nest gesetzt. FreeSync ist nichts weiter als AdaptiveSync, wie es seit 2009 im eDP Standard existiert.

Vielleicht Mal lieber sie VESA loben?


doch, weil ohne AMD wäre das zeug "gestorben" AMD hätte sagen können wir machen auch was eigenes "radeon sync" maybe... aber stattdessen haben sie den offenen standard genutzt und es somit massentauglich gemacht.

basix
2019-01-07, 19:41:08
doch, weil ohne AMD wäre das zeug "gestorben" AMD hätte sagen können wir machen auch was eigenes "radeon sync" maybe... aber stattdessen haben sie den offenen standard genutzt und es somit massentauglich gemacht.

Das ist das wichtigste von allem. Ohne AMD wäre VRR nur im Hochpreissegment vorhanden. Jetzt profitieren alle davon. Wer immer noch auf G-Sync setzen will, bitte, der soll das tun. Ich persönlcih werde aber beim nächsten Monitor definitiv auf VESA VRR setzen. Ich will meine GPU Entscheidungsfreiheit nicht aufgrund des Monitors einschränken (ja ich habe momentan einen G-Sync Monitor...).

Zusätzlicher Vorteil eines G-Sync + FreeSync Monitors: Ein gewisses Mindestmass and Qualität der VRR Implementation ist wohl gegeben. Da gibt es bei FreeSync schon ein paar ungünstige Implementationen der Hersteller.

Klevapalis
2019-01-07, 19:53:42
[I]"...2014 hat AMD
Na siehts du, AMD hat einfach nur fünf bis acht Jahre alte VESA-Technologie genutzt und ein eigenes Label drauf geklatscht. Dass da irgendwelche "Arbeit" von AMD drin steckt, entspringt rein deiner Phantasie.

Dr.Doom
2019-01-07, 20:58:41
Kann mal bitte jemand wieder über den Preis der RTX'en jammern, damit wir wieder Ontopic sind? :freak:

Birdman
2019-01-07, 22:02:49
GTX970 war zum Release 20$ günstiger als nun die RTX2060, nuff said

Radeonfreak
2019-01-07, 22:16:08
Kann mal bitte jemand wieder über den Preis der RTX'en jammern, damit wir wieder Ontopic sind? :freak:

Jammer, jammer. :freak:

Hab heute mal wieder Rise of the Tomb Raider angefangen, WQHD @ ultra + SSAA 2x konstant über 60fps.

Fein. :)
äh

Jammer.

JaniC
2019-01-08, 17:15:16
PCGH im neuen Heft ebenfalls (ganz andere Auswahl): http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/Specials/PCGH-02-2019-Magazin-DVD-Download-PDF-1271606/

• Asus RTX 2080 Turbo 8G
• Asus RTX 2080 Dual O8G
• Asus RTX 2080 ROG Strix O8G
• Gainward RTX 2080 Phantom GLH
• Gigabyte RTX 2080 Gaming OC
• MSI RTX 2080 Duke 8G OC
• Nvidia RTX 2080 Founders Edition
• Palit RTX 2080 Gaming Pro OC
• Palit RTX 2080 Game Rock Premium
• Zotac RTX 2080 AMP

MfG,
Raff

@Raff: Kann ich den Artikel auch schon einzeln kaufen online über diesen e-Kiosk Krams oder muss ich das ganze Heft kaufen und das wird als Einzelartikel erst später freigeschaltet? Not sure if blind. Danke für die ne kurze Hilfestellung.

Konkret frage ich mich gerade, ob die 70€ Aufpreis zw. Gainward Phoenix GS und Gigabyte Gaming OC es wert sind. Ich mag es leise und kühl. Die Gigabyte liegt dann schon wieder sehr nahe an der Strix OC ... Gainward wäre halt einfach schön günstig und scheint auch ganz gut zu taugen... schwierig. Und ja, ich sehe, dass ihr nur die GLH getestet habt. Aber CB hatte die GS mit dabei.
Und beide waren schön leise.
Aber wie bei'm Arzt .. zweite Meinung einholen kann nicht schaden.

/edit:

BF2-Gamer redet im Luxx von fps-drops gegenüber seiner 1080 Ti (https://www.hardwareluxx.de/community/f305/nvidia-geforce-rtx-2080-tu104-400a-sammelthread-faq-1206772-26.html#post26724354) ... ist das wirklich so krass? Habe die "nur 8GB fail!!!" Diskussion bisher immer für Randgruppenprobleme (4K User ;) ) gehalten.

crux2005
2019-01-08, 21:58:49
Konkret frage ich mich gerade, ob die 70€ Aufpreis zw. Gainward Phoenix GS und Gigabyte Gaming OC es wert sind. Ich mag es leise und kühl. Die Gigabyte liegt dann schon wieder sehr nahe an der Strix OC ... Gainward wäre halt einfach schön günstig und scheint auch ganz gut zu taugen... schwierig. Und ja, ich sehe, dass ihr nur die GLH getestet habt. Aber CB hatte die GS mit dabei.
Und beide waren schön leise.
Aber wie bei'm Arzt .. zweite Meinung einholen kann nicht schaden.

Die Gigabyte hat einen leisen Kühlen und gute Verarbeitung. Außerdem gehen mit F10 BIOS (https://www.techpowerup.com/vgabios/205764/gigabyte-rtx2080-8192-180928-1) max 300W PT. Bei der Gainward müsstest du ein BIOS vom anderen Herstellern flashen.

/edit:

BF2-Gamer redet im Luxx von fps-drops gegenüber seiner 1080 Ti (https://www.hardwareluxx.de/community/f305/nvidia-geforce-rtx-2080-tu104-400a-sammelthread-faq-1206772-26.html#post26724354) ... ist das wirklich so krass? Habe die "nur 8GB fail!!!" Diskussion bisher immer für Randgruppenprobleme (4K User ;) ) gehalten.

Windows, Treiber, 8 GiB VRAM. Alles zusammen trägt dazu bei.

Mearest
2019-01-08, 22:11:03
@Raff: Kann ich den Artikel auch schon einzeln kaufen online über diesen e-Kiosk Krams oder muss ich das ganze Heft kaufen und das wird als Einzelartikel erst später freigeschaltet? Not sure if blind. Danke für die ne kurze Hilfestellung.

Konkret frage ich mich gerade, ob die 70€ Aufpreis zw. Gainward Phoenix GS und Gigabyte Gaming OC es wert sind. Ich mag es leise und kühl. Die Gigabyte liegt dann schon wieder sehr nahe an der Strix OC ... Gainward wäre halt einfach schön günstig und scheint auch ganz gut zu taugen... schwierig. Und ja, ich sehe, dass ihr nur die GLH getestet habt. Aber CB hatte die GS mit dabei.
Und beide waren schön leise.
Aber wie bei'm Arzt .. zweite Meinung einholen kann nicht schaden.

/edit:

BF2-Gamer redet im Luxx von fps-drops gegenüber seiner 1080 Ti (https://www.hardwareluxx.de/community/f305/nvidia-geforce-rtx-2080-tu104-400a-sammelthread-faq-1206772-26.html#post26724354) ... ist das wirklich so krass? Habe die "nur 8GB fail!!!" Diskussion bisher immer für Randgruppenprobleme (4K User ;) ) gehalten.

RTX 2080 Gigabyte Gaming OC: Die habe ich auch und ist schön leise:up:

Raff
2019-01-08, 22:28:59
@Raff: Kann ich den Artikel auch schon einzeln kaufen online über diesen e-Kiosk Krams oder muss ich das ganze Heft kaufen und das wird als Einzelartikel erst später freigeschaltet? Not sure if blind. Danke für die ne kurze Hilfestellung.

Konkret frage ich mich gerade, ob die 70€ Aufpreis zw. Gainward Phoenix GS und Gigabyte Gaming OC es wert sind. Ich mag es leise und kühl. Die Gigabyte liegt dann schon wieder sehr nahe an der Strix OC ... Gainward wäre halt einfach schön günstig und scheint auch ganz gut zu taugen... schwierig. Und ja, ich sehe, dass ihr nur die GLH getestet habt. Aber CB hatte die GS mit dabei.
Und beide waren schön leise.
Aber wie bei'm Arzt .. zweite Meinung einholen kann nicht schaden.

Du suchst das hier: http://www.pcgameshardware.de/Geforce-RTX-2080-Grafikkarte-267863/Specials/Vergleichstest-10-Geforce-RTX-2080-1272219/ :)

/edit:

BF2-Gamer redet im Luxx von fps-drops gegenüber seiner 1080 Ti (https://www.hardwareluxx.de/community/f305/nvidia-geforce-rtx-2080-tu104-400a-sammelthread-faq-1206772-26.html#post26724354) ... ist das wirklich so krass? Habe die "nur 8GB fail!!!" Diskussion bisher immer für Randgruppenprobleme (4K User ;) ) gehalten.

Es gibt seltene Fälle, wo 11 GiByte sinnvoll sind. Das geschieht aber gewöhnlich nur jenseits von Ultra HD.

MfG,
Raff

JaniC
2019-01-09, 00:09:46
Genau, das habe ich gesucht. LaterPay. Mal einen Account erstellt. 1,49€ ist ja fair. Danke.

Ja, die Gigabyte finde ich auch cooler, wie ihr hier auch, aber kostet halt aktuell 70€ mehr.

Dann lese ich jetzt mal den Test und gucke.


/edit: Cooler Test.

Jo, die ASUS wie bekannt ein Brett im Q Modus. Aber aktuell 889€ Schleifen (außer die 4 MF Läden, die nicht bei der Anthem/BFV Aktion mitmachen).

Die Gigabyte hat halt nur 82mm Rotoren. Aber ist trotzdem leise. Hmm. 95mm sind natürlich geil auf der Palit.

Die Gigabyte wäre der direkte Nachfolger zu meiner jetzigen Gigabyte Gaming G1, das ja auch irgendwie witzig.


Wenn man jetzt z.b. ein 300 Watt BIOS draufspielt und dann den OC Scanner laufen lässt.. was passiert dann? :D

fulgore1101
2019-01-09, 09:57:37
Ich hab mir kürzlich eine Asus 2080 Dual OC gegönnt, und hab mich gestern mal am Undervolten versucht. Aber ich werde aus dem Boost Verhalten der Karte nicht so ganz schlau.
bezieht sich der vom hersteller angegebene Boost auf 100% oder auf das maximierte Powertarget? Und ist der Boost garantiert, oder typisch oder unter optimalen Bedingungen?

cR@b
2019-01-09, 10:08:23
Der vom Hersteller angegebene Boost ist lediglich ein theoretischer Wert den die jeweilige GPU immer bzw. mindestens schafft. Schlussendlich machen die meisten GPU's mehr. Je nach Chipgüte, Tempumgebung, PT etc. boostet die GPU höher. Bei Erhöhung des PT's boostet die Karte u.U. noch höher. Ich mag Boost 4.0 nicht, gerade weil das Ganze so stark variiert und es dadurch beim undervolten auch ganz schnell zu Abstürzen kommen kann. Ein fester Wert wäre für mich persönlich sinnvoller aber naja OC Unterstützung ist halt nicht deren Absicht.

SKYNET
2019-01-09, 10:31:48
Ich hab mir kürzlich eine Asus 2080 Dual OC gegönnt, und hab mich gestern mal am Undervolten versucht. Aber ich werde aus dem Boost Verhalten der Karte nicht so ganz schlau.
bezieht sich der vom hersteller angegebene Boost auf 100% oder auf das maximierte Powertarget? Und ist der Boost garantiert, oder typisch oder unter optimalen Bedingungen?


optimalen bedingungen ohne erhöhungen des PT.... bei den gammel kühlern(siehe FE serie pascal) war der dauerhaft anliegende takt dann auch meist 50-100MHz unter dem kurzzeitig anliegedem boost, einfach weil die karten temp bedingt drosselten.

heisst: um so besser der kühler, um so gröser die chance das der angegebene boost takt auch durchweg gehalten wird.

fulgore1101
2019-01-09, 11:13:45
Der vom Hersteller angegebene Boost ist lediglich ein theoretischer Wert den die jeweilige GPU immer bzw. mindestens schafft. Schlussendlich machen die meisten GPU's mehr. Je nach Chipgüte, Tempumgebung, PT etc. boostet die GPU höher. Bei Erhöhung des PT's boostet die Karte u.U. noch höher. Ich mag Boost 4.0 nicht, gerade weil das Ganze so stark variiert und es dadurch beim undervolten auch ganz schnell zu Abstürzen kommen kann. Ein fester Wert wäre für mich persönlich sinnvoller aber naja OC Unterstützung ist halt nicht deren Absicht.
optimalen bedingungen ohne erhöhungen des PT.... bei den gammel kühlern(siehe FE serie pascal) war der dauerhaft anliegende takt dann auch meist 50-100MHz unter dem kurzzeitig anliegedem boost, einfach weil die karten temp bedingt drosselten.

heisst: um so besser der kühler, um so gröser die chance das der angegebene boost takt auch durchweg gehalten wird.

Dann verstehe ich den Boost meiner Karte noch wenigiger. Asus gibt 1800Mhz an, aber der MSi Kombustor zwingt meine Karte nach weniger als einer Minute runter auf knapp über 1600Mhz und rennt konstant ins Powerlimit. Erst wenn ich das PT maximiere schafft die Karte knapp 1800Mhz. Nun erzeugt der Kombuster ja eine Last, die Spiele in der regel nicht anlegen. Aber ist es nicht egal wodurch die Last erzeugt wird? 100% Pt sind 100% und dann taktet die Karte runter. Warum gibt Asus also 1800Mhz an?

Screemer
2019-01-09, 11:33:25
Furemark/kombustor sprengen das pt innheralb von Sekunden. Da hält soweit ich weiß keine Karte ihren typical boost.

SKYNET
2019-01-09, 11:41:00
Dann verstehe ich den Boost meiner Karte noch wenigiger. Asus gibt 1800Mhz an, aber der MSi Kombustor zwingt meine Karte nach weniger als einer Minute runter auf knapp über 1600Mhz und rennt konstant ins Powerlimit. Erst wenn ich das PT maximiere schafft die Karte knapp 1800Mhz. Nun erzeugt der Kombuster ja eine Last, die Spiele in der regel nicht anlegen. Aber ist es nicht egal wodurch die Last erzeugt wird? 100% Pt sind 100% und dann taktet die Karte runter. Warum gibt Asus also 1800Mhz an?

evtl. nen dämliches bios drauf... mit dem original bios(das aktuellste) kam ich mit meiner 1080Ti wenn ich nix angefasst habe, ausser lüfter auf 100% zu stellen, auch nie durchweg auf den angegebenen maximal boost... dann das 2. bios geflasht das es damals gab(das erste war total buggy), siehe da, auf einmal ging sie sogar weit über das angegebene, auch OC ging deutlich mehr, vorher war bei max 1983MHz schluss, auf biegen und brechen ging kein einziges MHz mehr, mit dem alten bios geht sie auf über 2150MHz(solange unter 46°c.) und pendelt sich bei 2063MHz ein wenn sie durchgewärmt ist. :smile:

ansonsten mal manuell hand anlegen, curved editor in afterburner öffnen und schauen wie hoch die karte bei 1.00V geht...

und furmark etc. ist hardcore, da musst du das PT erhöhen...

edit: screemer war schneller

Nazar
2019-01-09, 12:11:14
Na siehts du, AMD hat einfach nur fünf bis acht Jahre alte VESA-Technologie genutzt und ein eigenes Label drauf geklatscht. Dass da irgendwelche "Arbeit" von AMD drin steckt, entspringt rein deiner Phantasie.

Du solltest zumindest das lesen was dir die anderen verlinkt haben, dann würdest du nicht so einen Unsinn schreiben müssen. ;)

Klevapalis
2019-01-09, 12:15:16
Du solltest zumindest das lesen was dir die anderen verlinkt haben, dann würdest du nicht so einen Unsinn schreiben müssen.
Ist kein Unsinn, sondern leider Fakt. AdaptiveSync befindet sich seit 2009 im eDP-Standard. AMD hat da nix an Arbeit rein gesteckt.

Hat sogar Heise irgendwann Mal bemerkt:
https://www.heise.de/ct/artikel/G-Sync-FreeSync-Adaptive-Sync-Mehr-Wunsch-als-Wirklichkeit-2195186.html

fulgore1101
2019-01-09, 12:20:45
Ich versuche grade die Karte zu undervolten. Dabei möchte ich natürlich keine Performance verschenken und versuche grade auszuloten welchen Takt die Karte mit Spannung x schafft. Bloß was nehme ich als Referenz? Kombuster, Unigine Heaven und Unigine Superposition takten alle deutlich unterschiedlich, rennen aber alle sofort ins PT.

Troyan
2019-01-09, 12:22:46
Ich versuche grade die Karte zu undervolten. Dabei möchte ich natürlich keine Performance verschenken und versuche grade auszuloten welchen Takt die Karte mit Spannung x schafft. Bloß was nehme ich als Referenz? Kombuster, Unigine Heaven und Unigine Superposition takten alle deutlich unterschiedlich, rennen aber alle sofort ins PT.

Nichts davon. Einfach machen und spielen. Turing hat eine andere Architektur. Die Auslastung ist komplett abhängig von einzelnen Spielen.

Daredevil
2019-01-09, 12:27:21
Ich versuche grade die Karte zu undervolten. Dabei möchte ich natürlich keine Performance verschenken und versuche grade auszuloten welchen Takt die Karte mit Spannung x schafft. Bloß was nehme ich als Referenz? Kombuster, Unigine Heaven und Unigine Superposition takten alle deutlich unterschiedlich, rennen aber alle sofort ins PT.
Es ist doch völlig egal, welchen Takt die Karte fährt, solange sie belastet wird.
Es gilt aber, je niedriger der Takt gedrückt wird, desto mehr wird die Karte halt auch belastet.
Ich nutze immer Superposition 4k, bei einer 2080ti würde ich aber vermutlich mehr Last drauflegen weeeeil:

Spekulation meinerseits:
Unigine Superposition in einer Range von ~60-80fps hat sich bei mir als optimal herausgestellt.
Zu wenig FPS sind nicht optimal, da ich denke, dass die Karte bei 20fps nicht komplett belastet wird.
Zu viele FPS sind ebenfalls nicht brauchbar, da die Karte eben frei los läuft und irgendwo Bottlenecked.

Mangel76
2019-01-09, 12:50:21
Ist kein Unsinn, sondern leider Fakt. AdaptiveSync befindet sich seit 2009 im eDP-Standard. AMD hat da nix an Arbeit rein gesteckt.

Hat sogar Heise irgendwann Mal bemerkt:
https://www.heise.de/ct/artikel/G-Sync-FreeSync-Adaptive-Sync-Mehr-Wunsch-als-Wirklichkeit-2195186.html

Und wer ist Mitglied bei VESA und hat diese Standards erarbeitet? Komischerweise sind AMD und NVIDIA beide Mitglied. Da fragt man sich doch, warum NVIDIA erst jetzt nach 9 Jahren dazu in der Lage ist, einen Standard zu unterstützen, den man einst selbst mit beschlossen hat???

Klevapalis
2019-01-09, 13:45:30
Und wer ist Mitglied bei VESA und hat diese Standards erarbeitet? Komischerweise sind AMD und NVIDIA beide Mitglied. Da fragt man sich doch, warum NVIDIA erst jetzt nach 9 Jahren dazu in der Lage ist, einen Standard zu unterstützen, den man einst selbst mit beschlossen hat???
Weil AdaptiveSync nie für VRR vorgesehen war, sondern als Stromsparmodus. Deshalb gibt es ja auch soviele probleme mit AdaptiveSync Monitoren trotz FreeSync Label. NVIDIA hat eben nicht ohne Grund G-Sync entwickelt: Weil AdaptiveSync für VRR nur bedingt taugt bzw. die Implementierung deutlich komplexer ist, als die Spec es besagt.

btw: NVIDIA ist auch Mitglied im VESA. Vielleicht haben die sogar mehr Arbeit in AdaptiveSync gesteckt, als AMD? ;)

Mangel76
2019-01-09, 13:53:20
btw: NVIDIA ist auch Mitglied im VESA. Vielleicht haben die sogar mehr Arbeit in AdaptiveSync gesteckt, als AMD? ;)

häh??? Das schrieb ich doch.

sind AMD und NVIDIA beide Mitglied

Und was willst du mit dem anderen sagen? NVIDIA hat viel Arbeit in ASync gesteckt, welches nicht für VRR geeignet ist, und jetzt, 10 Jahre und 100e Monitore später nutzen sie es doch für VRR??? Ich bin verwirrt.

Klevapalis
2019-01-09, 13:59:59
NVIDIA hat viel Arbeit in ASync gesteckt, welches nicht für VRR geeignet ist, und jetzt, 10 Jahre und 100e Monitore später nutzen sie es doch für VRR??? Ich bin verwirrt.
Ist nur eine Möglichkeit. Ich habe bisher keinen Beleg dafür gesehen, dass AdaptiveSync eine AMD- Entwicklung ist, wie es gern behauptet wird. Prinzipiell kann jedes VESA Mitglied die Hauptarbeit getan haben.

aufkrawall
2019-01-09, 14:25:08
Dass es kein Vesa-VRR in irgendeinem Monitor gab, bevor AMD es angekündigt hatte, hast du aber schon noch mitbekommen?

Calypso
2019-01-09, 14:26:28
das passt aber nicht in sein Weltbild....

blaidd
2019-01-09, 15:11:15
Wer da wie viel zur Entwicklung beigetragen hat, ist wohl von Außen schwierig zu beurteilen. Das VESA-Whitepaper von 2014 suggeriert aber zumindest (http://www.vesa.org/wp-content/uploads/2014/07/VESA-Adaptive-Sync-Whitepaper-140620.pdf), dass AMD an der Entwicklung des Standarts beteiligt war.. ;)

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=65320&stc=1&d=1547043044

EDIT: Crap. Deppen-Schreibfehler. :freak: Wobei Standarte ist im Sinne der Vexillologie (Fahnenkunde, also quasi Branding) ja auch in gewissem Sinne zutreffend (FreeSync als Branding für Adaptive Sync) :tongue::freak:

SKYNET
2019-01-09, 15:24:31
Wer da wie viel zur Entwicklung beigetragen hat, ist wohl von Außen schwierig zu beurteilen. Das VESA-Whitepaper von 2014 suggeriert aber zumindest (http://www.vesa.org/wp-content/uploads/2014/07/VESA-Adaptive-Sync-Whitepaper-140620.pdf), dass AMD an der Entwicklung des StandarDs beteiligt war.. ;)

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=65320&stc=1&d=1547043044


:wink:

cR@b
2019-01-09, 15:47:47
Dann verstehe ich den Boost meiner Karte noch wenigiger. Asus gibt 1800Mhz an, aber der MSi Kombustor zwingt meine Karte nach weniger als einer Minute runter auf knapp über 1600Mhz und rennt konstant ins Powerlimit. Erst wenn ich das PT maximiere schafft die Karte knapp 1800Mhz. Nun erzeugt der Kombuster ja eine Last, die Spiele in der regel nicht anlegen. Aber ist es nicht egal wodurch die Last erzeugt wird? 100% Pt sind 100% und dann taktet die Karte runter. Warum gibt Asus also 1800Mhz an?

Das ist auch nur der max. Boost also bis zu 1800Mhz. Das heißt natürlich nicht, dass dieser immer gehalten wird. Selbst Asus schreibt auf der off. HP keine genauen Angaben außer, dass der Boost den Umständen entsprechend variieren kann. Im Endeffekt garantieren sie dir nur den max. möglichen Boost stabil (also ohne Abtürze) aber eben nicht durchgehend.

Das ist halt Boost 4.0 und jop ich mags eben auch nicht...

Klevapalis
2019-01-09, 15:57:31
Wer da wie viel zur Entwicklung beigetragen hat, ist wohl von Außen schwierig zu beurteilen. Das VESA-Whitepaper von 2014 suggeriert aber zumindest (http://www.vesa.org/wp-content/uploads/2014/07/VESA-Adaptive-Sync-Whitepaper-140620.pdf), dass AMD an der Entwicklung des Standarts beteiligt war.
Echt ne super Leistung von AMD, den eDP Standard von 2009 zu kopieren. Bin echt begeistert. :up:

Aber wer hat denn jetzt die Arbeit am 2009er Standard geleistet? DAS ist doch die Frage. Nicht, ob bei AMD die Tasten C, V und Ctrl existieren.

Rancor
2019-01-09, 16:10:49
Ist das überhaupt wichtig, wer wieviel Anteil an dem Standard hatte?

Ich sehe jetzt grad den Punkt nicht, oder gehts dir mehr um das Prinzip, das AMD nirgendswo Anteil dran hat?

Klevapalis
2019-01-09, 16:14:35
Ist das überhaupt wichtig, wer wieviel Anteil an dem Standard hatte?
Nein, mir nicht. Aber andere User haben erklärt, wie AMD hier ja ganz viel Arbeit in einen offenen Standard gesteckt hätte. Und das hätte ich gern erstmal bewiesen, bevor ich es glaube.

Rancor
2019-01-09, 16:25:13
Laut Wiki hat AMD Freesync entwickelt, auf Basis des VESA Standards und VRR.
Freesync ≠ VRR

Klevapalis
2019-01-09, 16:26:52
Laut Wiki hat AMD Freesync entwickelt, auf Basis des VESA Standards.
Wiki sagt:
"FreeSync" is the brand name
Tolle Leistung von AMD, sich nen Marketingnamen ausgedacht zu haben ;)

Mangel76
2019-01-09, 16:27:53
Nein, mir nicht. Aber andere User haben erklärt, wie AMD hier ja ganz viel Arbeit in einen offenen Standard gesteckt hätte. Und das hätte ich gern erstmal bewiesen, bevor ich es glaube.

Nein, eigentlich hast du behauptet, dass AMD nichts dafür getan hat, und angedeutet, dass NVIDIA der Urheber war:

Ist kein Unsinn, sondern leider Fakt. AdaptiveSync befindet sich seit 2009 im eDP-Standard. AMD hat da nix an Arbeit rein gesteckt.

Hat sogar Heise irgendwann Mal bemerkt:
https://www.heise.de/ct/artikel/G-Sync-FreeSync-Adaptive-Sync-Mehr-Wunsch-als-Wirklichkeit-2195186.html


btw: NVIDIA ist auch Mitglied im VESA. Vielleicht haben die sogar mehr Arbeit in AdaptiveSync gesteckt, als AMD? ;)

Klevapalis
2019-01-09, 16:29:24
Nein, eigentlich hast du behauptet, dass AMD nichts dafür getan hat, und angedeutet, dass NVIDIA der Urheber war:
Schön, dass deine eigenen Quotes belegen, dass ich das gar nicht behauptet habe ;D

PS: Schlag Mal im Duden die Bedeutung von "vielleicht" nach ;)

Rancor
2019-01-09, 16:31:16
Wiki sagt:

Tolle Leistung von AMD, sich nen Marketingnamen ausgedacht zu haben ;)

Und direkt da drunter steht:


FreeSync was developed by AMD and first announced in 2014 to compete against Nvidia's proprietary G-Sync.[2] It is royalty-free, free to use, and has no performance penalty.[3]

Weiter im Text

FreeSync is a hardware–software solution that uses DisplayPort Adaptive-Sync protocols to enable smooth, tearing-free and low-latency gameplay


Damit ist deine Frage doch auch beantwortet oder nicht?

Hier noch die Quellenangabe:

https://techreport.com/news/25867/amd-could-counter-nvidia-g-sync-with-simpler-free-sync-tech

Screemer
2019-01-09, 16:55:09
Nein, eigentlich hast du behauptet, dass AMD nichts dafür getan hat, und angedeutet, dass NVIDIA der Urheber war:

Das hat Nvidia komplett dumm dreist selbst behauptet. Ich such das jetzt aber nicht raus. Da gab's ein quote und ne quelle im richtigen thread: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11895268

Dort sollte es zu dem Thema auch weiter gehen, denn das ist hier ziemlich OT.

24p
2019-01-09, 16:56:46
Muss dieser Bullshit denn jetzt in zwei Threads ausgetragen werden? Ist doch scheißegal wer das wo erfunden hat.

JaniC
2019-01-09, 17:03:55
Da kommt man nach Hause und freut sich auf 20-30 neue Antworten im Thread seit dem eigenen Post gestern und dann liest man nur komplett sinnlose, affige Grabenkämpfe. Keiner geht auf meine Frage ein.
Klar, immer noch besser als die meisten Foren aber meine Fresse.
Nur noch frustrierend hier.

Ex3cut3r
2019-01-09, 17:24:27
Ich weiß echt nicht was du da hören willst? Reichen dir irgendwo die 8GB bei deiner jetzigen 1080er nicht? Wenn Ja, da hast du deine Antwort, ansonsten, nein 8GB reichen immer, vor allem wenn man unter 4K bleibt. Es gibt 1-3 Titel, wie jedes COD, FF15 die über 8GB gerne belegen, aber wirklich zur Ruckelorgie wird es auch mit 8GB nicht.

JaniC
2019-01-09, 17:27:13
Unabhängig von meinen Postings meinte ich einfach diese "Diskussionskultur" hier. In jeeedem Thread, egal ob CPU oder GPU, geht es nur noch um Fanboytum, Rumbeblabber und "du hast echt nichts kapiert".. einfach ermüdend.

Den 2060 Thread kannst du ab Seite 4 in die Tonne kloppen. Wie eigentlich jeden großen Sammelthread, der um Intel/AMD/Nvidia geht. Alles wiederholt sich, alle haben Recht, keiner hat Recht, usw.

Hatte ja noch das hier geschrieben:

Wenn man jetzt z.b. ein 300 Watt BIOS draufspielt und dann den OC Scanner laufen lässt.. was passiert dann? :D


Aber ist auch egal, gucke mich dann mal in größeren englischen Foren um usw.

Troyan
2019-01-09, 17:31:28
Was soll passieren bei 300W mit einer 2080? Der Boost sollte temperaturabhängig gehalten werden und du kannst gleichzeitig den Speicher übertakten.

Eventuell können einige Spiele (Wolfenstein 2 z.B.) deutlich mehr Last erzeugen, aber im Grunde sollten 300W reichen, um nie in das TDP Limit zu laufen.

BiZiNiZz
2019-01-09, 18:02:34
Hey, grüße an den Mod der hier immer wieder Posts ohne Begründung löscht die harmlos sind, was soll das? und btw lösch bitte auch meinen account hier im forum, ich bin mit den kernbehinderten hier durch

Echt schade was aus dem 3DCenter die letzten Jahre geworden ist......

Ex3cut3r
2019-01-09, 18:09:37
Was soll passieren bei 300W mit einer 2080? Der Boost sollte temperaturabhängig gehalten werden und du kannst gleichzeitig den Speicher übertakten.

Eventuell können einige Spiele (Wolfenstein 2 z.B.) deutlich mehr Last erzeugen, aber im Grunde sollten 300W reichen, um nie in das TDP Limit zu laufen.

Reichen auch, mit 300W kann man über stets 2Ghz und +700/800 beim Speicher fahren. Habe selbst eine Gigabyte Gaming OC 2080. Ich fahre allerdings nur 94% PT, sind 230W und +100 Core und +700 beim VRAM, reicht um bei 2000-1950 mhz zu bleiben und dabei nur 1550RPM @ 66-67Grad die paar Mhz mehr beim Core nutzen hier vlt. 1-2 FPS mehr, dafür ist mir die gestiegene Temp/Lautstärke nicht wert.

JaniC
2019-01-10, 13:39:09
Im Mindstar zwei 2080er bestellt, die MSI Trio X und die ASUS Strix OC bestellt, 719 und 729 Tacken.

Welche würdet ihr behalten? :D
Kommen beide morgen an, das wird ein geiles Wochenende.

Timbaloo
2019-01-10, 13:44:42
So günstig? :eek:

Troyan
2019-01-10, 13:47:47
Im Mindstar zwei 2080er bestellt, die MSI Trio X und die ASUS Strix OC bestellt, 719 und 729 Tacken.

Welche würdet ihr behalten? :D
Kommen beide morgen an, das wird ein geiles Wochenende.

Die, die am Ende funktioniert. ;D

SKYNET
2019-01-10, 14:34:14
Im Mindstar zwei 2080er bestellt, die MSI Trio X und die ASUS Strix OC bestellt, 719 und 729 Tacken.

Welche würdet ihr behalten? :D
Kommen beide morgen an, das wird ein geiles Wochenende.


msi, hat den besseren kühler... aber würde wohl beide retournieren... in 4 wochen gibts gescheites für die bildausgabe :tongue:

THEaaron
2019-01-10, 14:41:55
Och wenn ich jetzt aufrüsten müsste würde ich wahrscheinlich auch am ehesten zur 2080 greifen.

Hatte mal eine R9 390X der ASUS Strix Reihe und die Karte hat mich förmlich angebrüllt bei höherer Belastung. War aber meine einzige Erfahrung mit ASUS in dem Bereich.

8GB Vram sind völlig ausreichend da bei meinen präferierten Bildraten 4K noch in sehr weiter Zukunft liegt. :)

Lowkey
2019-01-10, 14:49:00
msi, hat den besseren kühler... aber würde wohl beide retournieren... in 4 wochen gibts gescheites für die bildausgabe :tongue:


Wie zu Release der Fury und Vega 64 kaufen die Pioniere die Karten und lösen die Releasekrankheiten. Andy wird wieder den Fluxkompensator nachölen und die Probleme mit Fiepen, Pfeifen, Zwitschern und Brummen in seinem Tonstudio verfilmen. Dann kommen die ersten Custommodelle und alle Welt ärgert sich wieder über die teilweise schlechten Referenzkarten :)

Ex3cut3r
2019-01-10, 14:59:21
Oh Gott, verschon mich mit AMDs Referenzkarten, der größte Mist, eine Frechheit wenn die „neue“ Gen schon wieder so einen Radau Kühler bekommt, hoffentlich kommen Customs zeitnah und nicht wieder 6 Monate später.

SKYNET
2019-01-10, 15:08:11
Oh Gott, verschon mich mit AMDs Referenzkarten, der größte Mist, eine Frechheit wenn die „neue“ Gen schon wieder so einen Radau Kühler bekommt, hoffentlich kommen Customs zeitnah und nicht wieder 6 Monate später.


du hast schon gesehen, das die VII kein blower hat? nix mit radau...

Ex3cut3r
2019-01-10, 15:21:15
du hast schon gesehen, das die VII kein blower hat? nix mit radau...
Wow von 12 Sone dann mal auf 5,0 Sone? Immer noch zu laut. AMD kann einfach keine Kühler bauen, sie sollten einfach Sapphire aufkaufen.

SKYNET
2019-01-10, 15:27:52
Wow von 12 Sone dann mal auf 5,0 Sone? Immer noch zu laut. AMD kann einfach keine Kühler bauen, sie sollten einfach Sapphire aufkaufen.


AMD baut garnix, das ist powercolor die, die karten für AMD bauen.

JaniC
2019-01-10, 16:14:41
So, mit Mindfactory geklärt, dass ich eine direkt als Widerruf zurückschicken kann.

Nur welche? Wenn man davon ausgeht, dass ich die Lüfterkurve vielleicht sowieso wieder manuell auslote.. irgendwie kann ich mich nicht entscheiden.

Laut Raff/PCGH läuft die ASUS bei 77°C mit 1330rpm unter 1 Sone, das ist natürlich der Hammer.
Solche Werte finde ich für die MSI leider nicht, dürften aber auch nicht groß anders sein.

Aber so richtig klare Fakten, die für die eine und gegen die andere sprechen, gibt es nicht. Klar, ich bestell' ja auch kein Scheiss. ;)

Troyan
2019-01-10, 16:37:28
Naja, ich würde sagen teste beide. Ja, ich weiß, ist scheiße. Aber man weiß ja nicht, ob die ein oder andere z.B. stärkere Spülenpfeifen aufweist oder ein Lüfter kaputt ist...

Razor
2019-01-11, 06:31:44
Die Gigabyte hat einen leisen Kühlen und gute Verarbeitung. Außerdem gehen mit F10 BIOS (https://www.techpowerup.com/vgabios/205764/gigabyte-rtx2080-8192-180928-1) max 300W PT.
Kannst Du mir sagen, was der Unterschied zwischen F5 und F10 Bios ist?
Beide haben ein Target von 300W und nominal ein TDP von 245W.

Auch gibt es das F10 nicht als offiziellen Download und ist nur ein paar Tage "jünger" als das offizielle F5.

Übrigens: Gigabyte RTX 2080 Gaming OC - Support (https://www.gigabyte.com/Graphics-Card/GV-N2080GAMING-OC-8GC#support-dl-bios)
Für beide (F5 und F10) gibt es nun korrespondierende Updates (F8 und F13) vom 8.1.2019... ganz "frisch" :D

Experimentiere gerade damit herum und ENDLICH haben sie die Lüfterkurve angefasst!

Es gab Situationen, da "stotterte" der Lüfter bei rund 59-60° zwischen an und aus... nervte ein wenig... aber das ist nun Geschichte.
Und... der Lüfter dreht schnell nach oben und hält die Karte nun bei krassen 60° (Default mit 1985/7000) - mit AutoOC dann bei 64° (2070/7700).
Aber "hören" tut man sie auch bei 1400 bis 1500 Umin der drei Lüfter nicht.

Wenn man jetzt z.b. ein 300 Watt BIOS draufspielt und dann den OC Scanner laufen lässt.. was passiert dann?
Vielleicht gefällt Dir meine Antwort dazu ja ;D

RTX 2080 Gigabyte Gaming OC: Die habe ich auch und ist schön leise
Sehr geile Karte, die Gigabyte... aber eben leider teuer, aktuell immer noch bei rund 790€.
(seinerzeit als "early adaptor" bei rund 870€ geschnappt, wennauch jemand anderes gezahlt hat ;-)

Das ist auch nur der max. Boost also bis zu 1800Mhz. Das heißt natürlich nicht, dass dieser immer gehalten wird. Selbst Asus schreibt auf der off. HP keine genauen Angaben außer, dass der Boost den Umständen entsprechend variieren kann. Im Endeffekt garantieren sie dir nur den max. möglichen Boost stabil (also ohne Abtürze) aber eben nicht durchgehend.
Das ist doch aber Unsinn... sorry.
Ich weiß sowieso nicht, was dieser "MaxBoost" Blödsinn soll :confused:

Meine, besagte Gigabyte, ist mit 1815 vs 1515 angegeben... schafft aber locker 1985 und geht minimal auf 1950 zurück.
Mit AutoOC (und dem PT-Bios) dann sogar auf 2070 und minimal auf 2050... stabil.

Was also soll uns diese "BoostClock" jetzt genau sagen?

Reichen auch, mit 300W kann man über stets 2Ghz und +700/800 beim Speicher fahren. Habe selbst eine Gigabyte Gaming OC 2080. Ich fahre allerdings nur 94% PT, sind 230W und +100 Core und +700 beim VRAM, reicht um bei 2000-1950 mhz zu bleiben und dabei nur 1550RPM @ 66-67Grad die paar Mhz mehr beim Core nutzen hier vlt. 1-2 FPS mehr, dafür ist mir die gestiegene Temp/Lautstärke nicht wert.
Da ich aktuell in FHD und bald wieder in QHD unterwegs bin, übertakte ich gar nicht.
Aber schön zu wissen, dass man noch rund 10% mehr raus holen kann :up:

Razor

basix
2019-01-11, 07:00:35
Experimentiere gerade damit herum und ENDLICH haben sie die Lüfterkurve angefasst!

Es gab Situationen, da "stotterte" der Lüfter bei rund 59-60° zwischen an und aus... nervte ein wenig... aber das ist nun Geschichte.
Und... der Lüfter dreht schnell nach oben und hält die Karte nun bei krassen 60° (Default mit 1985/7000) - mit AutoOC dann bei 64° (2070/7700).
Aber "hören" tut man sie auch bei 1400 bis 1500 Umin der drei Lüfter nicht

Lüfterkurve kann man doch ganz einfach z.B. via Afterburner selbst einstellen :confused: Ich habe noch nie die Standardlüfterkurve verwendet, ist ausnahmslos zu laut oder wie du beschreibst einfach schlecht implementiert da zum Beispiel die Hysterese fehlt (dein "stottern"). Keine Ahnung wieso das die GraKa-Hersteller immer noch nicht begriffen haben, dass eine Hysterese bei Zero Fan zwingend ist, sonst bekommt man zwangsläufig dieses On-Off Verhalten bei nicht maximaler Last. Eigentlich sind das einfache Engineering Grundkenntnisse in der Elektrotechnik, das wendet man die ganze Zeit auch in anderen Bereichen an.

Zero Fan ist meiner Meinung nach aber sowieso unnütz. Solange sich die Lüfterdrehzahl zwischen 700-900 Umdrehungen bewegt sind faktisch alle Kühler praktisch lautlos. Dann hat man das "Stottern"-Problem automatisch gelöst. Ausserdem bleibt die Karte dann bei 30°C im idle anstatt zum Teil 40-50°C. Für mich geht Zero Fan in die Kategorie RGB: Wem es gefällt, schön. Ich verzichte.

SKYNET
2019-01-11, 10:50:50
So, mit Mindfactory geklärt, dass ich eine direkt als Widerruf zurückschicken kann.

Nur welche? Wenn man davon ausgeht, dass ich die Lüfterkurve vielleicht sowieso wieder manuell auslote.. irgendwie kann ich mich nicht entscheiden.

Laut Raff/PCGH läuft die ASUS bei 77°C mit 1330rpm unter 1 Sone, das ist natürlich der Hammer.
Solche Werte finde ich für die MSI leider nicht, dürften aber auch nicht groß anders sein.

Aber so richtig klare Fakten, die für die eine und gegen die andere sprechen, gibt es nicht. Klar, ich bestell' ja auch kein Scheiss. ;)


igor hat sie getestet:
https://www.tomshw.de/2019/01/11/msi-geforce-rtx-2080-gaming-x-trio-im-test-leise-schnell-bunt-kuehl-und-schwer-igorslab/

cR@b
2019-01-11, 15:16:38
Was also soll uns diese "BoostClock" jetzt genau sagen?


Nichts außer, dass sich die Hersteller damit absichern möchten. Wie gesagt können die meisten Karten mehr, gerade wenn man max. PT einstellt. Ich geb nix drauf und ist für mich auch kein Kaufargument. Zieht bei mir ähnlich schlecht wie Megapixel einer Digicam...
Am Schluss ist eh alles Silicon Lotterie.

Razor
2019-01-11, 16:30:35
Recht so!
Für mich geht Zero Fan in die Kategorie RGB: Wem es gefällt, schön. Ich verzichte.
Schön für Dich... aber man muss ja wohl hoffentlich nicht Deiner Meinung sein.
Ich finde es a) gut, wie es war (mit Ausnahme einer Kleinigkeit) und b) noch besser wie es ist... ohne Ausnahme.

Razor

SKYNET
2019-01-11, 16:58:56
Recht so!

Schön für Dich... aber man muss ja wohl hoffentlich nicht Deiner Meinung sein.
Ich finde es a) gut, wie es war (mit Ausnahme einer Kleinigkeit) und b) noch besser wie es ist... ohne Ausnahme.

Razor

zumal zero fan der lebensdauer der lüfter zuträglich ist... weil ich behaupte mal frech, 70% der zeit wo nen rechner läuft, muss die graka nix machen.

Ex3cut3r
2019-01-11, 17:07:40
Wen es nicht grade die billigsten Lüfter sind, sollte es ziemlich egal sein, wenn Sie im Idle immer langsam drehen.

Ich bin da bei basix, ich nutze auch MadVR und mit Zero Fan nervt das aufdrehen dann immer.

JaniC
2019-01-11, 20:37:07
Irgendwie ändert der BIOS Switch an der ASUS ROG Strix OC 2080 das BIOS nicht, glaube ich.

Habe Rechner ausgemacht und auf Q geswitched aber die Lüfterkurve ist genau wie vorher.

Übersehe ich irgendwas?

Maorga
2019-01-11, 20:38:34
@Janic

wieso hast du 2 verschiedene BIOS Versionen auf der Karte? Und wenn ja welche?

basix
2019-01-11, 20:48:24
Schön für Dich... aber man muss ja wohl hoffentlich nicht Deiner Meinung sein.
Ich finde es a) gut, wie es war (mit Ausnahme einer Kleinigkeit) und b) noch besser wie es ist... ohne Ausnahme.

Razor

Muss man nicht. Wie gesagt, jedem das seine ;) Das ist ja das schöne am PC, jeder kann ihn so bauen und tunen wie er mag :)

Meine Aussage zur Hysterese bleibt aber noch bestehen. Das sollten alle Hersteller richtig einbauen, wenn sie Zero Fan verwenden. Es reichen 5°C um 99+% der Problemfälle abzufangen.

Zum 3DMark Port Royal Raytracing Benchmark:
Habe ihn vorhin geladen. Sieht ganz gut aus, aber man sieht an einigen Stellen noch Schwächen: Einige Flächen werden schlecht beleuchtet (falsche Materialeigenschaften?), zum Teil komisch wandernde Schatten (sollte ja eher nicht sein?) und je nach Spiegeloberfläche sehr viel Noise. Da muss noch einiges gehen, damit das polished aussieht. Einige Sachen wie Teile des Global Illumination sehen aber schon sehr gut aus. Hey, aber immerhin knapp 30fps in den meisten Szenen :D Ach ja noch zum Taktverhalten: Ist recht ähnlich wie in Spielen ohne RT. Ich würde einen Tick höher vermuten, aber die max. 30-50MHz machen jetzt nicht den riesen Unterschied. Irgendwie Under-Utilization der GPU und somit tiefere Leistungsaufnahme etc. kann ich jetzt nicht ausmachen. Höchstens, dass die Speicherbandbreite etwas knapp wird.

Sven77
2019-01-12, 12:26:05
So, ich hab jetzt eine TI von Gainward (Phoenix GS) und hab direkt mal den OC Scanner drüber laufen lassen und im Schnitt 150Mhz mehr, sie taktet auch beim zocken nie unter 2025Mhz und bleibt dabei überraschend kühl (66 Grad im Schnitt).
Sehe ich das richtig das durch das Übertakten per Kurve ich bei gleichem Verbrauch mehr Takt habe? Die Karte hat soviel Leistung das ich das momentan fast nicht brauche, kann ich durch heruntersetzen des Powertargets und angepasster Kurve weniger Strom verbrauchen/Hitze generieren und trotzdem vom OC profitieren?

Sorry, bin da ein wenig raus..

basix
2019-01-12, 13:08:57
Glückwunsch zur Karte, scheint gut zu laufen :)

Ich betreibe meine Ti je nach dem zwischen 60-70% Power Limit, meistens bei 62% und somit 160W. Vom OC profitierst du da genau gleich. Du schiebst die Clock-vs-Spannungskurve ja über den ganzen Spannungsbereich nach oben. Mit reduziertem Power Limit wird schlussendlich vor allem die maximal mögliche Spannung reduziert. Da du die Frequenz aber erhöht hast, kann die Frequenz je nach gewähltem Power Limit sogar höher sein als bei Default einstellungen. Mit 160W bewege ich meistens im Bereich von 90-95% der Leistung einer FE @ Stock, welche aber 260W schlucken darf. Du siehst, damit kann man die Energieeffizienz deutlich steigern. Dieses OC + Powerlimit reduzieren mache ich schon seit der GTX 780. Bei der 780er wie auch der 980 Ti hatte ich mehr Leistung als die FE. Bei der 2080 Ti wäre das ebenso geworden, wenn sie nicht den Kühler verbessert und das Powerlimit erhöht hätten. Macht aber nichts. Leistung ist für 1440p genug da ;)

TurricanM3
2019-01-12, 13:41:01
@Sven
Hernutersetzen des PT gab bei mir stuttering. Ich zocke eh nur PUBG und da reichen 800mv @1600. Karte bleibt mit dem Zotac Twin Mistkühler deutlich leiser und kühler.

Kannst ja einfach mal 1900 @950mV probieren. Wie man die Kurve richtig erstellt weißt du?

Sven77
2019-01-12, 13:47:42
Kannst ja einfach mal 1900 @950mV probieren. Wie man die Kurve richtig erstellt weißt du?

Natürlich nicht :D

edit: Mal bei PUBG das PT auf 80% gesetzt, Takt war dann so um die 1900 rum, kein stuttering.

@basix
Ja scheint ne gute Karte zu sein, leider gibt der Lüfter ein Surren in einer Frequenz von sich die etwas nervig ist. Nicht laut aber hörbar, auch mit Kopfhörer. In PUBG ein wenig wie wenn in der Ferne ein Motorrad fährt, sehr verwirrend am Anfang :ugly:

TurricanM3
2019-01-12, 14:19:49
Hier bei 1:11 rum, aber Karte vorher auf Temp bringen:

PGWAbiK_X7Q

Du ziehst dann meinetwegen 950mV auf 1900, danach die Punkte alle runter (bis 1125mV reicht) und apply.

PS: Ich hab mir gerade eine Palit OC für 999,- bei MF bestellt. Krasser Preis.

JaniC
2019-01-12, 17:48:36
@Janic

wieso hast du 2 verschiedene BIOS Versionen auf der Karte? Und wenn ja welche?

Die ROG Strix OC kommt mit 2 BIOS. Performance und Quiet.

https://images.idgesg.net/images/article/2018/09/rog-strix-dual-bios-switch-100773849-large.jpg

Kleiner Switch an der Karte stellt es um. Hat bei mir aber nichts gebracht, habe auf Q umgestellt und sie ist weiterhin im P Modus, Lüfter verhalten sich exakt gleich.

crux2005
2019-01-12, 20:34:34
Hier bei 1:11 rum, aber Karte vorher auf Temp bringen:

https://youtu.be/PGWAbiK_X7Q

Du ziehst dann meinetwegen 950mV auf 1900, danach die Punkte alle runter (bis 1125mV reicht) und apply.

PS: Ich hab mir gerade eine Palit OC für 999,- bei MF bestellt. Krasser Preis.

Gut zu wissen. :up:

btw: hast du bei der Drachen Sequenz auch Frame Sprünge?

HVXP1MYYP_k

TurricanM3
2019-01-12, 21:19:50
Hab das schon ewig nicht laufen lassen sorry.

crux2005
2019-01-12, 21:25:12
Hab das schon ewig nicht laufen lassen sorry.

:confused:

am 17.10.2018

-=Popeye=-
2019-01-12, 21:34:26
Diese Sprünge kommen vom Benchmark selbst.

Das verlinkte Video stammt von einem HWLUXX User.

edit: ist bei Pascal nicht anders https://www.youtube.com/watch?v=MEvKezyW6nE&feature=youtu.be

crux2005
2019-01-13, 00:22:41
Diese Sprünge kommen vom Benchmark selbst.

Das verlinkte Video stammt von einem HWLUXX User.

edit: ist bei Pascal nicht anders https://www.youtube.com/watch?v=MEvKezyW6nE&feature=youtu.be

Ahso. OK, das ist alles was ich wissen wollte! :biggrin:

Razor
2019-01-13, 03:51:26
Die ROG Strix OC kommt mit 2 BIOS. Performance und Quiet.
Kleiner Switch an der Karte stellt es um. Hat bei mir aber nichts gebracht, habe auf Q umgestellt und sie ist weiterhin im P Modus, Lüfter verhalten sich exakt gleich.
Selber mal Bios-Updates gemacht?
Welche(r) Monitor(e) hängen dran?

Zu wenig Infos, sorry.

Razor

crux2005
2019-01-13, 05:15:27
Wenn man jetzt z.b. ein 300 Watt BIOS draufspielt und dann den OC Scanner laufen lässt.. was passiert dann? :D

Spuckt paar MHz mehr raus.

Kannst Du mir sagen, was der Unterschied zwischen F5 und F10 Bios ist?
Beide haben ein Target von 300W und nominal ein TDP von 245W.

Keine Ahnung. Hatte bei meiner Gigabyte den F10 genommen.

Die ROG Strix OC kommt mit 2 BIOS. Performance und Quiet.

https://images.idgesg.net/images/article/2018/09/rog-strix-dual-bios-switch-100773849-large.jpg

Kleiner Switch an der Karte stellt es um. Hat bei mir aber nichts gebracht, habe auf Q umgestellt und sie ist weiterhin im P Modus, Lüfter verhalten sich exakt gleich.

Am besten BIOS flashen und noch einmal testen.

JaniC
2019-01-13, 17:23:56
So, bin etwas enttäuscht und ratlos. Fühlt sich alles so blöd an, hier gebrauchte Hardware für soviel Geld liegen zu haben.
Das ist kein Buyers Remorse, man fühlt sich einfach leicht verarscht und man muss ein ungutes Gefühl haben, da man nicht weiss, warum die Dinger Rückläufer sind.
Mindfactory kann in meiner Bestellhistorie sehen, dass ich nie etwas habe zurückgehen lassen. Über die Jahre für viele tausend Euro dort bestellt, war immer alles in Ordnung, alles Neuware, habe nix retourniert.
Soll auch garnicht gegen Mindfactory im Speziellen gehen. Hatte das mal bei notebooksbilliger, habe ich hier auch berichtet, vor ca. 3 Jahren. Nexus 6P bestellt. Kam hier in dreckiger Verpackung an, die mit Tesa zugeklebt war, der Sleeve war nicht vorhanden. Alles sah abgegrabbelt aus. Habe ich dann beanstandet und sofort ein neues Gerät bekommen, was auch wirklich OVP und neu war.

Zu den zwei 2080er Karten:

Die ASUS ROG Strix OC war ein Rückläufer, schon am Karton zu erkennen. An der Öffnung eingerissen, das Booklet verknickt und nicht richtig geschlossen (Laschen am Rand), die Antistatikhülle mit einem verstaubten Stück Tesafilm zugeklebt, dann in die Aussparung "reingeprummelt", so sieht das ab Werk nicht aus.
Rein in den Rechner und irgendwie Lüfterklackern oder Spulenfiepen erwartet, oder lächerlichen Boost.
War aber alles gut.

Ein paar Werte:

Sys: i5-8600K@5Ghz, geschlossenes Define R4 mit vorne 2 und hinten 1 120mm Lüfter, @5V. Also schön leise alles.

AC: Origins (1440p, Ultra High, GPU laut AB ausgelastet)

Default
Startboost: 1995Mhz
nach 15 Min: 1965Mhz
61°C, 1780rpm.

Mit OC Scanner Profile (average 68 Mhz mehr)
Startboost: 2070Mhz
nach 15 Min: 2025Mhz, 1780rpm, dabei 160Watt laut GPU-Z

Witcher 3 (1440p, maxed, Hairworks All mit 8xAA, GPU 99% laut AB)

Default
nach 15 Min: 1950Mhz, 1980rpm, 180W

Mit OC Scanner Profile:
nach 15 Min: 2010Mhz, 68°C, 2050rpm, 190W (78% TDP)

Soviel zur ASUS. Boost ist ordentlich, OC auch ok, ist ja schon werksseitig gut übertaktet. Lüfter ist im P-Mode aber natürlich viel zu laut. Könnte man sicher alles fixen mit Lüfterkurve, man könnte auch das Q-BIOS draufflashen - aber da es eh ein Rückläufer ist, möchte ich die Karte einfach nicht behalten. Wer weiss, was die hat. Wer weiss, wieviele Leute die schon hatten. Der Grund für die Retour vorher kann das fehlende Q-BIOS sein, aber wer weiss das schon? Ich bin hier ja nicht in der Lotterie. Also wieder eingepackt und zurück damit. Performt super, ist aber Gebrauchtware. Nein danke.


Dann die MSI Gaming Trio X ausgepackt. Von außen sah der Karton sehr neu aus. Die Öffnung sah jungfräulich aus. Der schwarze Umschlag, der oben aufliegt, war hinten allerdings nicht verschlossen. Kann nicht wahr sein. Schon wieder ein Rückläufer, B-Ware, Gebrauchtware, ne Krücke? Die Karte selbst war noch ordentlich im Plastik, die Antistatikhülle mit einem Stück vernünftigem Klebeband verschlossen. Keine Ahnung, ob das das Original war, aber es sah ok aus. Auf dem Kühlkörper war auch noch die Folie. Aber das kann man ja alles wieder draufkleben. Der offene Umschlag hinterließ jedenfalls schon wieder einen faden Beigeschmack.

Dann die bisher erfreulichste Phase, das Testen der MSI. Wie kriegen die das hin? Die Karte ist fast unhörbar. Mein Tower steht unter dem Schreibtisch und die hört man erstmal garnicht. Erst so ab 1300-1400rpm vernehme ich ein leises Geräusch, aber auch nur wenn ich keine Kopfhörer trage. Absolut geflasht. Sicherlich könnte die ASUS das mit dem Q-BIOS auch hinbekommen, ... aber siehe oben.

Dann die gleichen Tests mit der MSI gemacht.

AC: Origins (1440p, Ultra High, GPU laut AB ausgelastet)

Default
Startboost: 1965Mhz
nach 15 Min: 1935Mhz
66°C, 1100rpm (!), 200W (214 max)

Mit OC Scanner Profile (average 44 Mhz mehr)
Startboost: 1965, direkt auf 1950 runter
nach 15 Min: 1935Mhz

Witcher 3 (1440p, maxed, Hairworks All mit 8xAA, GPU 99% laut AB)

Default
nach 15 Min: 1920Mhz, 69°C, 1300rpm, 220-230W

Mit OC Scanner Profile:
wie default


Die MSI boostet also selbst mit OC Scanner nicht auf 2000Mhz. PT auf 105% hat auch nichts geholfen, mehr wollte ich dem alten Netzteil erstmal nicht zumuten. Ist ja eh alles nur Prestige und bringt ingame einfach mal garnichts (bin ja in 1440p unterwegs, bei 4K muss man natürlich ans Äußerste gehen).

Der im Vergleich etwas mickrige OC von 44-48Mhz, der sich ingame garnicht auswirkt, weil scheinbar keine neue Booststufe erreicht wird, könnte also der Grund sein, warum die jemand zurückgeschickt hat? Denn die Lautstärke ist es garantiert nicht. Sowas leises habe ich selten gehabt.


Zusammengefasst kann man sagen, dass ich irgendwie unzufrieden bin. Hätte ich nur die MSI bestellt und sie wäre garantiert Neuware, alles hätte sich korrekt angefühlt und wäre richtig original verpackt, dann hätte ich mich damit ohne zu Überlegen abgefunden. Ob nun 1950 oder 2000Mhz, ladde. Aber so fühlt sich einfach alles fishy an.
Überlege, ob ich einfach alles zurückschicken soll und meine 1080 behalte. Der Hype wurde durch diese Aktion total gekillt.
Aber ich glaube, ich behalte die MSI.
An die Besitzer der MSI Trio: wahrscheinlich wisst ihr es nicht mehr, aber war euer schwarzer Umschlag geschlossen (also in den Schlitz gesteckt) oder offen, als ihr die Karte bekommen habt?

An alle, die auch schonmal B-Ware als Neuware von MF oder sonstwo bekommen haben: wie seid ihr vorgegangen? Bei notebooksbilliger haben sie es anstandslos eingesehen und mir sofort was neues geschickt. Sie sind sich ja darüber im klaren, dass sie Rückläufer versenden. Wir denken uns das ja nicht aus. Sie werden es also kaum abstreiten oder mir sogar einen Wertabzug in Rechnung stellen? Das wäre sowas von dreist.

Und was mich abschließend noch interessieren würde: wie würdet ihr denn die Boostwerte der MSI so einschätzen? Ist schon eher enttäuschend oder im guten Mittelfeld? Dass sie nach dem OC Scanner den gleichen Takt ingame anlegt wie vorher, ist schon irgendwie schräg, finde ich.
TechpowerUp hat z.b. 10% rausgeholt:
https://www.techpowerup.com/reviews/MSI/GeForce_RTX_2080_Gaming_X_Trio/36.html

Sorry für den Roman. Aber die ASUS war klar gebraucht und bei der MSI neige ich auch dazu, plus sie kommt nichtmal in die Nähe der 2000. Und braucht deutlich mehr Watt für weniger Takt.

Muntert mich auf! ;)

Timbaloo
2019-01-13, 17:28:57
Teste die MSI ob sie irgendeine Macke hat. Wenn nicht, scheiss auf 2GHz und behalte die leise Karte.

JaniC
2019-01-13, 17:32:07
Tendiere ich auch zu. Schlag mal ein paar Tests vor? Bin schon fleissig am Spiele testen.
PUBG, AC: O, Arkham Knight, Witcher 3, The Division.. alles schon gespielt.
Keine Artefakte, kein nix. Alles super soweit.

Die ASUS liegt seit gestern wieder im Karton und geht morgen zurück.

Sven77
2019-01-13, 17:37:25
Würde ich auch so machen.. meine TI ist eigentlich in allen Aspekten toll, nur die hochfrequenten Lüfter finde ich sehr nervig. So nervig das ich die 1080 wieder einbauen will, die war dank Modding dead silent, hat aber auch nie die 2Ghz gepackt. Irgendwann war mir das egal.. mal schauen was ich mache, die TI werde ich sicher nicht modden, nicht bei dem Preis

MasterElwood
2019-01-13, 17:55:54
Wie kann das legal sein, dass man eine neue Karte kauft und einen Rückläufer (=gebraucht) bekommt?

Ist das nicht gewerbsmäßiger Betrug? Gehört so ein Laden nicht sofort angezeigt?

aufkrawall
2019-01-13, 18:05:13
Was soll der Händler denn machen, wenn irgendein Stänkerer eine Karte nur deswegen zurück schickt, weil sie 20MHz "zu wenig" boostet? :rolleyes:
Bei Schrott-Lüftern siehts natürlich anders aus, aber da dürfte die Quote allgemein sehr hoch sein bei dem ganzen China-Schrott. Ansonsten muss man halt lokal kaufen und hat denn ggf. gar kein Rückgaberecht, abseits der Gewährleistung. Ist btw. auch alles kein Neuland mit dem Neuland...

MartinRiggs
2019-01-13, 18:11:43
Tendiere ich auch zu. Schlag mal ein paar Tests vor? Bin schon fleissig am Spiele testen.
PUBG, AC: O, Arkham Knight, Witcher 3, The Division.. alles schon gespielt.
Keine Artefakte, kein nix. Alles super soweit.

Die ASUS liegt seit gestern wieder im Karton und geht morgen zurück.

Du meckerst auf der vorigen Seite doch selbst über das FAG, hast aber selbst 2 Karten bestellt wovon eine zwangsläufig zurückgeht. Daher darfst du dich imho nicht aufregen.
FAG hin oder her, ich war auch schon gezwungen eine Grafikkarte zurückzuschicken, die war aber auch wieder so eingepackt und sauber geputzt das sie für Werksneu durchging.
Verstehe nicht das soviele Leute nicht mal in der Lage sind eine Graka wieder penibelst einzupacken, wenn sie denn schon zurückgehen muss.
:rolleyes:

JaniC
2019-01-13, 18:15:27
@MartinRiggs: Hatte es einige Seiten zuvor beschrieben. War echt ein blöder Umstand, warum ich zwei Karten hier habe.
Kurz vor 12 Uhr die MSI bestellt, um 12 kam die ASUS in den Mindstar, bestellt, sofort auf "Meine Bestellungen", wollte die MSI canceln. War die 20 Min nach der Bestellung schon auf "versandt". Hätte natürlich vor der ASUS Bestellung auf Storno gehen können, oder zumindest gucken, aber da von der Strix nur 2 Exemplare verfügbar waren, habe ich geklickt wie ein Blöder.

Hier mal aus meiner Mail an MF:

[...]heute kurz vor 12 Uhr bestellte ich im Mindstar eine MSI RTX 2080 Gaming X Trio für attraktive 719€.

Kurz nach 12 Uhr erschien dann im Mindstar die ASUS ROG Strix OC RTX 2080 für 729€. Mit diesem Modell hatte ich schon lange geliebäugelt und kaufte es direkt, da nur 2 Exemplare verfügbar waren.

Die Bestellungen lagen nur 20 Minuten auseinander, wie sie sicher auch ihrem System entnehmen können (11:55 und 12:15). Beide Bestellungen schloss ich mit Gold Level ab.

Ich wollte dann natürlich schnell die MSI wieder canceln, was aber schon nicht mehr möglich war, da der Status bereits auf "versandt" stand. Eigentlich eine tolle Sache, nur in diesem Fall nicht.

Da wusste ich natürlich noch nichts von der "Gebrauchtware". ;)

Ist ja nun auch egal. Werde es morgen mit denen klären und die MSI wohl behalten.

MartinRiggs
2019-01-13, 18:20:37
Ah ok, wenn du so schnell nacheinander bestellt hast und die Storno nicht klappte dann verstehe ich dich.
Das aber solche Mengen scheinbar Rückläufer sind stimmt wirklich nachdenklich, im Mindstar warem ja viele Karten und viele sind scheinbar Rückläufer.

Glückwunsch zur MSI, sofern du sie behälst:wink:

JaniC
2019-01-13, 18:21:24
War halt auch 729€ statt 889€ bei der ASUS, 160€ off. Und die MSI auch 719€ statt 849€.
Man hätte es fast ahnen können. ;)

MasterElwood
2019-01-13, 18:23:03
Was soll der Händler denn machen, wenn irgendein Stänkerer eine Karte nur deswegen zurück schickt, weil sie 20MHz "zu wenig" boostet?

Obs moralisch ok is is nicht die Frage. Es geht darum ob es RECHTLICH ok ist etwas gebrauchtes als neu zu verkaufen.

PS: Das Widerrufsrecht nach dem Fernabsatzgesetz gibts schon länger als die meisten Händler - und auch schon viel viel länger als das Internet. Das is jetzt nix neues womit ein Händler ned rechnen konnte. Selbst moralisch.

MartinRiggs
2019-01-13, 18:24:07
War halt auch 729€ statt 889€ bei der ASUS, 160€ off. Und die MSI auch 719€ statt 849€.
Man hätte es fast ahnen können. ;)

naja nicht so ganz, schau dir Geizhals an, die RTX sind schwer im Preis gefallen und jetzt ist bei MF fast nix mehr lieferbar, denke da kommt die neue billigere Charge, ist natürlich nur Speku meinerseits. :smile:

cR@b
2019-01-13, 18:53:02
Würde ich auch so machen.. meine TI ist eigentlich in allen Aspekten toll, nur die hochfrequenten Lüfter finde ich sehr nervig. So nervig das ich die 1080 wieder einbauen will, die war dank Modding dead silent, hat aber auch nie die 2Ghz gepackt. Irgendwann war mir das egal.. mal schauen was ich mache, die TI werde ich sicher nicht modden, nicht bei dem Preis

Wus? Dann kennst du nicht die erste Version der 2080 Ti FE. Die klang wie ein hochfrequenter Staubsauger, ohne Scheiß! Alle anderen danach (Aourus, Gigabyte OC) mit starkem Lüftersägen und laut wie ein Rennwagen (Aourus). Und dann kam die Gainward GS die m.E. die besten Lüfter verbaut hat. Leise, kein Sägen, keine anderen unangenehmen Geräusche, einfach genial! Der Kühler ist analog der Gigabyte OC auch sehr gut. Diese Karte ist genau das was ich gesucht habe. Davor musste ich leider auch 3x FAG anwenden (wobei von nV nach wie vor seit 27. Oktober 2018 die Rückerstattung aussteht) aber bei dem Preis muss die Karte nahezu Perfekt sein.

crux2005
2019-01-13, 19:09:43
Zusammengefasst kann man sagen, dass ich irgendwie unzufrieden bin.

MF und solche Preise. Wie ich schon im anderen Fred geschrieben habe, will ich gar nicht wissen von wo die Karten kommen. Ob sie benutzt waren etc.

An die Besitzer der MSI Trio: wahrscheinlich wisst ihr es nicht mehr, aber war euer schwarzer Umschlag geschlossen (also in den Schlitz gesteckt) oder offen, als ihr die Karte bekommen habt?

Bei der MSI die vor mir geöffnet worden ist war der Umschlag auch nur so hingelegt.

An alle, die auch schonmal B-Ware als Neuware von MF oder sonstwo bekommen haben: wie seid ihr vorgegangen? Bei notebooksbilliger haben sie es anstandslos eingesehen und mir sofort was neues geschickt. Sie sind sich ja darüber im klaren, dass sie Rückläufer versenden. Wir denken uns das ja nicht aus. Sie werden es also kaum abstreiten oder mir sogar einen Wertabzug in Rechnung stellen? Das wäre sowas von dreist.

Einfach schreiben das die Asus schon offensichtlich benutzt wurde/B-Ware ist und sowas nicht offensichtlich auf der Bestellung stand.

Und was mich abschließend noch interessieren würde: wie würdet ihr denn die Boostwerte der MSI so einschätzen?

Ist schon eher enttäuschend oder im guten Mittelfeld?

Si Lotterie. 1950 MHz boost sind Mittelfeld. Wobei wenn der Lüfter höher drehen würde, sicher mehr ginge.

Sven77
2019-01-13, 19:28:30
Wus? Dann kennst du nicht die erste Version der 2080 Ti FE. Die klang wie ein hochfrequenter Staubsauger, ohne Scheiß! Alle anderen danach (Aourus, Gigabyte OC) mit starkem Lüftersägen und laut wie ein Rennwagen (Aourus). Und dann kam die Gainward GS die m.E. die besten Lüfter verbaut hat. Leise, kein Sägen, keine anderen unangenehmen Geräusche, einfach genial! Der Kühler ist analog der Gigabyte OC auch sehr gut. Diese Karte ist genau das was ich gesucht habe. Davor musste ich leider auch 3x FAG anwenden (wobei von nV nach wie vor seit 27. Oktober 2018 die Rückerstattung aussteht) aber bei dem Preis muss die Karte nahezu Perfekt sein.

Ja ist jammern auf hohem Niveau.. meine GTX 1080 Gamerock hab ich gemoddet und 2 Eneloop 120er auf den Kühlkörper gepappt, selbt unter Last absolut unhörbar. Da irritiert mich das Geräusch jetzt schon ein wenig.

Btw. gerade 2h BF5 mit 2050Mhz und 67Grad gespielt.. schon sehr geiles Teil :freak:

JaniC
2019-01-13, 19:49:54
Komischen Glitch bei BF V entdeckt (DX12, RTX on):

https://streamable.com/d48d6

Ähm, was ist das? Graka defekt oder normaler DX12 Schrott? ;)

cR@b
2019-01-13, 20:22:00
Komischen Glitch bei BF V entdeckt (DX12, RTX on):

https://streamable.com/d48d6

Ähm, was ist das? Graka defekt oder normaler DX12 Schrott? ;)

RTX ist noch oftmals buggy... würde jetzt keinen Defekt vermuten.

@Sven77
Mit AB? Offset?

TurricanM3
2019-01-13, 20:36:08
Hatte bei dem Händler da oben auch schon Gebrauchtware erhalten. Das wird halt oft genug durchgehen. Die stellen sich dann dumm und entschuldigen sich. Ist aber Vorsatz, da bin ich mir sicher. Sehen die anhand der SN doch schon, die die mitscannen.

Bin mal gespannt ob die Ti für 999,- neu ist.

Amazon verschickt dafür teilweise einfach in der OVP. Das ist auch übel. Mainboards sind nicht mal geschlossen, die kann man so rausnehmen oder rausfallen.

Slipknot79
2019-01-13, 21:58:57
Muntert mich auf! ;)

Titten. :redface:


Würde das mit MF nicht so wild sehen, hast ja Rückgaberecht oder? Versandkosten gehen auch auf Kosten des Händlers?

Sven77
2019-01-13, 23:51:46
@Sven77
Mit AB? Offset?

Öh einfach den OC Scanner laufen gelassen und er hat im Schnitt 160Mhz gemeldet

Nazar
2019-01-14, 09:22:10
Meine Erfahrungen:

Nach Umbau auf WK geht OC nur noch um 134 Mhz höher (Gainward Phoenix GS 2080Ti). Mit Werkslüfter waren es 162 Mhz. Die Frage ist nun, warum ist das so?
Die GPU Temps liegen mit Wakü bei max (OC) 47° beim 3Dmark Stresstest.
Es ist ein EK Kühler verbaut.
Was mir auffiel war, dass in der Anleitung für den WKK weniger Wärmeleitpats verbaut werden müssen als beim Originalkühler. Vermutlich reicht das dann nicht, um wirklich alles sauber zu kühlen.
Hat hier jemand ähnliche Erfahrungen gemacht?

Was mir auch aufgefallen ist und zwar unabhängig von der Art der Kühlung, ist dass es kaum Sinn macht zu OC. Der FPS Gewinn ist kaum spürbar.

Ich habe mir die Karte vor allem wegen meiner Simulationsleidenschaft gekauft, da meine Lieblingssim (DCS) einfach um Welten besser mit nV läuft (leider). Aber das OC zeigt hier keine/kaum Wirkung. Der Takt bleibt bei 2025 Mhz (sonst 1995 Mhz) aber die FPS erhöhen sich maximal um 1 FPS. Auch in anderen Spielen (DOOM 2016, BF5) sehe ich kaum eine Verbesserung.
Einzig die Benchmarks profitieren vom OC.
TimeSpy liegt ohne OC bei 14.432 GPU Marks und mit OC bei 14.892 GPU Marks.
Das, was wirklich etwas gebracht hatte, war schlicht der Umbau auf die Wakü, da ich nun auch ohne OC auf bessere Werte komme als vorher mit OC und viel höheren vorangestelltem Takt.

Standardkühler ohne OC in TimeSpy = max 1775 Mhz (in Spielen 1900 Mhz)
Standardkühler mit OC in TimeSpy = max 1850 Mhz (in Spielen 2100 Mhz)
Wakü ohne OC in TimeSpy = max 1950 Mhz (in Spielen 2045 Mhz)
Wakü mit OC in Timespy = max 2025 Mhz (in Spielen 2085 Mhz)
Den Speicher habe ich nicht übertaktet.

Aus meiner Sicht lohnt sich OC kaum für die 2080Ti. Am meisten profitiert die Karte von einer sehr guten Kühlung, um das Throttling zu minimieren, zumindest ist das meine bisherige Erfahrung.

TobiWahnKenobi
2019-01-14, 09:25:42
was sollen das für komische OC-werte sein?

bei mir takten alle RTX-karten in 15MHz-schritten.. da gibt es keine 162. es gibt 150, 165, 180, 195..



(..)

mfg
tobi

BlacKi
2019-01-14, 09:38:58
Das, was wirklich etwas gebracht hatte, war schlicht der Umbau auf die Wakü, da ich nun auch ohne OC auf bessere Werte komme als vorher mit OC und viel höheren vorangestelltem Takt.
Aus meiner Sicht lohnt sich OC kaum für die 2080Ti. Am meisten profitiert die Karte von einer sehr guten Kühlung, um das Throttling zu minimieren, zumindest ist das meine bisherige Erfahrung.
war schon mit pascal so. mit guter kühlung kann man den boost schon sehr weit bringen und halten. gute kühlung schaufelt etwas powertarget wieder frei, sodass die karte max boosten kann. wirklich neu ist diese feststellung daher nicht. das einzigste was eben die karte selbst nicht kann ist mem OC. das macht neben der guten kühlung auch noch was aus.

Lowkey
2019-01-14, 09:58:09
Eigentlich war es üblich auf eine Wakü Karte ein Bios zu packen, dass das Powertarget auf Maximum setzt (eliminiert) und dann setzt man Takt + Speicher hoch. Der Hauptvorteil ist neben dem hohen Boost auch die geringe Lautstärke.

HisN
2019-01-14, 10:02:32
Wann issn eigentlich Treiber-Release-Zeit bei Nvidia? Warten ja sicherlich schon alle gespannt auf den Freesync-Treiber.

Lowkey
2019-01-14, 10:09:00
Morgen 15 Uhr? Oder irgendwann morgen? Irgendwer testet bestimmt schon die Dateinamen auf dem Nvidia Server?

HisN
2019-01-14, 11:00:52
:-)

Nazar
2019-01-14, 11:22:07
Wann issn eigentlich Treiber-Release-Zeit bei Nvidia? Warten ja sicherlich schon alle gespannt auf den Freesync-Treiber.

Hoffentlich funktioniert das bei mir. Das wäre ein Träumchen. Das Feature vermisse ich wirklich extrem.

Was mir auch noch aufgefallen ist, trotz deutlich höhere Frameraten sind Microruckler in DCS vorhanden, die mit der Vega64 nicht vorhanden waren.
Leider ist das nur sehr subjektiv aber es viel mir sofort extrem bei der Nutzung von Track-IR auf.
Ich wunderte mich schon immer über die Threads dazu im DCS Forum, weil das mit der AMD Graka, selbst ohne Freesync, nicht so war. Die damals 45 FPS waren immer noch flüssiger als die jetzigen 113+ FPS mit der 2080 TI.
Sobald man den Kopf bewegt gibt es Microruckler, das war mit der Vega64 definitiv nicht so und das selbst ohne Freesync.
Ich hoffe, dass das mit dem Freesync Support dann auch Geschichte ist.

war schon mit pascal so. mit guter kühlung kann man den boost schon sehr weit bringen und halten. gute kühlung schaufelt etwas powertarget wieder frei, sodass die karte max boosten kann. wirklich neu ist diese feststellung daher nicht. das einzigste was eben die karte selbst nicht kann ist mem OC. das macht neben der guten kühlung auch noch was aus.

Für mich war das schon verwunderlich, vor allen Dingen, weil die Karte nun deutlich Kühler ist und ich, wie bei meiner 980Ti, mit einem deutlichen Leistungsboost gerechnet hatte.
So, wie es sich jetzt darstellt, ist das GPU OC nicht wirklich sinnvoll. Oder anders gesagt, das beste "OC" ist einfach die GPU richtig gut zu kühlen, der Rest kommt von "alleine" ;)

Wieviel Mehrleistung bringt denn MEM OC? Ist das deutlich spürbar?

Ätznatron
2019-01-14, 11:32:20
Na ja, also nVidias G-SYNC Compatible Liste ist kurz, sehr kurz.

Viel Hoffnung würde ich mir da nicht machen.

BlacKi
2019-01-14, 12:26:04
Für mich war das schon verwunderlich, vor allen Dingen, weil die Karte nun deutlich Kühler ist und ich, wie bei meiner 980Ti, mit einem deutlichen Leistungsboost gerechnet hatte.
So, wie es sich jetzt darstellt, ist das GPU OC nicht wirklich sinnvoll. Oder anders gesagt, das beste "OC" ist einfach die GPU richtig gut zu kühlen, der Rest kommt von "alleine" ;)

Wieviel Mehrleistung bringt denn MEM OC? Ist das deutlich spürbar?
ich verstehe die aussage nicht, das core oc sich nicht lohnt. warum sollte man es nicht machen? wenn 70mhz mehr drin sind, warum sollte man es nicht machen? es gibt doch keine echten nachteile bei wakü. eigentlich sehe ich es genau umgekehrt wie du. warum sollte man kein OC betreiben?

manche spiele reagieren sehr gut auf mem oc, manche nicht. wenn sich gddr6 wie gddr5x verhält, muss man beim oc testen aufpassen das man nicht die falschen mhz erwischt, denn da springen die timings hin und her.

in pubg hab ich mich teils gewundert, das sich zwischen +444 und +522mhz nichtmal ganz ein fps ändert, aber zwischen +522 und +530 gleich 6fps steigen, von 123 auf 129 fps im hauptmenu. also aufpassen bevor man falsche schlussffolgerungen macht.

Screemer
2019-01-14, 12:39:34
Na ja, also nVidias G-SYNC Compatible Liste ist kurz, sehr kurz.

Viel Hoffnung würde ich mir da nicht machen.
Abschalten kann man es auch wenn der Monitor nicht auf der Liste steht. Ich würde mir eher keine Illusionen machen bzgl. dem Vergleich durch Nvidia von gsync- und freesync-monitoren mit gleicher Qualität.

Nazar
2019-01-14, 13:00:43
ich verstehe die aussage nicht, das core oc sich nicht lohnt. warum sollte man es nicht machen? wenn 70mhz mehr drin sind, warum sollte man es nicht machen? es gibt doch keine echten nachteile bei wakü. eigentlich sehe ich es genau umgekehrt wie du. warum sollte man kein OC betreiben?

manche spiele reagieren sehr gut auf mem oc, manche nicht. wenn sich gddr6 wie gddr5x verhält, muss man beim oc testen aufpassen das man nicht die falschen mhz erwischt, denn da springen die timings hin und her.

in pubg hab ich mich teils gewundert, das sich zwischen +444 und +522mhz nichtmal ganz ein fps ändert, aber zwischen +522 und +530 gleich 6fps steigen, von 123 auf 129 fps im hauptmenu. also aufpassen bevor man falsche schlussffolgerungen macht.

Da es meine Schlussfolgerung ist, kann diese gar nicht falsch sein, besonders dann nicht,wenn man meine Äußerungen dazu wirklich liest, welche bewusst (größtenteils) deutlich subjektiv gehalten sind. :wink:
Man kann es, wenn man sich wirklich anstrengt, am Schluss so lesen als wäre meine Aussage allgemein gehalten, muss man aber nicht (nur wenn man es will).
Nun denn, nun für alle, die sich auf den Slips getreten fühlen:
ICH habe keinerlei Vorteile durch das mir mögliche OC feststellen können und deshalb sehe ICH derzeit bei MEINER 2080TI keinerlei Sinn für ein OC.

Wieder alles gut? :freak:

BlacKi
2019-01-14, 13:10:08
schön das dir deine gpu leistung "ausreicht". sowas gibts aber meiner meinung nach nicht wirklich, also "zuviel" gpu leistung. da ich persönlich gerne das anwende was auch machbar ist, würde ich auch keine 25mhz liegen lassen. just saying.

wolik
2019-01-14, 13:15:18
OC ist sinnvoll. Besonders wenn beide ACO (z.B) nur eine Karte nutzen. Mit OC (10%) hat man dann statt 55-57 fps, stabile 60.

Timbaloo
2019-01-14, 14:06:40
in pubg hab ich mich teils gewundert, das sich zwischen +444 und +522mhz nichtmal ganz ein fps ändert, aber zwischen +522 und +530 gleich 6fps steigen, von 123 auf 129 fps im hauptmenu.
:ulol:

Raff
2019-01-14, 14:48:08
Dürfte die einzige Stelle in diesem chaotischen MP-Gewurschtel sein, die man wirklich perfekt reproduzierbar testen kann. ;)

MfG,
Raff

Timbaloo
2019-01-14, 15:10:53
Nicht wirklich mit all den Popups und Erinnerungen und was weiss ich was. Und selbst wenn, reproduzierbar Fahrkarten messen ist halt immer noch Fahrkarten messen.

Würde ich PUBG halbwegs sinnvoll benchen wollen würde ich auf die Testmap.

y33H@
2019-01-14, 15:36:54
Was ist (für GPUs) mit nem Replay?

Screemer
2019-01-14, 16:51:34
gpu kann man damit denke ich gut und reproduzierbar messen. allerdings ist damit halt die korrelation von cpu und gpu in pubg nicht abzubilden. ist halt wie früher ne timedemo nur ohne optimierung ;)

Timbaloo
2019-01-14, 19:48:59
Was ist (für GPUs) mit nem Replay?
Gute Frage, gute Idee, könnte man mal probieren.

Man könnte eine Runde live benchen und dann mit dem Replay vergleichen. Ich vertrau dem Replay aber nicht.

BlacKi
2019-01-14, 20:58:29
es ist gpu / vram last, fertig. mir gings nicht darum, ob es reales szenario ist oder nicht. es ging darum herauszufinden wo bei welchem takt gute steigerungen messbar sind. die schwankungen im menu sind sehr gering. auf der testmap hätte ich nicht 1 fps +- achten können. und wenn ich das replay anhalte, kann ich auchgleich im menu vergleichen.

das worum es eigentlich ging, das nicht jedes mhz vram OC auch gleichviel bringt, ist wieder komplett hinten runtergefallen -.-

VooDoo7mx
2019-01-15, 14:22:09
Ich hab mich jetzt einfach mal auf cr@b seine Meinung verlassen und mir die Gainward GS RTX2080 Ti bestellt. Ich hoffe die ist nicht zu laut oder nervig. Ich komme von einer Titan X mit einen Arctic Cooling Nachrüst AiO Wasserkühler.

TurricanM3
2019-01-15, 15:19:37
Hab meine Dual OC von MF für 999 und die ist unbenutzt/versiegelt. Ich hab keine Ahnung wie die so Preise machen können, bei den anderen kostet die Karte 200-300 mehr. :confused:

dildo4u
2019-01-15, 15:22:48
Das ist MSRP für Third Party Hersteller,sobald Nvidia genug Chips hat sollte es normal sein.

TurricanM3
2019-01-15, 15:28:02
Nein, da bringst du was durcheinander. Und schon gar nicht für die OC-Chips.

Kühlervergleich:

https://abload.de/img/2080tiwaterblockcompak6j0e.png (http://abload.de/image.php?img=2080tiwaterblockcompak6j0e.png)

Mein kryographics sollte die Woche noch kommen. Leider dauert die Backplate noch, aber ich bin eh nicht fertig mit dem neuen Sys.

Raff
2019-01-15, 15:28:47
Ich hab mich jetzt einfach mal auf cr@b seine Meinung verlassen und mir die Gainward GS RTX2080 Ti bestellt. Ich hoffe die ist nicht zu laut oder nervig. Ich komme von einer Titan X mit einen Arctic Cooling Nachrüst AiO Wasserkühler.

... die selbst übertaktet leise und kühl arbeiten dürfte. Meine tut's jedenfalls (gleiche Konfig). Die neue Karte wird ausgereizt ein anderes Geräuschniveau erreichen. Wie nervig das ist, wird von deiner Voltage-Fan-Curve abhängen. :)

MfG,
Raff

P.S: Speicher-Downgrade. Stört dich gar nicht?

Timbaloo
2019-01-15, 15:32:29
Krasses Teil :eek:

TurricanM3
2019-01-15, 19:03:55
Meine Palit hat auch Samsungs drauf:

https://abload.de/img/unbenanntukk6g.png (https://abload.de/image.php?img=unbenanntukk6g.png)

Bios ist 260/330W.

Karte ist viel dicker als die Zotac Twin:

https://abload.de/img/20190115_184807uyjfe.jpg (https://abload.de/image.php?img=20190115_184807uyjfe.jpg)

Ich könnte schwören die Spulen wären im Valley Bench etwas leiser. Mag aber an den Pads/dem Kühler liegen. PCB ist ohne NVidia Schriftzug.

basix
2019-01-15, 19:57:16
Meine Palit hat auch Samsungs drauf

Tja, meine hat Micron (gleich zu Release gekauft). Mir geht das schon ein wenig auf den Sack: Schlechterer Speicher und kein Game Bundle. Da macht sich Nvidia keine Freunde. Ich meine, wenn das ein halbes Jahr später oder so passiert wäre, OK. Aber knapp 1 Monat später Samsung Speicher + BF:V und nun auch noch Anthem dazu? Ich drücke immer mehr die Daumen, dass Navi mit Turing den Boden aufwischt...

TurricanM3
2019-01-15, 20:17:43
Glaube Game Bundle habe ich auch keins, aber nicht genauer geschaut (glaube MF macht da nicht mit?).
Micron geht halt ein paar Hundert MHz schlechter im OC. Gibt aber auch User bei denen er über 8000 packt (Wakü). Würde mich da nicht groß drüber aufregen.

basix
2019-01-15, 20:24:00
Es geht gar nicht gross darum, dass ich kein Bundle habe und der Speicher nicht max. OC schafft. Die Karte ist gut und erfüllt meine Erwartungen (Kühler könnte etwas leiser sein, aber der ist nicht von Nvidia). Es geht eher darum, dass ich mein Geld Nvidia gegeben habe (nicht wenig) und dass es sehr kurz darauf eine "verbesserte" Version davon gibt. Eben Samsung Speicher und ein paar Games. Ist halt ein wenig ärgerlich für die "treuen" Kunden. Es wäre ja zum Beispiel nicht ein riesen Ding für Nvidia gewesen, BF:V den RTX Karten beizulegen, wenn sie es ja schon gross als Lead-Game mit Raytracing angepriesen haben. Aber 30 Tage später dann doch. WTF? Irgendwie einfach ein komisches Handling dieses Launches von Nvidia. Es kann zwar auch sein, das EA auf Nvidia zugegangen ist mit der Bundle-Idee, da die Verkäufe nicht wie erhofft waren. Wie auch immer, ich ärgere mich trotzdem. Ist mein persönliches Recht :D

TurricanM3
2019-01-15, 21:56:05
Du hattest immerhin schon einen Monat deinen Spaß mit der Karte. Zum Kaufzeitpunkt war ja alles ok für dich. Führt ja zu nichts sich da nun aufzuregen. ^^
Kann dich aber auch etwas verstehen.

Also die Palit ist noch besser als meine erste Karte, die mir leider hops gegangen ist.
Der Scanner geht unter Luft bis 2160 (???):

https://abload.de/thumb/palit-ocv8jq4.png (https://abload.de/image.php?img=palit-ocv8jq4.png)

Ingame liegt das kurz an, geht dann aber auf 2145 und 2130 runter. Wird zu warm. Hatte dann kurz geschaut wie viel sie für ~2000 benötigt und da liefen 900mV. Der Samsung scheint wieder locker 8300 benchbar zu sein. War aber nur Kurztest.

PS: Weiß jemand wieso die Spannung im AB bei mir spackt (siehe Screen)? Habe das seit einigen Wochen und weiß nicht warum.

SKYNET
2019-01-15, 22:03:17
Es geht gar nicht gross darum, dass ich kein Bundle habe und der Speicher nicht max. OC schafft. Die Karte ist gut und erfüllt meine Erwartungen (Kühler könnte etwas leiser sein, aber der ist nicht von Nvidia). Es geht eher darum, dass ich mein Geld Nvidia gegeben habe (nicht wenig) und dass es sehr kurz darauf eine "verbesserte" Version davon gibt. Eben Samsung Speicher und ein paar Games. Ist halt ein wenig ärgerlich für die "treuen" Kunden. Es wäre ja zum Beispiel nicht ein riesen Ding für Nvidia gewesen, BF:V den RTX Karten beizulegen, wenn sie es ja schon gross als Lead-Game mit Raytracing angepriesen haben. Aber 30 Tage später dann doch. WTF? Irgendwie einfach ein komisches Handling dieses Launches von Nvidia. Es kann zwar auch sein, das EA auf Nvidia zugegangen ist mit der Bundle-Idee, da die Verkäufe nicht wie erhofft waren. Wie auch immer, ich ärgere mich trotzdem. Ist mein persönliches Recht :D


machs wie ich: damals meine glotze gekauft, 2 wochen später 500 taler billiger... hingegangen, reklamiert, anstandslos die differenz bekommen.

evtl. bekommst das game ja noch nachgeschoben :)

JaniC
2019-01-15, 22:47:13
PS: Weiß jemand wieso die Spannung im AB bei mir spackt (siehe Screen)? Habe das seit einigen Wochen und weiß nicht warum.

Nettes Kärtchen. Vielleicht mal Beta 10 testen? Auf deinem Screenshot sehe ich, dass du noch Beta 9 verwendest.

Für den Alltag sind diese 100% Fan Sachen aber nichts, oder? Wäre mir viel zu laut.

Wie ist dir die Palit hops gegangen, Turrican? Durch OC oder allgemeines 2080Ti Sterben?

Und so generell: bringt Speicher OC aktuell schon was, also real, ingame? Würde meine erstmal @stock lassen und eventuell undervolten, aber sie ist auch so einfach nur leise und kühl.
Also vielleicht echt einfach stock.
Aber falls man vom Speicher OC wirklich was merkt, würde ich mal gucken, was so möglich ist.
Kann mir kaum vorstellen, dass das spürbar ist? PUBG ist in 1440p so schon immer am 144er Limit, außer wenn es mal laggt oder so, aber das liegt nicht an der Graka.

TurricanM3
2019-01-15, 23:23:47
Klar viel zu laut. War nur testweise damit die Temp möglichst nicht limitiert. Ich hab zum Vergleich zur ersten Karte wieder die beta 9 genommen. Die 10er testet anders, die nonA Zotac lief damit voll ins PT.
Die erste war eine KFA2 und ist mir nach 30h Spielzeit einfach kaputt gegangen. Das typische Fehlerbild.

RAM OC ist halt quasi kostenlos (bis auf ein bisschen PT) und bringt schon gut was. Natürlich nur im GPU Limit, das hast bei PUBG ja fast nie. Habe das mit 1620MHz @800mV gespielt auf der Zotac Twin, da der Kühler so viel leiser lief.

Raff
2019-01-16, 09:20:58
Und so generell: bringt Speicher OC aktuell schon was, also real, ingame? Würde meine erstmal @stock lassen und eventuell undervolten, aber sie ist auch so einfach nur leise und kühl.
Also vielleicht echt einfach stock.
Aber falls man vom Speicher OC wirklich was merkt, würde ich mal gucken, was so möglich ist.
Kann mir kaum vorstellen, dass das spürbar ist? PUBG ist in 1440p so schon immer am 144er Limit, außer wenn es mal laggt oder so, aber das liegt nicht an der Graka.

Definiere "spürbar". :) Spürst du 3–7 Prozent? Diesen Rahmen kannst du erwarten, wenn du den Speichertakt auf bestenfalls 16 GT/s erhöhst. Das ist simple Mathematik. Mit quasi immer machbaren 15,4 GT/s (7.700 MHz) erhöhst du die Transferrate um zehn Prozent. Beim Kern wirst du das kaum schaffen, der bestimmt die Leistung aber direkter.

MfG,
Raff

Lowkey
2019-01-16, 09:40:02
Man müßte sich einen Tag hinsetzen und den OC Takt bei GPU und Speicher austesten. Den schreibt man sich auf Papier, stellt das OC Tool auf "bei Windows Start laden", trägt die Werte ein und beschäftigt sich bis zur nächsten Windows Neuinstallation nicht mehr damit. Die Abhängigkeit von der Software nervt ein wenig. Beim CPU OC stellt man die Werte permanent im Bios ein und ist nicht auf Software angewiesen. Bei Keppler konnte ich einfach die Werte permanent in das Bios der 750 Ti flashen. Das war neben der angepaßten Lüftersteuerung einfach cool.

Das OC merkt man nicht. Das UC merkt man auch nicht. Eigentlich ist die Grundleistung der Karte genug. Man kann sich den ganzen OC/UC/Mod Kram sparen und die Karte einfach laufen lassen. Doch widerspricht es meiner Auffassung von Leistung. Wozu rüstet man eigentlich auf, wenn man an jeder Ecke sagen muss "wegen 5% lohnt es nicht". Speichertimings optimieren? Lohnt nicht wegen 5%. CPU OC? Wegen den 10%? GrafikOC? Wegen den 7%? In der Summe bekommt man dann aber ein System, dass man schon eine Klasse höher einordnen kann.

TobiWahnKenobi
2019-01-16, 10:01:13
um die homöopathischen leistungsdeltas sichtbar zu machen haben wir die lustigen schnullermarks.



(..)

mfg
tobi

basix
2019-01-16, 13:50:57
Bei der GPU UV ich schon lange, bei CPUs werde ich das vermutlich beim nächsten System auch machen (bei HSW-E lohnt sich OC). Der Unterschied von Geräusch- und Wärmeemission ist sehr gut spürbar. Ich habe lieber ein effizientes System als max. OC. Für Benches kann ich immer noch alles auf Anschlag setzen.

@Skynet:
Habe ich gemacht. Geht nicht, hängt von der Kulanz des Shops ab.

JaniC
2019-01-16, 13:52:53
Hatte meine 1080 auch immer undervolted. Aber manchmal liest man auch von Microstutter, der dadurch ausgelöst wird. Und dann suchen sich die Leute wahnsinnig und kommen nicht drauf.

Da die 2080 nicht wärmer als 66-68°C wird ingame, halte ich UV bisher für überflüssig.

Aber so garnichts machen an der neuen Karte fühlt sich auch komisch an. Kommt sicher noch in den nächsten Tagen. ;)

SKYNET
2019-01-16, 14:09:50
Bei der GPU UV ich schon lange, bei CPUs werde ich das vermutlich beim nächsten System auch machen (bei HSW-E lohnt sich OC). Der Unterschied von Geräusch- und Wärmeemission ist sehr gut spürbar. Ich habe lieber ein effizientes System als max. OC. Für Benches kann ich immer noch alles auf Anschlag setzen.

@Skynet:
Habe ich gemacht. Geht nicht, hängt von der Kulanz des Shops ab.


in dem fall, wäre das mein letzter kauf in diesem shop gewesen :)

gbm31
2019-01-16, 15:14:04
Beim CPU OC stellt man die Werte permanent im Bios ein und ist nicht auf Software angewiesen. Bei Keppler konnte ich einfach die Werte permanent in das Bios der 750 Ti flashen. Das war neben der angepaßten Lüftersteuerung einfach cool.

Da kannst du aber auch wenn du es übertrieben hast das BIOS resetten bzw das Mainboard macht das nach der festgelegten Anzahl Startversuche selbst.

Solange das eine Grafikkarte nicht auch kann ist Software das einzig richtige.

Zergra
2019-01-16, 15:48:33
Solange das eine Grafikkarte nicht auch kann ist Software das einzig richtige.

Naja, wenn du die Karte vorher über Software mit den Werten testest ist das Risiko ziemlich gering. Dazu noch ein DualBios ist das wars....

TurricanM3
2019-01-16, 16:59:10
Du kannst eine Graka kaum totflashen. Geht notfalls blind oder mit iGPU.

SKYNET
2019-01-16, 17:05:32
Du kannst eine Graka kaum totflashen. Geht notfalls blind oder mit iGPU.

sag das mal nen kollegen, dessen GTX 680(wars glaub ich) er selber geschafft hat mit flashen zu killen, die wurde danach einfach nicht mehr von system gefunden... :ulol: somit auch keine möglichkeit was neu zu flashen. ;D

aber er ist auch nen DAU... nen richtiger, hat schon zu AXP zeiten, DIEs am fliessband mit den kühlern zerbröselt :rolleyes:

Raff
2019-01-16, 17:11:44
Titan RTX Extremtest | Bekommt man 24 GiByte gefüllt? (https://www.youtube.com/watch?v=3wwb9GL2w2g)

Spoiler: RTX 2080 Ti bekommt Problemchen. Bitte bis zum Ende ansehen. :)

MfG,
Raff

Daredevil
2019-01-16, 17:45:10
Nvidia ist der Streaming King. :)
-fi9o2NyPaY

wolik
2019-01-16, 18:42:21
Titan RTX Extremtest | Bekommt man 24 GiByte gefüllt? (https://www.youtube.com/watch?v=3wwb9GL2w2g)

Spoiler: RTX 2080 Ti bekommt Problemchen. Bitte bis zum Ende ansehen. :)

MfG,
Raff
Man soll "Praktische Fälle" betrachten. Z.B. Ich finde das Grafik in BFV besser in 4K (200%) sprich 8K als 4K mit RT. Bei 65 glotze und Entfernung 1,2m macht das sehr bemerkbar. Und mit 2x2080Ti hat man genug Leistung für 8K.
11Gb waren nie überfüllt.
2 Beispiel FFXV. Dort bei 200% 4K (8K) wird schon mit Speicher sehr problematisch.
16Gb auf R7 ist sehr geil, nur das "mittelmässige Leistung" oder mit schlechte mGPU von AMD wird nie möglich sein in 8K Genuss zu kommen.

TurricanM3
2019-01-16, 20:55:34
Also die Palit Karte (Magic-Spulen auf Ref. PCB) produziert definitiv deutlich weniger Nebengeräusche als das "echte" Ref. NVidia PCB (Zotac).
Ich habe mal ein Video gemacht, hört mal:

H-J6BMoO5hg

Handy ca. 10cm von der Karte entfernt. Beide Karten 2010MHz @1v.

Aber ich bin mir nicht sicher, ob das wirklich nur an den Spulen liegt oder evtl. Pads / Kühler. Die KFA2 die mir kaputt gegangen ist, habe ich deutlich surren gehört, aber leider keinen direkten Vergleich gehabt.

Geächteter
2019-01-17, 00:01:07
Aber ich bin mir nicht sicher, ob das wirklich nur an den Spulen liegt oder evtl. Pads / Kühler.
Eher sehr, sehr unwahrscheinlich am Kühler/Pads, liegt wohl eher an den Spulen, die klingen stark und effektiv im Innern gedämpft, geht also, wenn die Hersteller nur wollen.

VooDoo7mx
2019-01-17, 10:01:35
Hab gestern meine Gainward Phoenix GS erhalten
Hier mal ein paar Eindrücke:

- Schon neues BIOS drauf mit 126% PT (~330W)
- Samsung Speicher
- Kühler selbst im offenen Gehäuse unter Windows nicht hörbar, keine nervigen Geräusche wie fiepen, rattern oder hochfrequentes rauschen
- Karte taktet schon ab Werk sehr hoch bis 1,96 GHz rennt aber direkt bei 1.043V ins Power Target (Witcher 3 UHD)
- unter Witcher 3 Volllast im Powertarget hörbar im offenen Gehäuse, aber nicht unangenehm laut, wenn Ton über Lautsprecher an, ist das Lüftergeräusch nicht direkt wahrnehmbar und bleibt im Hintergrund
- Karte ist ein ziemlicher Säufer. Unter Witcher 3 UHD schon bei bei 0,9V Spannung schon teilweise im Power Target bei ~1,9GHz
- erreichbare Taktraten je Spannung sehr ähnlich wie GP102 Titan X
- Speicher ging problemlos auf 8000, muss noch testen ob wirklich stabil
- per Kurve kann man jetzt auf bis auf 0,7V runter. Hab damit mal schnell was mit 1,4GHz getestet, vielleicht geht da auch mehr. Forza horizon 4 lief problemlos mit 60fps Ultra UHD mit dieser Einstellung. Super energieffizient, Karte unhörbar bei 54°C

Alles in allen bin ich mit der Karte sehr zufrieden. Würde ich weiter empfehlen.

Nazar
2019-01-17, 15:21:37
Hab gestern meine Gainward Phoenix GS erhalten
Hier mal ein paar Eindrücke:

- Schon neues BIOS drauf mit 126% PT (~330W)
- Samsung Speicher
- Kühler selbst im offenen Gehäuse unter Windows nicht hörbar, keine nervigen Geräusche wie fiepen, rattern oder hochfrequentes rauschen
- Karte taktet schon ab Werk sehr hoch bis 1,96 GHz rennt aber direkt bei 1.043V ins Power Target (Witcher 3 UHD)
- unter Witcher 3 Volllast im Powertarget hörbar im offenen Gehäuse, aber nicht unangenehm laut, wenn Ton über Lautsprecher an, ist das Lüftergeräusch nicht direkt wahrnehmbar und bleibt im Hintergrund
- Karte ist ein ziemlicher Säufer. Unter Witcher 3 UHD schon bei bei 0,9V Spannung schon teilweise im Power Target bei ~1,9GHz
- erreichbare Taktraten je Spannung sehr ähnlich wie GP102 Titan X
- Speicher ging problemlos auf 8000, muss noch testen ob wirklich stabil
- per Kurve kann man jetzt auf bis auf 0,7V runter. Hab damit mal schnell was mit 1,4GHz getestet, vielleicht geht da auch mehr. Forza horizon 4 lief problemlos mit 60fps Ultra UHD mit dieser Einstellung. Super energieffizient, Karte unhörbar bei 54°C

Alles in allen bin ich mit der Karte sehr zufrieden. Würde ich weiter empfehlen.

Kannst du BIOS Version bitte mal posten?
Wieviel Mehrleistung brint das Übertakten des Speichers (ohne OC der GPU, ohne OC der GPU aber mit 126% PT, mit 126% PT und OC)?
Kannst du das nachvollziebare Aussagen treffen?

drmaniac
2019-01-17, 15:38:08
Ich will mir sobald die Pimax VR Brille regulär lieferbar ist (vermutlich April) eine 2080ti zulegen.

Dazu habe ich ein paar Fragen:

- wenn ich die Karte nicht per Wakü nutzen will, sondern nur mit "Bordmitteln" einfach das maximale Nutzen will, lohnt es sich dann überhaupt, eine der sehr teuren Varianten zuzulegen?

- Gibt es wirklich so heftige Unterschiede zwischen den Verschiedenen Modellen? Oder ist das alles im Promillebereich an Mehr-Frames?

- und die lustigste Frage ;D welche Karte würdet ihr empfehlen? Gibt es so pauschale Ausagen wie : Modell X! Die fiep nicht, taktet per default schon sehr gut und hält lange den Turbo?
Meine Anforderungen: Raytracing egal. Einfach viel Leistung bei sehr hohen Auflösungen :)

:)

Troyan
2019-01-17, 15:52:36
Kommt drauf an, was für Ansprüche du hast.

Leise wird nur mit den dicken Kühlern gehen. Imo muss man hier bei 2,5 Slots+ schauen.

drmaniac
2019-01-17, 16:03:34
Naja die Ansprüche sind nicht so wild. Einfach maximale Leistung bei sehr hoher Auflösung, da die Pimax 5K befeuert werden soll und die Input Auflösung auch noch hochgerechnet wird vorher. Wieviel Slots die Karte braucht ist mir auch quasi egal :)

Kann man danach gehen, wieviel Grund und Maximaltakt angegeben wird in den Übersichtslisten auf z.b. Geizhals.de? Und sich dort "hochhangeln"?

Lowkey
2019-01-17, 16:09:19
Es fehlt ein wenig an Tests zum OC vs Non-OC mit Samsung Speicher. Wie erwähnt hatte meine 2080 mit OC diverse Lags durch das OC.

TurricanM3
2019-01-17, 16:31:50
Ich hatte mit der ersten Ti micro Stuttering mit curve/undervolting. Alles probiert, DDU etc. Konnte das nicht fixen. Mit den jetzigen passiert das nicht mehr. Weiß nicht woran es lag.

Gibt es so pauschale Ausagen wie : Modell X! Die fiep nicht...


Es gibt eine Pauschalaussage: Alle Karten surren/fiepen, ausnahmslos. Ich habe mir zu Pascal Zeiten extra eine MSI Gaming mit den ja angeblich so tollen Spulen zugelegt. War kein Stück besser als die Ref.

Eher sehr, sehr unwahrscheinlich am Kühler/Pads, liegt wohl eher an den Spulen, die klingen stark und effektiv im Innern gedämpft, geht also, wenn die Hersteller nur wollen.


Das kann sehr wohl was ausmachen, ich zitiere mich mal:

Bisschen sehr seltsam:
Ein Kumpel hat sich seine Ti auf Wakü umgebaut mit dem EKWB Vector. Die Spulengeräusche wurden wesentlich lauter als mit dem stock Kühler laut ihm. Ich hab das Ding vorhin selbst gehört, echt schlimm wie das Teil surrt.
So jetzt kommt's:
Ich hatte ihn hier die Woche bekommen, aber leider ist meine Karte ja hops gegangen:

https://abload.de/thumb/unbenannt8qf4w.png (https://abload.de/image.php?img=unbenannt8qf4w.png)

Und wir haben das Teil umgebaut und ratet mal: die Spulengeräusche sind wieder ganz normal. :confused:
Ich habe beim EKWB keinen Fehler gesehen, Pads lagen alle richtig und die Schrauben waren auch fest. Temperatur ist beim Watercool übrigens etwas besser.
Noch jemand hier bei dem die Karte mit dem EKWB dahingehend lauter wurde?


Die Kühler decken unterschiedlich Bauteile ab, der Vector (oben) weniger. Schau:

https://abload.de/img/unbenannt-2iykaa.jpg (http://abload.de/image.php?img=unbenannt-2iykaa.jpg)

https://abload.de/img/unbenannt-11ukh9.jpg (http://abload.de/image.php?img=unbenannt-11ukh9.jpg)

Zumal die Pads vom Vector schmaler sind als die Spulen und diese gar nicht komplett bedecken.

TurricanM3
2019-01-17, 18:00:07
Und bez. OC: Hier mal der Vergleich in BF V:

liTPTjkWMqY
(die herausragende Videoquali danke ich dem 720p Bug der seit Jahren bei Aufnahmen mit ShadowPlay besteht)

Und das war nur die Testrange in 1440p mit 150% RS. Der Unterschied von 90 zu 110fps ist für mich sehr sehr deutlich. Die Schwelle wann das Spiel schön direkt wird, liegt imho bei ~100fps.

Das ist aber je nach Spiel/Engine unterschiedlich. Spiele sonst noch PUBG @low und da ist das irrelevant.

Ex3cut3r
2019-01-17, 18:32:50
Nett, aber welche Custom boosten denn mit 1740? Schon die mittleren machen out of the box schon mindestens 1900mhz.

Geächteter
2019-01-17, 18:34:48
Die Kühler decken unterschiedlich Bauteile ab, der Vector (oben) weniger. Schau:

https://abload.de/img/unbenannt-2iykaa.jpg (http://abload.de/image.php?img=unbenannt-2iykaa.jpg)

https://abload.de/img/unbenannt-11ukh9.jpg (http://abload.de/image.php?img=unbenannt-11ukh9.jpg)

Zumal die Pads vom Vector schmaler sind als die Spulen und diese gar nicht komplett bedecken.
Hmm, komisch, normalerweise hätte ich eher gedacht, dass ein Kühler im worst case als Klangkörper alles eher schlimmer macht und an ein Dämpfen von außen durch Anpressdruck, wo diese Plastikgehäuse der Spulen doch ziemlich starr sind?
Bei der GTX 1080 waren mit dem FE-Kühler die Spulen afaik völlig unbedeckt und das Surren und Zirpen war nur im dreistelligen Bereich gut zu hören.
Meine 2080 RTX Blower, ebenfalls Spulen unbedeckt, hingegen ist die Hölle, gerade wenn man den ITX-Kübel auf dem Schreibtisch hat.

TurricanM3
2019-01-17, 18:50:31
Ich hab einfach das OC meiner Karte abgezogen (105MHz). Wenn ich mir den Test bei CB anschaue landet die FE je nach Konstellation sogar bei 16XXMHz. Mir gings da ja gar nicht um customs, sondern OC allgemein.

basix
2019-01-17, 18:51:01
Nett, aber welche Custom boosten denn mit 1740? Schon die mittleren machen out of the box schon mindestens 1900mhz.

1740 MHz erscheint mir wirklich wenig, auch Out of the Box. Das erreiche ich mit 170-180W und OC.

Edit:
Hat sich also erledigt :)

JaniC
2019-01-17, 18:55:17
Nett, aber welche Custom boosten denn mit 1740? Schon die mittleren machen out of the box schon mindestens 1900mhz.

Stimmt nicht ganz, die 2080 Gainward (ohne Phoenix oder Phantom oder GS oder GLH) vom Kumpel boostet out of the box nur auf 1800.
Mit OC Scanner waren aber sagenhafte 181MHz mehr drin, Boost dann 1920.

TurricanM3
2019-01-17, 21:04:51
Was schaffen eure Karten unter Luft in BF V? Ich sehe kurz die 2160 (frisch nachdem reintabben/abkühlen):

https://abload.de/img/bfv_2019_01_17_19_58_49keq.png (https://abload.de/image.php?img=bfv_2019_01_17_19_58_49keq.png)

...fällt nur leider auf bis zu 2100 ab, da Temp zu hoch (1440p Ultra). Hab dann nach einem Mapchange oder raustabben immer den Takt wieder anliegen, aber der Kühler ist zu schwach (Warte noch auf die Wakü). Je nach Map läuft sie aber auch einige Zeit mit 2130/2115. Wird bis 65° warm @100%.

Das ist schon recht ordentlich oder? Was ging bei euch @Wakü mehr? Ich weiß, kann man nicht pauschalisieren, würd mich trotzdem interessieren.

Ich glaube bei der Temp-Absenkung steckt eine Art Hysterese hinter. Das ist anders zu Pascal.
Habe das mal bisschen beobachtet. In BF V hab ich anfangs 2160 anliegen ganz kurz. Geht dann bei ~43° runter auf 2145, bei 48° dann 2130 und die nächste Absenkung kommt dann erst bei 58° auf 2115. Wenn sie dann mal die 63° erreicht verharrt sie auf 2100. Das bleibt auch erst mal so bis sie wieder ordentlich abkühlt.
Scheinen irgendwie 5/10° Schritte in die eine Richtung zu sein.

Jemand mal was genaueres dazu gefunden?

cR@b
2019-01-17, 23:11:54
Hab gestern meine Gainward Phoenix GS erhalten
Hier mal ein paar Eindrücke:

- Schon neues BIOS drauf mit 126% PT (~330W)
- Samsung Speicher
- Kühler selbst im offenen Gehäuse unter Windows nicht hörbar, keine nervigen Geräusche wie fiepen, rattern oder hochfrequentes rauschen
- Karte taktet schon ab Werk sehr hoch bis 1,96 GHz rennt aber direkt bei 1.043V ins Power Target (Witcher 3 UHD)
- unter Witcher 3 Volllast im Powertarget hörbar im offenen Gehäuse, aber nicht unangenehm laut, wenn Ton über Lautsprecher an, ist das Lüftergeräusch nicht direkt wahrnehmbar und bleibt im Hintergrund
- Karte ist ein ziemlicher Säufer. Unter Witcher 3 UHD schon bei bei 0,9V Spannung schon teilweise im Power Target bei ~1,9GHz
- erreichbare Taktraten je Spannung sehr ähnlich wie GP102 Titan X
- Speicher ging problemlos auf 8000, muss noch testen ob wirklich stabil
- per Kurve kann man jetzt auf bis auf 0,7V runter. Hab damit mal schnell was mit 1,4GHz getestet, vielleicht geht da auch mehr. Forza horizon 4 lief problemlos mit 60fps Ultra UHD mit dieser Einstellung. Super energieffizient, Karte unhörbar bei 54°C

Alles in allen bin ich mit der Karte sehr zufrieden. Würde ich weiter empfehlen.

Liest sich gut und sogar Samsung hast du schon drauf. Ich hab noch Micron...

@Turri
Mich wunderts, dass du nicht ins PT läufst. 380W Bios?

TurricanM3
2019-01-17, 23:42:50
Nein ist das standard hochgezogen @330W (260/330). Das ist ein neues Bios und ich weiß nicht ob die da was hinsichtlich der Defekte geändert haben.
BF V zieht aber gar nicht so arg, gerade mal ein Vid von eben geschaut (aber nur Hamada) da warens 250-290W warm @2130. Muss aber gestehen, ich weiß nicht ob es nicht hier und da reingelaufen ist. Immer wenn ich ins OSD geschaut hab, war der Takt aber stabil.

RAM hab ich eben mal auf 8200 gestellt und das lief auch zumindest mal die eine Stunde BF V.

cR@b
2019-01-18, 00:11:27
Hmm ok 1440p Ultra könnte sein. Render Scaling 100% vermutlich. Also bei 200% (=4k bei FHD) lauf ich voll rein und dann fällt der Takt natürlich massiv. Aber deine Karte scheint auch recht außergewöhnlich zu sein.

TurricanM3
2019-01-18, 19:17:42
RS = 100% ja. Haut in 4K sicher mehr rein.

Baue gleich um:

https://abload.de/img/20190118_191405h6jyd.jpg (http://abload.de/image.php?img=20190118_191405h6jyd.jpg)

Leider fehlt noch die Backplate...

TurricanM3
2019-01-19, 00:55:03
Der OC-Scanner ballert meine Karte nun auf bis @2205MHz:

https://abload.de/thumb/2205cbjr8.png (https://abload.de/image.php?img=2205cbjr8.png)

Mit dem Stock Bios @330W.
Für 2000 hat er ~913mV ausgelotet.

Klingt doch gut oder?

Der Kryographics ist von der Montage aber so lala. Die ganzen Pads muss man exakt zuschneiden.

https://abload.de/img/20190118_230936yjkrg.jpg (https://abload.de/image.php?img=20190118_230936yjkrg.jpg)

Troyan
2019-01-19, 09:02:25
Finde das beeindruckend. Meine 2080TI schafft nur stabile 1960Mhz. Alles darüber führt meistens direkt zum Absturz. :(

Dural
2019-01-19, 09:12:20
Quake2 @ RT
https://www.hardwareluxx.de/index.php/news/software/spiele/48350-quake-2-vollstaendig-per-ray-tracing-berechnet.amp.html

Fragman
2019-01-19, 11:10:24
Quake2 @ RT
https://www.hardwareluxx.de/index.php/news/software/spiele/48350-quake-2-vollstaendig-per-ray-tracing-berechnet.amp.html

Das ist natürlich ganz nett. Leider fehlen mir die orig q2 Dateien und man kommt ja legal in Deutschland nicht ran.

Troyan
2019-01-19, 11:11:55
Du kannst die Demo nehmen. Funktioniert auch damit.

Fragman
2019-01-19, 14:08:41
Du kannst die Demo nehmen. Funktioniert auch damit.

Hat funktioniert und es läuft auf ner 2080 ganz gut soweit.
Das Grundgerüst gibt natürlich nicht mehr viel her, aber, wie im Text geschrieben, gibt es einen guten Ausblick. Optisch wirkt es zumindest wie aus einem Guss, schön smooth und organisch. Im Detail gibt es geringen noise bei zb den Fassexplosionen oder den self shadows der Waffen. Aber nichts, was wirklich stört und dann im Spielgeschehen eh untergeht.

Das Spielprinzip allerdings...
Es hat sich danach halt viel verändert. :D

Troyan
2019-01-19, 14:18:11
Die Spiegelungen im Fluss sind geil.

Und mit F1 kann man die Umgebung in eine Spiegellandschaft verwandeln. Das ist crazy as hell.

TurricanM3
2019-01-19, 16:45:19
Finde das beeindruckend. Meine 2080TI schafft nur stabile 1960Mhz. Alles darüber führt meistens direkt zum Absturz. :(


Naja, was bei mir wirklich stabil ist werde ich erst in einigen Wochen sagen können.

Superposition läuft mit @2250:

295QayS3GE4

Ist aber nur 1080p medium wegen PT, laufe ich da schon rein mit dem ori 330er Bios.

Hatte gestern noch 2h BF V gezockt. Wollte 2010@900mV probieren, aber hab mich um einen Klick vertan und es wurden dann 893mV. Hab das einfach so gelassen und das lief.

cR@b
2019-01-19, 21:12:01
So wie das aussieht hast du den Jackpot der Silicon Lotterie geknackt. Glaube ein webmi könnte vor Neid bald platzen :ugly:

Lu
2019-01-20, 15:26:09
Du meinst in München ist gerade ein Arsch geplatzt? ;D
Diese Generation an Grafikkarten kann so lustig sein, auch wenn man
sie wegen einem unterirdischen PL auslässt :biggrin:

MikePayne
2019-01-20, 15:34:28
Die Spiegelungen im Fluss sind geil.

Und mit F1 kann man die Umgebung in eine Spiegellandschaft verwandeln. Das ist crazy as hell.

Hast Du ein paar Screenshots?

Aufwerten alter Games könnte tatsächlich ein brauchbares RT Feature sein.

24p
2019-01-20, 16:07:29
Gothic 2/3 mit vollem RT Rendering. :heart:

=Floi=
2019-01-20, 16:27:16
.

machst dir wegen 50mhz gedanken, aber die DX12 spikes sind dir egal. ;D