PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 31. Januar 2019


Leonidas
2019-02-01, 10:23:20
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-31-januar-2019

Ätznatron
2019-02-01, 10:47:03
Mittlerweile sollte es doch wohl bekannt sein, dass diverse Game-Engines die Bildqualität an den vorhandenen Videospeicher anpassen.

Ich bezweifle daher, dass die 2060 eine ähnlich gute BQ liefert wie die 2070.

Dazu dann noch das: 6 GB versus 8 GB Speicher (https://www.computerbase.de/2019-01/nvidia-geforce-rtx-2060-test/5/#abschnitt_6_gb_versus_8_gb_speicher), und man kann sich die 6 GB nur noch schön saufen.

mdf/markus
2019-02-01, 10:59:43
Mittlerweile sollte es doch wohl bekannt sein, dass diverse Game-Engines die Bildqualität an den vorhandenen Videospeicher anpassen.

Ich bezweifle daher, dass die 2060 eine ähnlich gute BQ liefert wie die 2070.



Hast du da Beispiele dafür, welche Games/Engines das so handhaben?

Ätznatron
2019-02-01, 11:11:12
Bspw. die Unreal-Engine (https://docs.unrealengine.com/en-us/Engine/Content/Types/Textures/Streaming/Overview):

This ends up defining the ideal resolution for each texture. The streamer then computes if the streaming memory pool is big enough to hold those resolutions. If not, the streamer will reduce the planned quality for selected textures, dropping one mip at a time, until the planned solution gets under budget.

mdf/markus
2019-02-01, 11:19:28
Und in welchem Spiel wird das so umgesetzt?
Das würde ja dann bedeuten, dass bspw "Ultra Textures" nicht gleich "Ultra Textures" wären.
Kenne zwar Games, in denen manche Textur Optionen gar nicht verfügbar sind, wenn der Grafikspeicher dafür nicht ausreicht, aber dass dann wirklich eben zB Ultra nicht Ultra ist, hätte ich noch nie gesehen.

Ordentlich umgesetzt wäre das natürlich nicht nur Nachteil sondern auch Vorteil, wenn die Engine flexibel mit dem Grafikspeicher umgehen kann.

Ätznatron
2019-02-01, 11:26:07
Das würde ja dann bedeuten, dass bspw "Ultra Textures" nicht gleich "Ultra Textures" wären.


Genau das bedeutet es. Auffallen würde es wahrscheinlich nur bei einem direkten Bildvergleich.

PS: Jede moderne Engine wird das ähnlich der Unreal-Engine handhaben.

Legendenkiller
2019-02-01, 11:38:20
Bei Geizhalz sind in der Top 10 der Grakas 9x mit 8 Gbyte Ram und nur 1x die 2060 mit 6Gbyte.

Ich denke die Käufer haben bereits entschieden :-)

Ätznatron
2019-02-01, 11:45:11
Wobei ja nun auch die 8 GB nicht immer die max. BQ garantieren können. ;)

Das Spielchen kann man nach oben hin beliebig fortsetzen.

mdf/markus
2019-02-01, 11:49:33
Theoretisch interessantes Konzept, allerdings wäre ich an wirklichen Umsetzungen interessiert. :redface:

Ich wäre davon ausgegangen, dass die einschlägige Berichterstattung (zB Digital Foundry) das schon irgendwann abgehandelt hätte ...

Ätznatron
2019-02-01, 12:03:12
Das ist nicht bloße Theorie, das ist die Praxis in etlichen Spielen, bspw. in PUBG.

Und es wird ja auch öffentlich diskutiert (https://www.reddit.com/r/PUBATTLEGROUNDS/comments/6b59rh/if_you_have_a_lot_of_vram_consider_turning_off/).

Bei der UE4 kann man das Texturstreaming übrigens abschalten mit dem Parameter -NOTEXTURESTREAMING, wie man dem reddit-Post entnehmen kann. Da werden auch schön die Nebenwirkungen erklärt.

Birdman
2019-02-01, 12:59:07
Das ist nicht bloße Theorie, das ist die Praxis in etlichen Spielen, bspw. in PUBG.
Huh? Die Texturen von PUBG passen doch in den L2 Cache heutiger GPUs....wie kann es da bei diesem Game zu Texturstreaming kommen?

Lowkey
2019-02-01, 13:00:11
Und trotzdem schleicht der Geist "6gb ist 2019 zu wenig" durch die Foren. Da beweist der gestriege Test das Gegenteil und dennoch bleibt die Angst vor zu wenig Grafikspeicher. Weil die Aussage einfach nicht komplett ist.

Denn eigentlich gilt "6gb für den aktuellen Preis ist 2019 zu viel Geld, wenn man die Karte 4-5 Jahre nutzen will".

Denn der Zwang zu 8gb oder 11gb oder 16gb kommt so oder so. Es entsteht aber der emotionale Eindruck, dass mit dem nächsten Game der Bildschirm schwarz bleibt oder nie wieder startet.

Ätznatron
2019-02-01, 13:14:16
Huh? Die Texturen von PUBG passen doch in den L2 Cache heutiger GPUs....wie kann es da bei diesem Game zu Texturstreaming kommen?

Offenbar passen die doch nicht da rein. Denn das Abschalten vom Streaming hat ja verheerende Auswirkungen bei 6 GB Karten, wie die Beiträge dazu zeigen.

@Lowkey

Wer mit eingeschränkter BQ in vielen Spielen leben kann und bereit ist, dafür € 350,- auf den Tisch zu legen, kann mit einer 6 (und weniger) GB Karte lange Jahre glücklich sein.

Gast Ritis
2019-02-01, 13:36:01
Natürlich werden die 6GB Speicher genauso genügen wie heute schon 4GB und 2GB Videoram genügen - alles funktioniert mit Kompromissen.

Im TechSpot Artikel kann man sehr einfach sehen, wo überhaupt bei einer 8GB Karte mehr VRAM genutzt wird.
Eine ausführliche Bildanalyse und Frametimeanalyse bleibt man schulding, man schreibt es ist in betrachteten Beispielen optisch nicht relevant. Das könnte also wie bei die meisten Gimmiks für teure Beschleuniger oder Vendor Spezifische Features sein?

Im Endeffekt ist es wie Ätznatron beschrieben hat. Zum Geld-Verdienen werden die AAA-Titel und die Game-Engines darauf getrimmt für jede Speicherbestückung und PC-Konfiguration den besten Kompromiss zwischen Spielbarkeit und Optik zu finden. Es geht schliesslich ums Geld von der Masse der Käufer mit Laptops und einfachen PCs. Das kann für PCs nur dynamisch funktionieren. Weniger Mipmaps, weniger LoD, Texturpopups,... es gibt viele Möglichkeiten. AMD wollte das mit dem HBCC auf Hardwareseite lösen. Vielleicht wird es ja noch was.

Das ist aber alles recht egal - denn die 6GB sind allein wegen der aktuellen Preislage inakzeptabel. Das darf man nicht vergessen.

Für die Preislage von 350.- bis 450.- Euro den Programmierern und Kunden noch Kompromisse unter 8GB VRAM zuzumuten nur damit die eigene Produktstaffelung und Gewinnmarge optimiert wird sollte tatsächlich mit dem Torvaldschen Fingergruss bedacht werden. Jahresabo vielleicht?

eratte
2019-02-01, 14:43:31
MSI GeForce RTX 2060 GAMING Z Video Card Review (HardOCP) (https://www.hardocp.com/article/2019/01/30/msi_geforce_rtx_2060_gaming_z_video_card_review/)

We did find situations in games where stuttering was starting to occur. We certainly tested and have shown where over 6GB and near 8GB of VRAM usage was occurring in games at 1440p already. As new games are released this year we worry about the RTX 2060’s ability to continue to provide smooth gameplay with many graphics features or texture options turned on.

Ex3cut3r
2019-02-01, 15:52:00
Und trotzdem schleicht der Geist "6gb ist 2019 zu wenig" durch die Foren. Da beweist der gestriege Test das Gegenteil und dennoch bleibt die Angst vor zu wenig Grafikspeicher. Weil die Aussage einfach nicht komplett ist.

Denn eigentlich gilt "6gb für den aktuellen Preis ist 2019 zu viel Geld, wenn man die Karte 4-5 Jahre nutzen will".

Denn der Zwang zu 8gb oder 11gb oder 16gb kommt so oder so. Es entsteht aber der emotionale Eindruck, dass mit dem nächsten Game der Bildschirm schwarz bleibt oder nie wieder startet.

Ja, denn in den Foren wird getrollt wie sonst was, sei 3DC, CB, PCGH. Überall liest man OMG, 6Gig reichen nicht mal für FHD Gaming, tja, da frage ich mich schon haben diese Leute ein Afterburner OSD immer an? Oder woher kommt dieser Glaube? Ich spiele wie schon wie schon öfters gesagt in 3440x1440 mit Max Details AAA Games auf einer RTX 2080. Fast alle AAA Titeln belegen 3,5 - 6GB, wobei 6 Gig da auch schon eher die Ausnahme sind, dann gibt halt nur solche Ausreißer wie Cod, die Tomb Raider Teile usw. die mal 7-8 GB fressen, aber ruckelt es? Oder sieht es matschig aus? Nein.

Wenn man die nächsten Jahre nur in FHD zockt, (zumindest bis die neuen Konsolen da sind) werden 6 gig absolut ausreichen, wenn die neuen Konsolen da sind, werden auch 8Gig nicht mehr reichen, soviel ist sicher!

Also, Blödsinn und Panikmache der immer weiter/immer mehr Fraktion

Eine 2060 ist eine tolle Karte für FHD Gaming mit sehr hohen FPS Raten mehr nicht. GPU 4-5 Jahre behalten, schmeckt mir persönlich nicht, einfach da die Rohleistung nicht mehr reicht, trotz großen Speicher Buffer.

Ätznatron
2019-02-01, 16:10:07
Fast alle AAA Titeln belegen 3,5 - 6GB, wobei 6 Gig da auch schon eher die Ausnahme sind, dann gibt halt nur solche Ausreißer wie Cod, die Tomb Raider Teile usw. die mal 7-8 GB fressen, aber ruckelt es? Oder sieht es matschig aus? Nein.


Wie soll's bei dir auch ruckeln oder matschig aussehen mit deiner 8 GB Karte? ;)

Ex3cut3r
2019-02-01, 16:45:11
Ob die 2GB jetzt so die großen Unterschied machen (werden) halte ich für fragwürdig, bis FHD sollte es reichen, und wenn nicht kann man immer noch die Texturen um eine Stufe absenken, ja ich weiß, für viele ein NoGo, aber den Unterschied muss man doch fast immer mit einem animierten Bildvergleich sehen, sonst wurde man doch eigentlich nix merken.

Ätznatron
2019-02-01, 16:54:45
Warum sollte es ausgerechnet für FHD reichen? Die Auflösung hat so gut wie nichts mit dem Speicherbedarf zu tun, jedenfalls vernachlässigbar wenig.

Entscheidend ist die Größe der Texturen.

maximus_hertus
2019-02-01, 17:07:52
Ob die 2GB jetzt so die großen Unterschied machen (werden) halte ich für fragwürdig, bis FHD sollte es reichen, und wenn nicht kann man immer noch die Texturen um eine Stufe absenken, ja ich weiß, für viele ein NoGo, aber den Unterschied muss man doch fast immer mit einem animierten Bildvergleich sehen, sonst wurde man doch eigentlich nix merken.

Warum nicht 2 Stufen absenken und ein paar hundert Euro sparen? Der Unterschied ist nur gering. Der clevere Gamer holt sich eine günstige 4 GB Karte.

Selbst bei 3440 x 1440 reicht eine 4 GB RX570 oder 3GB GTX 1060. Optisch wie gesagt fast gleich....

Eigentlich reichen sogar 2GB.... oh wait.


Jetzt mal im Ernst: wenn ich 400+ Euro für eine Grafikkarte ausgebe sollte diese zumindest 3 Jahre halten. Und 6GB in 2022? Das wird ein Abenteuer....

Gast
2019-02-01, 17:11:47
Nicht nur Techspot zeigt das die 6 Gb im angedachtem und rohleistungsmässig vernünftigem Einsatzbereich komplett genügen, auch Igor zeigt das mit sehr detallierten Messungen in BF V sogar mit RTX Stufen.

Aber was solls, was kümmern uns hier Fakten wenn wir doch lieber unsern Bias zum besten geben und mit der Fahne der Konkurenz voran einen auf Rotfront machen , wir sind schließlich in solchen Foren angemeldet um den Rest der Ungläubigen zu bekehren und auf jedenfall recht zu haben !!!

Ex3cut3r
2019-02-01, 17:26:48
Dreht mir doch nicht die Worte im "Munde" um.

Fakt ist, 6GB reichen stand heute! Ich sehe nicht diesen VRAM Wahnsinn Bedarf, wie er in etlichen Foren versucht wird voranzutreiben. Sry.

Lowkey
2019-02-01, 17:52:06
Und 2020 haben wir dann eine 3070 mit 12gb oder 3080 mit 16gb. Bei den fallenden Preisen und kommenden Konsolen sehe ich 16gb als neuen Standard an. Ob du dann heute 6 oder 8gb kaufst ist dann aufgrund des Chips vermutlich vollkommen egal.

Ätznatron
2019-02-01, 17:52:15
Fakt ist, 6GB reichen stand heute!

Aha!

Na, wenn du meinst.... ;)

PS: Ich habe in einem Rechner noch eine 6 GB Inno3D GTX 780 aus 2013 (oder 2014) im Einsatz. Die ist heute noch ganz gut dabei, die 3 GB 780 TI dagegen nicht mehr.

Und dazu noch ein Diskussion (http://extreme.pcgameshardware.de/grafikkarten/335395-gtx-780-mit-3gb-oder-6gb.html). ;) Irgendwie wie heute...

Gast Ritis
2019-02-01, 18:02:42
...
Wenn man die nächsten Jahre nur in FHD zockt, (zumindest bis die neuen Konsolen da sind) werden 6 gig absolut ausreichen, wenn die neuen Konsolen da sind, werden auch 8Gig nicht mehr reichen, soviel ist sicher!
....

Alles richtig!

... nur FullHD und der Preis einer RTX2060 gehen nicht in Einklang.

Wir sind bei perfektem FullHD mit RX580 und RX590 für WHQD gut bedient, beides kommt für >100 Euro weniger aber mit 2GB mehr...

Für 20.- Euro gibts bei AMD statt 4GB die 8GB Modelle und nVidia schafft es für einen saftigen Preisaufschlag nicht mal 2GB mehr anzubieten? :[

Linmoum
2019-02-01, 18:10:44
Fakt ist, 6GB reichen stand heute!
Fakt ist, 4GB reichen stand heute!

... man muss halt nur den einen oder anderen Regler bedienen. ;) Dasselbe trifft auf 6GB. "Reichen" ist einfach Humbug in dem Zusammenhang. Und Definitionssache.

Ätznatron
2019-02-01, 18:15:59
Man bekommt das, was man bezahlt.

Das mit dem "Regler bedienen" gilt ja auch nicht mehr. Zumindest nicht so wie in den good old days.

cat
2019-02-01, 18:29:15
Das einzige offizelle von AMD zu Zen 2 bezüglich Launch ist bis heute nur:
"Servers first"

mehr hab ich offiziell noch nicht gehört

Gast
2019-02-01, 19:25:49
Alles richtig!

... nur FullHD und der Preis einer RTX2060 gehen nicht in Einklang.

Wir sind bei perfektem FullHD mit RX580 und RX590 für WHQD gut bedient, beides kommt für >100 Euro weniger aber mit 2GB mehr...

Für 20.- Euro gibts bei AMD statt 4GB die 8GB Modelle und nVidia schafft es für einen saftigen Preisaufschlag nicht mal 2GB mehr anzubieten? :[

Traum weiter es gibt AA Titel die sind schon 1 Jahr alt da wird's schon eng mit 60FPs FHD mit der leistung Ner 2060er ( ACO,GRW usw.) Und da kommst du mir mit Ner 580 und 590er abgeklappert O.o und daselbst noch was von 2560x1440 lol.

Desweiteren zeigt diese Situation ganz gut das dir Vram nix bringt wenn der Chip keinen Bums hat.

Das ist genauso wie mit der 780er und 6 GB , Glückwunsch Texturen auf High , der Rest muss trotzdem runter gedreht werden mangels leistung für nen flüssiges Ergebniss , was im Endeffekt Gurkenoptik mit schöner Tapete bedeutet. Unglaublicher Mehrwert dank des Speicherluxus !

Ex3cut3r
2019-02-01, 20:50:10
AMD hat vermutlich deswegen schon verkackt, weil erheblich viele E-Sport Titel und/oder UE4 Games miserabel laufen, bzw. um einiges langsamer als mit einer Geforce der selben Leistungsklasse.
Zumindest war das noch vor einigen Monaten der Fall, wie da der aktuelle Stand ist, weiß ich aber grade nicht. Und ich gebe zu zu faul zu sein Youtube anzuwerfen.

Gast
2019-02-02, 00:47:08
AMD hat vermutlich deswegen schon verkackt, weil erheblich viele E-Sport Titel und/oder UE4 Games miserabel laufen, bzw. um einiges langsamer als mit einer Geforce der selben Leistungsklasse.
Zumindest war das noch vor einigen Monaten der Fall, wie da der aktuelle Stand ist, weiß ich aber grade nicht. Und ich gebe zu zu faul zu sein Youtube anzuwerfen.

Das liegt/lag je nach UE4 Game meist an der Kombination AMD Treiber und seine Problemchen im CPU-Limit unter DX11 plus UE4, welche zwar als Next Gen vermarktet wird aber in sehr vielen Projekten mit bescheidener Kernskalierung und frühem Singelcorebottleneck glänzt.

PUBG war da zu Anfang ein Paradebeispiel , Squad ist es heute noch.

Selbst der EPIC eigene Titel Paragon welcher eingestellt wurde zeigte dieses Verhalten wen auch nur abgeschwächt weil er on top noch Sau GPU hungrig war.

Solche Phänome sind auch nicht nur auf die UE4 begrenzt sondern stark verbreitet im Umfeld der MMORPGs. Selbst der Primus WoW zeigt das nachweislich.

Hier fährt man halt mit Ner NV meist besser und da muss AMD ran wenn sie Kunden gewinnen wollen.

Ätznatron
2019-02-02, 08:48:56
Das ist genauso wie mit der 780er und 6 GB , Glückwunsch Texturen auf High , der Rest muss trotzdem runter gedreht werden mangels leistung für nen flüssiges Ergebniss , was im Endeffekt Gurkenoptik mit schöner Tapete bedeutet. Unglaublicher Mehrwert dank des Speicherluxus !

Die reicht aber noch aus, viele der neuen Spiele ohne Nachladeruckler spielen zu können, und das, ohne die Regler ganz nach links schieben zu müssen (meist reicht 1 Stufe weniger aus).

Eine Unmöglichkeit beim ach so tollen Rohleistungsmonster 780 TI mit 3 GB.

Speicher ist halt durch nichts zu ersetzen außer durch noch mehr Speicher.

Wer was anderes behauptet, lügt sich in die eigene Tasche.

Ferenzo
2019-02-02, 08:56:48
Ob der Speicher der 2060 jetzt nun in 2-3 Jahren noch ausreichend ist, könnte man beim Glaskugelreiben herausfinden. Momentan ist er es wohl noch. Dennoch verstehe ich die Abneigung mancher hier gegen mehr VRam nicht, das ist doch eine geniale und (meist) leistungsneutrale Grafikqualitätsverbesserung, was will der Nutzer denn mehr? ;)

Lowkey
2019-02-02, 09:17:45
Es geht nicht um die Grafikspeicher, sondern um die irrationale Angst vor zu wenig Speicher.

"Kauf dir lieber eine 580 8gb als eine 2060 6gb, denn der Speicher ist zu wenig".

Tests zeigen doch, dass der Speicher mit 6gb für alle Spiele derzeit ausreicht.

"Ja aber 6gb sind 2019 ein NOGO bzw. NOBUY".

Die Nvidia Preispolitik ist wieder ein anderes Thema.

Harte Fakten: in 5 Jahren darf jeder User aufrüsten. Denn dann reichen weder Speicher noch GPU Leistung.

Was die nächsten Jahre kommt, ist Hellseherei. Es kann eben sein, dass wir in einem Jahr 16gb Grafikspeicher im Mainstream bekommen und keine Karte mehr 8gb hat. Es kann auch so weit kommen, dass 4gb der neue Standard wird ;)

Ätznatron
2019-02-02, 09:22:05
Tests zeigen doch, dass der Speicher mit 6gb für alle Spiele derzeit ausreicht.


Nein, stimmt nicht. Er reicht nicht.

Allein das Frametimebeispiel von Computerbase beweist das Gegenteil (von der möglichen BQ-Verschlechterung durchs Streaming mal ganz zu schweigen).

Troyan
2019-02-02, 09:25:43
Natürlich reichen sie. Dieser Logik folgend reicht auch keine Vega7 Karte, weil die Karte in FF15 kaum mehr als 1080p/60FPS schafft.

Es wird immer Ausnahmen geben. Aber wer Ausnahmen zur Normalität erklärt, hat ganz andere Probleme beim Hardware kauf.

Ätznatron
2019-02-02, 09:33:07
Mit Fakten man den Leute in ihrer "6-GB-reichen-für-alles" - Blase natürlich nicht kommen.

Lowkey
2019-02-02, 10:04:19
CB testet 2 Spiele, die Techspot nicht testet. Sind die Spiele defekt? Wer hat recht?

Ätznatron
2019-02-02, 10:12:53
Im Zweifel verlasse ich mich auf meine eigene Erfahrung.

Der Techspot-Test ist mir zu oberflächlich. Da wird nichts hinterfragt, da wird kein Bildvergleich gemacht, nichts, was irgendwie ein bisschen tiefer geht.

Für mich hat dieser "Test" nur einen tieferen Sinn und Zweck: Den Leuten 6 GB schmackhaft zu machen und als sexy zu verkaufen.

Lowkey
2019-02-02, 10:32:17
CB testet nur die 2 Spiele um zu beweisen, dass 6gb nicht gehen.
TS testet ganze 37 Spiele um zu beweisen, dass 6gb genug sind.

Von 2gb auf 4gb sind es 100%
von 4gb auf 8gb sind es 100%.
Von 6gb auf 8gb sind es nur 33%

Will sagen: die Sprünge werden kleiner.


Edit:

Wolfenstein Vulcan eckt laut PCGH auch an. Also hat der Artikel von Techspot "nvidiafreundlich" alles getestet, was nicht aneckt?!

Berkeley
2019-02-02, 10:49:39
Es ist immer die selbe Leier mit NV Karten. Die Karten werden eben bewusst so gestaltet, dass sie für "Hier und Jetzt" ausreichen (evtl. noch für +1 Jahr). Die User werden dadurch natürlich bewusst oder unbewusst zum Aufrüsten bewegt bzw. einem, von NV vorgegebenen, Zyklus unterworfen (Release neuer Karten).

Es gibt eben Kunden, denen ist das egal weil sie sowieso jedes Jahr neue Graka kaufen (bewusst oder unbewusst, und davon gibt es mehr als genug glaube ich).
Dann gibt es auch Kunden, die sich bewusst Gedanken machen und evtl. nur alle 3-6 Jahre ihre Karten tauschen. Da hat man genug Erfahrungswerten aus der Vergangenheit (3GB Karten von NV, die GTX 970, Speicherauslastung und Bedarf über Jahre). Man wird immer feststellen, mehr speicher ist immer besser als weniger. Und "genug" Speicher ist ein heikles Thema.

maximus_hertus
2019-02-02, 10:59:16
Dreht mir doch nicht die Worte im "Munde" um.

Fakt ist, 6GB reichen stand heute! Ich sehe nicht diesen VRAM Wahnsinn Bedarf, wie er in etlichen Foren versucht wird voranzutreiben. Sry.

Wer auf Ruckler steht, für den reichen 6 GB :)


Call of Duty: WWII zeigt auf einer GeForce RTX 2060 sowohl in 1.920 × 1.080 als auch in 2.560 × 1.440 unregelmäßige Frametimes, die sich in gelegentlich auftretenden Peaks äußern. [...] Auf einer GeForce RTX 2060 stockt die Testsequenz dagegen vor allem in Full HD massiv – Call of Duty: WWII ist so nicht wirklich spielbar. In dem Fall müssten die Texturdetails reduziert werden.


Es sind kleinere Ausreißer bei den Frametimes in Full HD zu erkennen und deutlich größere in 2.560 × 1.440. Trotz 60 FPS stockt die GeForce RTX 2060 in der hohen Auflösung störend, während die GeForce RTX 2070 problemlos durch dieselbe Sequenz rennt. Und das hochauflösende Textur-Pack des Spiels wurde in dem Fall noch nicht mal installiert. Auch hier müssen auf der neuen Turing-Grafikkarte die Texturdetails reduziert werden.

Während des Testens ist zudem aufgefallen, dass die GeForce RTX 2060 mit Battlefield V in Probleme gerät, wenn die DirectX-12-API und eine höhere Auflösung als 1.920 × 1.080 genutzt werden. Bereits mit einer um 25 Prozent höheren Auflösung als Full HD (erreicht per Ingame-Downsampling) verliert das Spiel massiv an Performance. Wer zusätzlich Raytracing aktiviert (das den Speicherverbrauch weiter erhöht), sieht dann nur noch eine Ruckelorgie. Eine GeForce RTX 2070 erreicht in demselben Szenario noch mühelos mehr als 60 FPS. Daran ändert auch der Schalter für die Speicherbeschränkung im Spiel nichts.

Wenn man diese Spiele nicht spielt ist alles super. Von daher hat jeder seine eigene "Realität", je nachdem, was gezockt wird. Wenn man aber eine allgemeine Empfehlung aussprechen möchte, muss man eben diese Ruckler in den genannten Spielen akzeptieren bzw. sich im klaren sein, dass es HEUTE schon AAA-Games gibt, die mit der 2060 in Full-HD ruckeln, trotz ausreichender Rechenleistung.

Dann muss man natürlich beachten, ob der Grafikkarten-Kauf ein Hobby ist oder ob man diese nur kauft, um zu zocken. Für den ersten Fall, wie es ja bei einigen hier im 3DC der Fall ist, wären die 6GB kein Thema, in maximal einem Jahr kommt eh die nächste Karte (abgesehen davon, dass man sich eh in höheren Regalen bewegt). Wer aber einfach nur möglichst wenig Geld für möglichst lange "Lebensdauer" ausgeben möchte, ist bei der 2060 an der komplett falschen Karte geraten.

Die 50-100 Euro Preisersparnis ist "lächerlich" im Vergleich zur 2070. Alleine schon die Performance-Differenz rechtfertigt den Preisaufschlag (2070 zur 2060), dazu der zusätzliche Speicher. Fazit: Die 2060 hat das klar schlechtere Preis/Leistungs-Verhältnis im Vergleich zur 2070 und ist aktuell KEINE ALLGEMEINE Empfehlung. Wenn man nur Spiele spielt, die keinen Problem mit 6GB haben passt es so halbwegs (aber selbst dafür ist die Preisdifferenz zu klein zur 2070).

Leonidas
2019-02-02, 11:01:32
Das einzige offizelle von AMD zu Zen 2 bezüglich Launch ist bis heute nur:
"Servers first"

mehr hab ich offiziell noch nicht gehört


Das war der Plan. Auf der CES war aber zu hören, das das nicht mehr zu halten ist und nunmehr Epyc und Desktop etwa zeitgleich kommen.

Denniss
2019-02-02, 11:02:12
Wenn die Leute - mit Verlaub - dumm genug sind sich für 350-400€ eine Karte mit 6GB andrehen zu lassen dann bitte. Leute mit besserer Kenntnis der Materie holen sich für das Geld eine Vega56 (Red Dragon oder Pulse/Nitro+).

Linmoum
2019-02-02, 11:07:53
Das war der Plan. Auf der CES war aber zu hören, das das nicht mehr zu halten ist und nunmehr Epyc und Desktop etwa zeitgleich kommen.
Gab es denn noch andere Aussagen als das "Mid 2019"? Ist das einzige, was ich gehört habe.

Das würde an dem bisherigen Plan dann auch nichts ändern, wenn z.B. EPYC im Juni und Desktop im Juli launcht.

maximus_hertus
2019-02-02, 11:14:33
CB testet 2 Spiele, die Techspot nicht testet. Sind die Spiele defekt? Wer hat recht?

Es ist völlig egal weshalb und warum diese Spiele (es sind mehr als 2, siehe mein letztes Posting) mit der 2060 ruckeln. Sie ruckeln eben. Am Ende will ich als Spieler ein Spiel flüssig spielen und keine Ausreden hören, warum das Spiel ruckelt.

400 Euro müssen(!) reichen, wenn ich heute eine Karte kaufe um ALLE aktuellen Speile flüssig zocken zu können. Da gibt es imo auch kein ja, aber ;)

Wenn die 2060, so wie für sehr, sehr lange Zeit üblich, im 200-250 Euro Segment aufgeschlagen hätte, wäre die Kritik an den 6GB quasi kaum vorhanden, da sie eben in der Mittelklasse angesiedelt ist, wo man auch mal einen Kompromiss eingehen muss.

400 bzw. ab 430 Euro (für die Strix, Gaming etc. Varianten) ist einfach schon Oberklasse-Preis. Dafür MUSS man ruckelfreies Spielen im Hier und JEtzt in ALLEN Spielen erwarten müssen / dürfen.

Die Quartalszahlen bei nV bzw. die Warnungen zeigen es ja auf. Preislich ist man (als Spieler ist einem das egal warum nV politisch gehandelt hat und RTX und Co zu früh integriert hat) weit über das Ziel hinausgeschossen.

xx60 - bisher immer 200-250 Euro, jetzt 370-430 Euro
xx70 - bisher immer 350-400 Euro, jetzt 500-600 Euro, Launch FE 639 Euro
xx80 - bisher immer 500-600 Euro, jetzt 700-800 Euro, Launch FE 849 Euro

Turing ist schlicht der größte Fehlschlag von nV seit der FX in 2002. Trotz dieser massiven Preissteigerung ist die Marge deutlich gefallen. Nur falls RTX und CO in der Zukunft eine große Rolle spielen und nV dort führend (bleibt) wird man Turing aus nV-Sicht als Erfolg werten können. Wird RTX jedoch nicht der große Durchbruch gelingen oder kann die Konkurrenz, wenn es wirklich relevant ist, aufschließen, dann wird die Turing Gen als "fail" dastehen.

Ätznatron
2019-02-02, 11:37:51
CB testet nur die 2 Spiele um zu beweisen, dass 6gb nicht gehen.


Reicht doch schon, um zu beweisen, dass 6 GB eben nicht durchgehend ausreichen:

Schönere und sauberere Frametimes mit der 8 GB 2070 vs Ruckelorgie mit der 6 GB 2060.

Klar, bei der 2060 ist bestimmt das Spiel defekt, bei der 2070 dann natürlich plötzlich nicht.

Lowkey
2019-02-02, 11:44:53
Ich brauche mehr Quellen für das Frametime Problem.

Denn jeder, der sich mit Computern eine Weile beschäftigt, wird wissen, dass Computerbase das neue Computerbild ist und sich bei Tests mitunter gewaltig irren kann.

Ätznatron
2019-02-02, 11:50:12
Okay, fassen wir mal kurz zusammen:

Das Spiel ist defekt und Computerbase inkompetent. ;)

Lowkey
2019-02-02, 12:00:12
Fasse zusammen: ich will andere Quellen.

maximus_hertus
2019-02-02, 13:12:14
Fasse zusammen: ich will andere Quellen.


Dieselben Symptome konnten wir in CoD WW2 beobachten, hier lud das Spiel zudem einige Texturen verzögert mit voller Auflösung nach.
[...]
im Zweifel müssen eben die Texturen eine Stufe runtergeschaltet oder die Speicherbeschränkung wie in BF5 aktiviert werden.



Allerdings gibt es bei der Geforce RTX 2060 eine offensichtliche Schwachstelle: Der 6-GiByte-Speicher ist in einigen Fällen schon jetzt ein Flaschenhals. Ist in Battlefield 5 die Speicherschutz-Option deaktiviert, können die Bildraten nach Aktivierung des speicherintensiven DXR-Raytracings deutlich stärker einbrechen als bei den 8-GiByte-Turings. Bei unseren Benchmarks kam es bereits in Full HD zum häufigen Speicherüberlauf. Bei Assassin's Creed Odyssey ist die Performance mit Ultra-Settings ab 1440p leicht kompromittiert, in Forza Horizon 4 machen sich in WQHD mit Ultra-Details und zweifacher Multisampling-Kantenglättung verspätet nachladende Texturen bemerkbar. Und in Wolfenstein 2 begrüßt Sie mit maximalen Einstellungen sofort nach dem Spielstart eine Speicherwarnmeldung.
[...]
Wie wir unter anderem in der PCGH 03/2018 ausführen, darf man auch das "legale Cheating" der Game-Engines nicht unter den Teppich kehren. Das hehre Ziel der Streaming-Systeme lautet, die Bildrate so lange wie möglich hoch zu halten. Das ist nur möglich, wenn mit Daten innerhalb des lokal auf der Grafikkarte installierten Speichers gearbeitet wird. Alles, was darüber hinaus geht, hat verheerende Auswirkungen auf die Leistung: Transfers über den PCI-Express in den Hauptspeicher erfolgen mit bestenfalls 16 GByte pro Sekunde (PEG ×16 3.0), miserabler Latenz und relativ grobkörnig. Problematisch ist und bleibt dabei, dass sich die optischen Auswirkungen nicht in Zahlen pressen lassen. Fakt ist, dass Grafikkarten mit wenig Speicher öfter mit Qualitätsreduktion zu kämpfen haben als solche mit ausreichendem RAM. Eine günstige Grafikkarte zeichnet daher im Zweifel das hässlichere Bild - selbst dann, wenn die Bildrate gleich bleibt.


Bitte schön.

Ich kann mich nur wiederholen. Bei 250 Euro für Standard und 300 Euro für gute Customs (Strix, MSI Gaming un Co) würde die 2060 mit 6GB sehr gut passen. Aber bei 430 Euro für gute Customs sind 6GB zu wenig. Das ist einfach deutlich(!) zu teuer für das Gebotene.

aufkrawall
2019-02-02, 13:17:33
VRAM-Mangel äußert sich häufig auch nicht sofort, sondern erst nach einiger Spielzeit. Die Testmethodik "Szene laden & benchen" erfasst das meist gar nicht.

bbott
2019-02-02, 23:39:57
Wolfenstein Vulcan eckt laut PCGH auch an. Also hat der Artikel von Techspot "nvidiafreundlich" alles getestet, was nicht aneckt?!

Bingo. Sieht ganz danach aus, hinzu kommt kein Bild Vergleich...