PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GTX1070 reicht für 4K nicht mehr (wg. TFT)


Alter Sack
2019-10-06, 17:27:06
Die GTX1070 mit 8 GB VRAM reicht anscheinend nicht mehr, um aktuelle (oder teils auch etwas ältere Spiele wie Evil-Within-2) in ausreichender Qualität und/oder FPS zu spielen.

Ausgangsszenario ist dabei ein 34 ZOll 4K TFT mit 3440x1440, der FreeSync bis 75Hz kann.

FreeSync und GTX1070 funktioniert ehrlich gesagt kaum reibungsfrei. Ständig springt das Spiel zurück auf max. 60 Hz, oder es ruckelt trotz hoher FPS.

Die GTX1070 hatte ich vor zwei Jahren wg. exakt diesem TFT geholt und bis vor ca. einem halben Jahr hat diese auch vollkommen ausgereicht, um einen guten Kompromiss zwischen Bildqualität und 60Hz hinzubekommen (also mit VSync on).

Das scheint bei aktuellen Spielen nicht mehr der Fall zu sein.

Rage 2: hier musste ich die Grafik so heftig runterregeln, dass es potthässlich war.

Shadow of TombRaider:Generell sehr schwierig, überhaupt passende Settings zu finden, die 60 Hz bei halbwegs brauchbaren Settings zu ermöglichen.

Aktuell Borderlands 3: Medium-Settings reichen meist aus, jedoch auch hier gibts mit 4K relativ regelmäßige Einbrüche bei den FPS.

Meine Beobachtung ist, dass ich beim wechseln zu 2560x1050 leistungsmäßig keine Probleme mehr habe (also auch keine Einbrüche bei den FPS). Zum Vergleich: die aktuelle Auflösung von 3440x1440 sind 80% mehr Pixel, die berechnet werden müssen!

---
Ich stehe aktuell vor demnach vor der Wahl, entweder eine neue Graka zu holen, oder den Monitor zu tauschen und tendiere sehr stark in Richtung Downgrade beim Monitor.
Das entsprechende Gerät (LG 34UC89G) ist optisch quasi identisch zu meinem Gerät, hat entscheidende Vorteile:
G-Sync
144 hz
nur 2560x1050 Auflösung (statt aktuell 3440x1440)

Ich hatte bis vor 2 Jahren einen 27 Zöller Asus mit GSync/144Hz.... das hat perfekt funktioniert.

Der einzige (nicht zu unterschätzende) Punkt ist: kann man mit einem Downgrade von 3440x1440 auf 2560x1050 glücklich werden?

----
Das Problem, was ich beim Graka-Wechsel (z.B. hin zur RTX2070 oder RTX2080) habe, ist dass die GTX1070 als Vorgänger bereits 8 GByte bietet und die RTX2070 immer noch in 14nm gefertigt wird und erst der Nachfolger in 7nm kommt und demnach vermutlich ein deutlicher Leistungssprung und mehr VRAM bieten wird.
Außerdem ist die TDP der RTX2070 mit 215 Watt deutlich höher, als die der GTX1070 (150 Watt) und ein neues Netzteil wird notwendig. Auch daran kann man erkennen, dass die Mehrleistung der RTX-Reihe anscheinend hauptsächlich durch Mehrverbrauch zustande kommt, und sich technologisch nicht viel relevantes getan hat.

---
Wechsle ich zum GSync 144Hz Monitor, kann die Grafikkarte noch locker ein Jahr im PC bleiben und ich profitiere durch die bis zu 144Hz und GSync von teils deutlich höheren Framerates.

Was meint ihr?
Wäre das Monitor-Downgrade zugunsten GSync/144Hz die bessere Alternative, oder wird die niedrigere Auflösung zu heftig?

HisN
2019-10-06, 18:00:57
Stell Deinen Monitor (der weit weg von 4k ist) auf 2560*1050 (per Custom Resolution und Verbot von Skalierung) und schau nach ob Du Glücklich wirst.
Brauchst Du uns wirklich dafür?

https://abload.de/thumb/resolution_skalierungucfd2.jpg (https://abload.de/image.php?img=resolution_skalierungucfd2.jpg) https://abload.de/thumb/skalierung4tct5.jpg (https://abload.de/image.php?img=skalierung4tct5.jpg)

DrFreaK666
2019-10-06, 18:03:04
Würde ich auch vorschlagen. Zocke auf meinem TV auch "nur" in 1440p und es sieht immer noch gut genug aus

Lehdro
2019-10-06, 18:07:02
Zu allererst: 4k (=3840x2160) ist nicht 3440x1440, der Unterschied zwischen den beiden ist noch einmal über 60% mehr Pixel.

Wenn du dir sicher bist noch bis zur nächsten Generation durchzuhalten: Definitiv Monitordowngrade.

Wenn du dir nicht sicher bist: Schlag dir die 2070 aus dem Kopf, das sind "nur" 40-50% mehr Leistung, das wäre mir persönlich schon zu wenig. Für die Auflösung in den Games empfehle ich eher eine 2080 aufwärts fürs bedenkenlose Zocken. Evtl. kann man eine vanilla 2080 preisgünstig abstauben seit die 2080 Super erschienen sind. Hier prüfen ob das NT das noch mitmacht, sollte aber bei einer Wattklasse von >500W eigentlich bedenkenlos gehen. Allerdings: Dein "Freesyncproblem" bleibt dann.

Wenn dir die reduzierte Auflösung keinerlei Bedenken beschert würde ich an deiner Stelle am Monitor ansetzen und dann den Markt in ca 1 Jahr erneut checken, ob du ein gutes Update druchführen kannst. Dann aber gleich alles erneuern, Zeit wirds dann.

Alter Sack
2019-10-06, 18:31:06
Stell Deinen Monitor (der weit weg von 4k ist) auf 2560*1050 (per Custom Resolution und Verbot von Skalierung) und schau nach ob Du Glücklich wirst.
Brauchst Du uns wirklich dafür?

https://abload.de/thumb/resolution_skalierungucfd2.jpg (https://abload.de/image.php?img=resolution_skalierungucfd2.jpg) https://abload.de/thumb/skalierung4tct5.jpg (https://abload.de/image.php?img=skalierung4tct5.jpg)

Das Ding ist: wenn ich auf 2560x1050 einstelle, kann ich zwar perfekt die Performance-Unterschiede ausmachen, aber nicht die finale Bildqualität, da nicht mehr jeder Pixel auf einen Pixel trifft und das Bild zusätzlich verwischt.

BlacKi
2019-10-06, 18:38:08
die frage die du hättest stellen sollen wäre: wie erhalte ich " (Verbot von Skalierung) ".

Alter Sack
2019-10-06, 18:39:28
Zu allererst: 4k (=3840x2160) ist nicht 3440x1440, der Unterschied zwischen den beiden ist noch einmal über 60% mehr Pixel.

Wenn du dir sicher bist noch bis zur nächsten Generation durchzuhalten: Definitiv Monitordowngrade.

Wenn du dir nicht sicher bist: Schlag dir die 2070 aus dem Kopf, das sind "nur" 40-50% mehr Leistung, das wäre mir persönlich schon zu wenig. Für die Auflösung in den Games empfehle ich eher eine 2080 aufwärts fürs bedenkenlose Zocken. Evtl. kann man eine vanilla 2080 preisgünstig abstauben seit die 2080 Super erschienen sind. Hier prüfen ob das NT das noch mitmacht, sollte aber bei einer Wattklasse von >500W eigentlich bedenkenlos gehen. Allerdings: Dein "Freesyncproblem" bleibt dann.

Wenn dir die reduzierte Auflösung keinerlei Bedenken beschert würde ich an deiner Stelle am Monitor ansetzen und dann den Markt in ca 1 Jahr erneut checken, ob du ein gutes Update druchführen kannst. Dann aber gleich alles erneuern, Zeit wirds dann.

OK, dass ist mal ne klare Ansage!
Die 2080 preislich noch im Rahmen, hat aber "nur" 8 GB VRam und dürfte spätestens, wenn die RTX3er rauskommen, deutlich schneller altern, was bei dem Preis grenzwertig ist.

Hatte zwischen 2015-2017 den Asus RogSwift mit 144Hz mit ner GTX970 und das war schon vom Erlebnis und Bildkomfort her ne deutlich bessere Sache (durschnittliches spielen war damals mit 80-100 FPS möglich), als 60Hz mit dem aktuellen TFT.

Also dann definitiv der Monitorwechsel:
Das ist zwar ein Downgrade, was die Auflösung angeht, aber ein massives Update, was Bildhwiederholfrequenz in Verbindung mit GSync angeht.

Mortalvision
2019-10-06, 18:41:57
auf gut Deutsch: UWQHD, und das bringt ganz eigene Problemchen mit. Generell: wenn der Monitor dir gefällt, habe ich zwei Ratschläge. a) in die vollen mit ner 2080Ti, preislich ca. 900€+ b) hol dir eine gebrauchte Radeon VII für ca. 400€, die hat auch sehr viel Leistung und 16GB Speicher. Jetzt ist der Speicher noch kein Problem, z.B. 2080 mit 8GB, aber in 1-2 Jahren sind vermutlich die 8GB in Auflösungen über WQHD zuwenig. Besonders bei AAA Spielen.

Ich würde p/l zu b) raten, besonders wenn du mit geschlossenen Kopfhörern spielst, das Teil ist laut! :freak: Außerdem kommen nächstes Jahr die 3000er Karten ;)

Freesync geht eh nicht gut mit nvidia Karten. Hat das noch keiner hier gesagt?

Alter Sack
2019-10-06, 19:18:53
auf gut Deutsch: UWQHD, und das bringt ganz eigene Problemchen mit. Generell: wenn der Monitor dir gefällt, habe ich zwei Ratschläge. a) in die vollen mit ner 2080Ti, preislich ca. 900€+ b) hol dir eine gebrauchte Radeon VII für ca. 400€, die hat auch sehr viel Leistung und 16GB Speicher. Jetzt ist der Speicher noch kein Problem, z.B. 2080 mit 8GB, aber in 1-2 Jahren sind vermutlich die 8GB in Auflösungen über WQHD zuwenig. Besonders bei AAA Spielen.

Ich würde p/l zu b) raten, besonders wenn du mit geschlossenen Kopfhörern spielst, das Teil ist laut! :freak: Außerdem kommen nächstes Jahr die 3000er Karten ;)

Freesync geht eh nicht gut mit nvidia Karten. Hat das noch keiner hier gesagt?

Freesync:
Das ging zum Kaufzeitpunkt des TFTs noch gar nicht. Mein Plan damals war, dass die GTX1070 für den TFT ausreicht und ich VSync-on mit 60hz zocke. Dafür reicht aber die Leistung nicht (mehr) und die die KArte droppt immer öfter auch mal unter 60 Hz, bzw. aktuell in EvilWithin2 erreichen ich in 3440x1440 zu keinem Zeitpunkt 60Hz (auch mit niedrigsten Grafikeinstellungen sind nur max. 50FPS drin).... stelle ich auf 2560x1050 runter, flutscht es (aber die Optik ist wg. Skalierung grausam).

EDIT: was die Vorschläge angeht... ein Grundproblem ist, dass nur max 75Hz/Freesync mit dem aktuellen TFT möglich sind.... das will ich eigentl. dauerhaft ändern.
Optimal wäre aktuell wohl ein 34 Zöller mit 3440x1440 mit GSync und 100hz (kostet glaube ich ab 750€ aufwärts) und dazu ne 2080Ti.... de Kombination liegt dann gesamt bei 2000€.
Da erscheint mir der 34 Zöller mit 2560x1050 144Hz/Gsync für 590€ irgendwie das atraktivere Angebot, wobei AntiAliasing dann wohl definitiv Pflicht wird.

DrFreaK666
2019-10-06, 19:44:45
Wenn eine Auflösungsreduktion nicht in einem deutlichen Performance-Zuwachs resultiert, dann bremst wohl auch die CPU. Hast du mal noch niedrigere Auflösungen getestet?

Alter Sack
2019-10-06, 19:45:14
Wenn eine Auflösungsreduktion nicht in einem deutlichen Performance-Zuwachs resultiert, dann bremst wohl eher die CPU. Hast du mal noch niedrigere Auflösungen getestet?

Auflösungsreduktion behebt alle Performance-Probleme.

denjudge
2019-10-06, 20:45:11
Stell Deinen Monitor (der weit weg von 4k ist) auf 2560*1050 (per Custom Resolution und Verbot von Skalierung) und schau nach ob Du Glücklich wirst.
Brauchst Du uns wirklich dafür?

https://abload.de/thumb/resolution_skalierungucfd2.jpg (https://abload.de/image.php?img=resolution_skalierungucfd2.jpg) https://abload.de/thumb/skalierung4tct5.jpg (https://abload.de/image.php?img=skalierung4tct5.jpg)


So würde ich es auch machen, dann kannste ja sehen welche (Custom) Auflösung nötig ist und wie sehr dich der schwarze Rand stört. Bei 34 Zoll sollte da ein bisschen was gehen..

Matrix316
2019-10-06, 20:56:33
Wie wäre es mit einer gebrauchten 1080TI? Den Wechsel hab ich so ähnlich gemacht von 980TI, welche ungefähr einer 1070 entsprochen hat. Ich denke nämlich dran meinen Monitor von 2560 auf 3440x1440 upzugraden und hoffe, dass die noch reicht. ;)

vinacis_vivids
2019-10-06, 23:15:23
3440x1440 + FreeSync => RX5700 XT

Alter Sack
2019-10-07, 08:23:48
Wie geschrieben: unter 2560 performt die GTX1070 noch sehr gut, aber bei 3440 bricht die Leistung deutlich ein (teilweise rund 50% weniger FPS).
Klar kann ich auf dem 3440 in 2560 spielen, aber das Bild wird logischerweise matschig. Daher macht es mehr Sinn, die Details zu reduztiereren, was bei jedem Spiel teilweise sehr viel Aufwand benötigt, bis man alles halbwegs passend hat.
Immer wenn ich so einen Zustand erreicht habe, musste Hardware gewechselt werden. Normalerweise würde (nach 2 Jahren Nutzung) die Graka ersetzt werden, aber das aktuelle Angebot ist einfach nix halbes und nix ganzes.
Wenn ich einfach nur Upgrade, wäre es wie folgt:
GTX970 (in 2017 zu wenig für 3440), daher:
GTX1070 (passte perfekt für 3440) und kostet rund 450€ damals
nun Ende 2019 --> RTX2070 ... Mehrleistung rund 40%....

ABER: TDP geht von 150 Watt (GTX1070) auf 215 Watt (RTX2070) hoch... das sind 43% Mehrverbrauch (also neues Netzteil, denn ich habe "nur" ein 530 Watt drin und 650 Watt werden empfohlen).
Mehrleistung und Stromverbrauchssteigerung sind also linear und das wirkt auf mich wie technischer Stillstand!
Auf der anderen Seite steigen die Anforderungen an die Graka in aktuellen Spielen weiter an, so dass 3440x1440 mit der GTX1070 nur noch mit Abstrichen klappt (oder wie bei EvilWithin2 überhaupt keine 60FPS mehr möglich sind, egal wie niedrig ich alles einstelle).

Die RTX2080 scheint auch nix halbes und nix ganzes zu sein, also müsste es eine RTX2080Ti sein. Ich würde sogar die 1200€ investieren, wenn dann mal für 3 oder 4 Jahre Ruhe wäre, aber im kommenden Jahr kommt dann endlich die erste 7NM Graka von NVidia raus und dann dürfte die Leistung einer 2080Ti mit vermutlich deutlich unter 200 Watt TDP möglich sein und die 2080Ti als Zimmerheizung sehr schnell uninteressant werden.

Deshalb wird´s sehr sicher ein Downgrade bei der Auflösung um 55% werden (von 3440 runter auf 2560), zumal ich 144 Hz und GSync noch oben drauf dazubekomme.
Einziges Manko wäre das Desktop Schriftbild... hoffentlich komme ich damit zurecht, zumal ich als IT´ler auch den ganzen Tag am Rechner klebe.

HisN
2019-10-07, 09:33:57
Das Ding ist: wenn ich auf 2560x1050 einstelle, kann ich zwar perfekt die Performance-Unterschiede ausmachen, aber nicht die finale Bildqualität, da nicht mehr jeder Pixel auf einen Pixel trifft und das Bild zusätzlich verwischt.


Wenn Du die Skalierung verbietest, wie in meinen Bildern zu sehen, dann hast Du 1:1 Pixel mit Balken. Ich versuch meine Tips so zu gestalten dass Du davon auch Mehrwert hast.

Alter Sack
2019-10-07, 09:41:11
grad noch mal gegooglt.
Die Leistungssteigerung liegt bei immerhin 65%.
Das dürfte ausreichen, um zumindest in allen aktuellen Games auf 60Hz zu kommen, ohne allzuviele Abstriche machen zu müssen.

Leider käme dann noch der Netzteilwechsel dazu (Netzteil runde 100-150€), was bei meinem UltraSilent-PC ne absolute Umbau-Orgie werden dürfte.
Dabei wollte ich sowieso mit der nächsten CPU-Generation ggf. das komplette System umbauen.
Zudem hätte ich weiterhin nur 60hz (bzw. wenn Freesync mal gscheit laufen würde bis 75hz) mit dem aktuellen 3440er 34Zoll TFT. Auch nicht wirklich befriedigend.

Ich bin evtl. in Kürze bei jemandem, der genau den 34 Zöller mit 2560er Auflösung stehen hat und kann das Teil mal genauer inspizieren, denn der Monitorwechsel ist irgendwie attraktiver, als der Komplettumbau des PCs.

Alter Sack
2019-10-07, 09:47:06
Wenn Du die Skalierung verbietest, wie in meinen Bildern zu sehen, dann hast Du 1:1 Pixel mit Balken. Ich versuch meine Tips so zu gestalten dass Du davon auch Mehrwert hast.

2560x1050 = 2.68 Mio. Pixel
3440x1440 = 4.95 Mio. Pixel
Das sind 80% mehr Bildpunkte und deshalb auch wird das Bild auch auch unbverhältnismäßig klein. Das ist keine Lösung, nur um Schärfe beizubehalten.

HisN
2019-10-07, 09:53:40
Es ist genau das was Du siehst, wenn Du einen Monitor mit weniger Pixeln kaufen wirst.
Eventuell in einer anderen Größe, aber sonst EXAKT das gleiche.
Du wolltest doch wissen wie es aussieht wenn man weniger Pixel hat. Genau das.

Aber hey ... da Du das ja alles schon kennst, war die Fragestellung halt ..... ungenau, oder ich hab sie falsch verstanden :-)


Wäre das Monitor-Downgrade zugunsten GSync/144Hz die bessere Alternative, oder wird die niedrigere Auflösung zu heftig?

Alter Sack
2019-10-07, 10:45:56
Es ist genau das was Du siehst, wenn Du einen Monitor mit weniger Pixeln kaufen wirst.
Eventuell in einer anderen Größe, aber sonst EXAKT das gleiche.
Du wolltest doch wissen wie es aussieht wenn man weniger Pixel hat. Genau das.

Aber hey ... da Du das ja alles schon kennst, war die Fragestellung halt ..... ungenau, oder ich hab sie falsch verstanden :-)

Man kann es eben leider nicht darstellen, da 2560x1050 auf einem entsprechenden Monitor 1zu1 dargestellt, wird während beim jetztigen 3440x1440 eine Umstellung auf 2560er etwas unscharf wird.
Wenn ich den TFT so einstelle, dass er pixelgenau darstellt, ist das Bild in der Mitte umrandet von einem großen schwarzen Rand.

Werde mir aber ggf. noch heute einen neuen 34 Zöller holen. Einerseits wg. Performance (2560er Auflösung), andererseits wei ich 144hz und GDSync wieder will.
Die Frage ist jedoch, ob der Trend nicht generell zu UltraHD geht und der 2560er TFT dann quasi "veraltet" ist, sobald es Grafikkarten gibt, die 100hz in UHD problemlos schaffen.... ggf. schon im kommenden Jahr mit NVidia Ampere in 7nm.

Aktuell ist es halt ne eigenartige Situation und schwierig zu entscheiden.

Das Optimum wäre ein neue 3440er TFT mit GSYNC und 100-120Hz und dazu ne GTX2070 (die 60FPS jederzeit schaffen sollte) und dann ggf. kommendes Jahr auf Ampere in 7nm zu wechseln, um dann 100FPS zu erreichen.
Die Kosten sind demnach runde 1400-1700€ (für die 3400er Auflösung) vs. 600€ für nen 2560er TFT mit GSync/144hz.

dildo4u
2019-10-07, 10:51:27
Die Karten die du nennst sind alle veraltet.
So lange du die 2070 nicht super billig bekommst würde ich die 2070 Super kaufen das ist der alte 2080 Chip für 500€.

https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/2/#abschnitt_benchmarks_in_2560__1440

+60% zur 1070,und wegen dem Netzteil würde ich erstmal probieren du hast beim Zocken ja nie 100% CPU und GPU Last.

Sonyfreak
2019-10-07, 12:59:05
Ob man sich den gewaltigen Bildqualitätsverlust eines 2560x1080er-Geräts (82dpi statt 110dpi :freak:) antun möchte, sollte man sich meiner Meinung nach genau überlegen.

mfg.

Sonyfreak

Alter Sack
2019-10-07, 14:17:56
Die Karten die du nennst sind alle veraltet.
So lange du die 2070 nicht super billig bekommst würde ich die 2070 Super kaufen das ist der alte 2080 Chip für 500€.

https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/2/#abschnitt_benchmarks_in_2560__1440

+60% zur 1070,und wegen dem Netzteil würde ich erstmal probieren du hast beim Zocken ja nie 100% CPU und GPU Last.

ich meinte ja die 2070Super.

Alter Sack
2019-10-07, 14:21:22
Ob man sich den gewaltigen Bildqualitätsverlust eines 2560x1080er-Geräts (82dpi statt 110dpi :freak:) antun möchte, sollte man sich meiner Meinung nach genau überlegen.

mfg.

Sonyfreak

Genau das ist der Knackpunkt. Ich habe seit Anfang 2015 sehr hohen Auflösungen (vorher den 2560x1440 RogSwift 27er von Asus) und jetzt zurück auf FullHD könnte unbefriedigend enden.

So gesehen müsste es eigentl. ne RTX2070Super / neues Netzteil / neuer 34 Zöller mit 100Hz und GSync für gesamt 1400-1500€ Kosten sein, um wirklich was zu reißen.

BlacKi
2019-10-07, 15:31:02
das stimmt so halt einfach nicht.

die 2070s ist im schnitt über 60% schneller, in den neueren spielen fast 80%, und kostet halt knapp 300€ aufpreis. damit kann man definitiv 3440x1440p befeuern. vl nicht alles auf ultra, aber immer noch besser als auf 1080p runter zu gehen.

die neueren spiele bieten meist eine screenscale funktion, damit kann man dann auch die zukünftigen spiele in 1440p(upscaled) genießen, was deutlich besser ist als 1080p nativ.

ich finde ein 500w netzteil ist locker ausreichend, wenn man kein schrottnetzteil hat. deine popel cpu zieht auch kaum was. du kommst in den spielen mit der 2070s wohl kaum auf 350w, vermutlich sogar nichtmal 300w.

ich betreibe hier eine 1080ti mit 300w und mein 5,1ghz sechskerner. ich peake nur ganz selten mal 400w, auf meinem 600w netzteil.

Alter Sack
2019-10-07, 16:12:23
das stimmt so halt einfach nicht.

die 2070s ist im schnitt über 60% schneller, in den neueren spielen fast 80%, und kostet halt knapp 300€ aufpreis. damit kann man definitiv 3440x1440p befeuern. vl nicht alles auf ultra, aber immer noch besser als auf 1080p runter zu gehen.

die neueren spiele bieten meist eine screenscale funktion, damit kann man dann auch die zukünftigen spiele in 1440p(upscaled) genießen, was deutlich besser ist als 1080p nativ.

ich finde ein 500w netzteil ist locker ausreichend, wenn man kein schrottnetzteil hat. deine popel cpu zieht auch kaum was. du kommst in den spielen mit der 2070s wohl kaum auf 350w, vermutlich sogar nichtmal 300w.

ich betreibe hier eine 1080ti mit 300w und mein 5,1ghz sechskerner. ich peake nur ganz selten mal 400w, auf meinem 600w netzteil.

Die 1080er Auflösung wäre wohl ggf. tatsächlich ein fetter Rückschritt (gerade im Desktopbetrieb und ich arbeiten quasi den ganzen Tag am Rechner - HomeOffice). Das ist mir bei der ganzen Diskussion hier irgendwie auch klar geworden.

Habe soeben noch mal an den Grafiksettings in EvilWithin2 rumgeschraubt und probiert und tatsächlich ne annehmbare Einstellung gefunden, um mit 55-60FPS zu zocken (SSR/SSAO/Tiefenschärfe, alles aus / Sichtfeld runter auf Standard 65).

Im Prinzip muss man sich bei aktuellen Spielen mit ner GTX1070 halt deutlich intensiver mit den Grafikeinstellungen beschäftigen, aber noch geht´s anscheinend.

Was das Netzteil angeht (siehe Bild): keine Ahnung, ob das mit ner GTX2070S und ner 95 Watt TDP CPU ausreicht.

Mehrverbrauch aushält, wenn ich wirklich auf ne RTX2070S wechseln würde.
Hatte neulich aber beim PC meiner Frau mit 430 Watt Netzteil und ner GTX970 (sie zockt in FHD) das Problem, dass mir der Rechner abgeschiert ist. Es musste ein stärkeres Netzteil rein.

Döner-Ente
2019-10-07, 18:43:21
Die 1080er Auflösung wäre wohl ggf. tatsächlich ein fetter Rückschritt (gerade im Desktopbetrieb und ich arbeiten quasi den ganzen Tag am Rechner - HomeOffice). Das ist mir bei der ganzen Diskussion hier irgendwie auch klar geworden.



Ich habe ja den 2560x1080-LG. Mich stört die Auflösung nicht so sehr...zwar ist unter Windows alles sehr groß und die 34" im Prinzip verschwendet, aber a) komme ich von 1920x1080 und hatte noch nie was höher Auflösendes und b) arbeite ich mit dem Rechner kaum bis nie.
Auch wenn ich persönlich deswegen damit gut leben kann - wenn du den ganzen Tag am Rechner wirklich arbeitest, würde ich von dem "Downgrade" Abstand nehmen.

Alter Sack
2019-10-07, 20:01:23
I ch habe ja den 2560x1080-LG. Mich stört die Auflösung nicht so sehr...zwar ist unter Windows alles sehr groß und die 34" im Prinzip verschwendet, aber a) komme ich von 1920x1080 und hatte noch nie was höher Auflösendes und b) arbeite ich mit dem Rechner kaum bis nie.
Auch wenn ich persönlich deswegen damit gut leben kann - wenn du den ganzen Tag am Rechner wirklich arbeitest, würde ich von dem "Downgrade" Abstand nehmen.

Bin selbständiger IT´ler und arbeite täglich runde 6-7 Stunden am Rechner (viel Fernwartung, etc. parallel Office dabei). Danach zocke ich meist noch 1-2 Stunden.
Von daher wäre das mit dem Downgrade nicht ganz ohne.
Bin nach langer Überlegung momentan ehern in Richtung Upgrade am umschwenken... also 34 Zöller mit 3440x1440 und 120Hz + GSync. Dann klappt es besser bei niedrigeren FPS etwas besser.
In 2020 dann ein generelles PC Upgrad auf neue CPU & 32 GB RAM. Dabei dann auch gleich großes Netzteil und neue Graka (dann hoffentlich gleich ne NVidia Ampere in 7nm).

deepmac
2019-10-07, 21:23:31
Wenn du es dir leisten kannst , mach die grosse Lösung, evt lässt sich auch was absetzen.

Dorn
2019-10-07, 21:36:07
Sehen Spiele in 1080p den auf einem 4K Monitor so schlecht aus?
Also anstatt mit den Grafiksettings runter zu gehen einfach auf 1080p stellen @Ultra

Alter Sack
2019-10-08, 07:30:37
Wenn du es dir leisten kannst , mach die grosse Lösung, evt lässt sich auch was absetzen.

Lässt sich alles absetzen :biggrin:

Alter Sack
2019-10-08, 07:31:14
Sehen Spiele in 1080p den auf einem 4K Monitor so schlecht aus?
Also anstatt mit den Grafiksettings runter zu gehen einfach auf 1080p stellen @Ultra

Ja, Texturen sind teils relativ verwaschen. Ist leider keine wirkliche Alternative.

Dorn
2019-10-08, 07:37:16
Okay weil ich immer wieder gelesen habe, das 1080p auf einem 4K Monitor ganz gut aussieht wegen der einfachen Verdopplung (Also nicht schlechter als auf einem 1080p Monitor gleicher größe).

Gut zu wissen, dass dem nicht so ist.

Mortalvision
2019-10-08, 07:51:18
1440p geht aber sehr gut!

Alter Sack
2019-10-08, 08:02:23
Okay weil ich immer wieder gelesen habe, das 1080p auf einem 4K Monitor ganz gut aussieht wegen der einfachen Verdopplung (Also nicht schlechter als auf einem 1080p Monitor gleicher größe).

Gut zu wissen, dass dem nicht so ist.

3440xx1440...da wäre ne Halbierung 1720x720 und das auf 34 Zoll ca. 50 cm vor der Nase sieht nicht gut aus.

Palpatin
2019-10-08, 11:16:44
Okay weil ich immer wieder gelesen habe, das 1080p auf einem 4K Monitor ganz gut aussieht wegen der einfachen Verdopplung (Also nicht schlechter als auf einem 1080p Monitor gleicher größe).

Gut zu wissen, dass dem nicht so ist.
Bei mir sieht 1080P auf einem 3840x2140 Monitor klar schlechter aus als 2560x1440.

gbm31
2019-10-08, 14:15:10
Ich bin erst mit der VII von 2560x1080 29" 60Hz auf 3440x1440 34" 100Hz Freesync (https://www.otto.de/p/msi-led-monitor-3440x1440-uwqhd-8-ms-reaktionszeit-100hz-optix-mag341cq-792206664/#variationId=792206665) umgestiegen.

Ich bin kein Freund von zu frühen Monitoraufrüstungen, bei denen man dann ständig unzufrieden mit seiner Grafikkarte ist.

Also eine 2080 solle es mind. sein, da die Karte aber sowieso ein Krüppel ist was Speicher angeht würde ich gleich nach einer 2080Ti schauen, die grade gehäuft für 900-1000€ verkauft werden.

Wenn man denn die Preispolitik der grünen (und damit indirekt auch der roten Konkurrenz) unterstützen möchte.

Eine 5700XT reicht imho nicht, da würde es erst der größere Bruder wohl bringen.

Beim Zocken merkst du 2560x1080 auf 34" nicht, aber auf dem Desktop schon. Man kann damit aber durchaus leben. Besser als mit stockenden Spielen...

Akkarin
2019-10-08, 14:15:37
Ein 530W NT reicht locker für alle 1GPU systeme aus solange man es nicht total mit dem Übertakten übertreibt.

Was spricht denn gegen eine 5700/XT ? Besseres Preisleistungsverhältnis, Bessere FreeSync Unterstützung, natives RIS. Leistungsaufnahme ist ok und Raytracing ist bei einer 2070 eh zu langsam so dass das fehlen wenig aus macht.

Dann kannst du in ~2 Jahren dir ansehen was es so an HDR und Raytracing Optionen gibt.

Daredevil
2019-10-08, 14:22:15
Ich bin kein Freund von zu frühen Monitoraufrüstungen, bei denen man dann ständig unzufrieden mit seiner Grafikkarte ist.


Das ist auf jeden Fall korrekt.
Lieber sollte man FullHD/WQHD nehmen mit der Option auf Downsampling und HighFPS, anstatt sich einen zu dicken Monitor ( 4k ) mit einer zu schwachen Grafikkarte ( Alles unter einer RTX Titan? :D ).

Allerdings tut man hier auch klar was für die Lebenszeit, indem man das ganze auf Kante näht.
Ich habe jetzt 4k mit 120hz und kann das mit einer 2080ti mit Ultra settings nur selten bedienen. Allerdings schaffe ich durchaus ab und an mal 120fps, sehr oft 80+ und selten mal ~60fps, wo ich dann einfach Details reduziere, damit ich auf um die 80-100 komme. Aber ausreizen kann ich den Bildschirm so eher selten.
Deswegen ist das eben auch ein Long Term Invest, so wenn man dann will.
Mit der nächsten GPU Generation schaffe ich vielleicht 4k@100-120fps, mit der nächsten Generation gehe ich auf Downsampling 5k, mit der nächsten auf Downsampling 8k. Das sind Optionen nach oben, die immer da sind.

Zoo Tycoon in 8k ist kein Problem. ;D Forza in 5k ebenso wenig. Destiny2 mit 4k geht nur mit um die 60, das ist grausam.
Diese Optionen hat man nun einmal mit WQHD nicht, also alles über 5k, deswegen kann man in die Richtung auch gerne blicken.

Aber man sollte sich keine Monitor/GPU Kombination kaufen, wo man direkt immer Details reduzieren muss, das ist ein grausamer Playflow.
Dann doch lieber immer alles on und die Option zum Downsampling.

Alter Sack
2019-10-08, 15:01:23
Das ist auf jeden Fall korrekt.
Lieber sollte man FullHD/WQHD nehmen mit der Option auf Downsampling und HighFPS, anstatt sich einen zu dicken Monitor ( 4k ) mit einer zu schwachen Grafikkarte ( Alles unter einer RTX Titan? :D ).

Allerdings tut man hier auch klar was für die Lebenszeit, indem man das ganze auf Kante näht.
Ich habe jetzt 4k mit 120hz und kann das mit einer 2080ti mit Ultra settings nur selten bedienen. Allerdings schaffe ich durchaus ab und an mal 120fps, sehr oft 80+ und selten mal ~60fps, wo ich dann einfach Details reduziere, damit ich auf um die 80-100 komme. Aber ausreizen kann ich den Bildschirm so eher selten.
Deswegen ist das eben auch ein Long Term Invest, so wenn man dann will.
Mit der nächsten GPU Generation schaffe ich vielleicht 4k@100-120fps, mit der nächsten Generation gehe ich auf Downsampling 5k, mit der nächsten auf Downsampling 8k. Das sind Optionen nach oben, die immer da sind.

Zoo Tycoon in 8k ist kein Problem. ;D Forza in 5k ebenso wenig. Destiny2 mit 4k geht nur mit um die 60, das ist grausam.
Diese Optionen hat man nun einmal mit WQHD nicht, also alles über 5k, deswegen kann man in die Richtung auch gerne blicken.

Aber man sollte sich keine Monitor/GPU Kombination kaufen, wo man direkt immer Details reduzieren muss, das ist ein grausamer Playflow.
Dann doch lieber immer alles on und die Option zum Downsampling.

Das Ding ist, dass vor zwei JAhren der 34 Zöller mit WQHD und der GTX1070 perfekt gepasst hat. Klar war´s nervig, nicht mehr GSync bis 144hz zu haben (hatte den RogSwift 27Zöller vorher), aber UltraWide in WQHD war schon am Anfang ne geile Sache.
Momentan nervt am ehesten, dass halt nicht mehr als 60 hz realistisch gehen, weil GSync nicht an Board ist und das Panel mit FreeSync max 75Hz kann.
So gesehen habe ich damals leider am falschen Ende gespart und hätte damals 350€ noch für das GSync-Modell von Asus draufpacken müssen.

Daredevil
2019-10-08, 15:05:25
Hm aber wenn du Freesync beim Monitor hast, kannst du ggf. doch auch Gsync dazu schalten, oder verstehe ich gerade was falsch?
Im Grunde ist es als Nvidia Nutzer doch egal, ob der Monitor Gsync oder Freesync nutzt, weil ersteres zu 100% funktioniert und zweiteres erzwungen werden kann, was ( meistens ) keinen Nachteil mit sich zieht.

Mein Asus XG438Q hat auch nur Freesync 2 HDR, aber trotzdem bespaß ich ihn mit ner Nvidia Karte und GSync. Sehe da bislang noch keinen Nachteil. HDR lüppt auch, egal ob in Destiny oder am AppleTV.

JVC
2019-10-08, 15:07:01
Was spricht denn gegen eine 5700/XT ? Besseres Preisleistungsverhältnis, Bessere FreeSync Unterstützung...

Gute Idee, vor allem da der Treadstarter ja auch einen "free-Sync" 75Hz Monitor besitzt !
(die ist nur leider nicht viel stärker als seine alte Karte. Vielleicht auf die nächst größere warten?)

Ausgangsszenario ist dabei ein 34 ZOll 4K TFT mit 3440x1440, der FreeSync bis 75Hz kann.

FreeSync und GTX funktioniert ehrlich gesagt kaum reibungsfrei...

Die RTX sollten da auch schon etwas kompatibler sein ?

Ist hald grad jetzt, knapp bevor der xx mal schnellere neue Standard kommt, verdammt Blöd nen neuen Bildschirm zu kaufen.
(abgesehen von den O-LED HDMI 2.1 TVs, so was großes will aber nicht Jeder)

M.f.G. JVC

Akkarin
2019-10-08, 15:29:56
Eine 5700XT ist 35-40% schneller als eine 1070, eine 2070S setzt da auch nur 10% drauf. Bei >400€ vs >500€

Edit: damit hat die 5700 nicht nur ein bessere Preis/Leistung, sondern sogar eine bessere Preis/Zusatzleistung.

Alter Sack
2019-10-08, 15:40:29
Hm aber wenn du Freesync beim Monitor hast, kannst du ggf. doch auch Gsync dazu schalten, oder verstehe ich gerade was falsch?
Im Grunde ist es als Nvidia Nutzer doch egal, ob der Monitor Gsync oder Freesync nutzt, weil ersteres zu 100% funktioniert und zweiteres erzwungen werden kann, was ( meistens ) keinen Nachteil mit sich zieht.

Mein Asus XG438Q hat auch nur Freesync 2 HDR, aber trotzdem bespaß ich ihn mit ner Nvidia Karte und GSync. Sehe da bislang noch keinen Nachteil. HDR lüppt auch, egal ob in Destiny oder am AppleTV.

In der PRaxis hört Freensync mit der GTX1070 oft auf, mitten Spiel zu funktionieren. Dann sind wieder max. 60FPS angesagt.

Alter Sack
2019-10-08, 15:46:03
Ist hald grad jetzt, knapp bevor der xx mal schnellere neue Standard kommt, verdammt Blöd nen neuen Bildschirm zu kaufen.
(abgesehen von den O-LED HDMI 2.1 TVs, so was großes will aber nicht Jeder)

M.f.G. JVC

Habe sowieso das Gefühl, dass die nächsten 12-18 Monate noch nicht lohnt.
Intel CPUs sind erst ab 2021 in 10nm oder 7nm.
Nvidia in 7nm erst kommendest Jahr.

Würde, wenn es richtig lohnt, direkt den ganzen Rechner aufrüsten (Kiste ist fast 4 Jahre alt, also eigentl. perfekter Zeitpunkt für ein sattes Upgrade), aber so richtig lohnt es nicht.
Die RTX-Serie bietet wie meine GTX nur 8 GB und wird 12nm gefertigt und die Mehrleistung wird durch linear ansteigenden Mehrverbrauch generiert, was ich extrem unsexy finde.

Intel i7-9900K ist auch nur ein Skylake Upgrade (Kernleistung kaum höher, als beim i7-6700k) und beide CPUs in 14nm.
Schlimm bei Inel vor allem, dass auch der kommende Prozessor für 2020 noch in 14nm gefertigt wird und wieder nur ein Skylake-Abklatsch ist (halt mit mehr Kernen, was ggf. beim Gaming kurzfristig noch nix bringt).

Daredevil
2019-10-08, 16:16:38
Die RTX-Serie bietet wie meine GTX nur 8 GB und wird 12nm gefertigt und die Mehrleistung wird durch linear ansteigenden Mehrverbrauch generiert, was ich extrem unsexy finde.

Nur, wenn du immer die maximale Leistung ausfahren möchtest.
2080 Leistung bekommt eine 2080ti z.B. spielend mit deutlich weniger Verbrauch hin, was z.B. eine 2080 ziehen würde.
Du kannst dir aus größeren Karten immer effizientere kleinere Karten basteln, falls dir das wichtig ist. ( Nur dafür zahlst du halt auch drauf. )

Kleiner Vergleich aus meinem Archiv mit Superposition 4k:
3715pts GTX1060 @Stock 120w
6323pts GTX980TI @OC 300w
7272pts GTX1080 @OC 240w
9179pts GTX1080TI @Stock 250w
11163pts Palit RTX2080ti B-Chip @Stock 250w

RTX2080ti@ Undervolting:
10480pts 712mv 1515MHz 950rpm 162w

und wenn du möchtest und es benötigt wird, fährst du die 2080ti auf 250-300w aus und hast halt deine ~13000 Punkte.
Das gleiche gilt auch bei der Radeon VII, welche im Undervolting aufgrund der fetten GPU deutlich besser performt, als z.B. eine kleine 5700XT.

Alter Sack
2019-10-08, 16:45:09
Nur, wenn du immer die maximale Leistung ausfahren möchtest.
2080 Leistung bekommt eine 2080ti z.B. spielend mit deutlich weniger Verbrauch hin, was z.B. eine 2080 ziehen würde.
Du kannst dir aus größeren Karten immer effizientere kleinere Karten basteln, falls dir das wichtig ist. ( Nur dafür zahlst du halt auch drauf. )

Kleiner Vergleich aus meinem Archiv mit Superposition 4k:
3715pts GTX1060 @Stock 120w
6323pts GTX980TI @OC 300w
7272pts GTX1080 @OC 240w
9179pts GTX1080TI @Stock 250w
11163pts Palit RTX2080ti B-Chip @Stock 250w

RTX2080ti@ Undervolting:
10480pts 712mv 1515MHz 950rpm 162w

und wenn du möchtest und es benötigt wird, fährst du die 2080ti auf 250-300w aus und hast halt deine ~13000 Punkte.
Das gleiche gilt auch bei der Radeon VII, welche im Undervolting aufgrund der fetten GPU deutlich besser performt, als z.B. eine kleine 5700XT.

Grad was undervolting angeht, muss man wahrscheinlich einiges an Zeit investieren, um das Optimum zu erreichen.

Alter Sack
2019-10-08, 16:48:01
Da ein generelles Upgrade (neue Intel-CPU in 7nm mit deutlich besserer ProKern-Leistung, 32 GB RAM und NVidia Ampere in 7nm) wohl so erst irgendwann in 2021 verfügbar sein dürfte, wäre es denke ich sinnvollsten, den vorhandenen Monitor zu verkaufen und gegen einen 34 Zöller mit ebenfalls 3440x1440, aber mit GSync/120Hz zu ersetzen (der hier für 849€ von Acer (https://www.amazon.de/Acer-Displayport-Reaktionszeit-H%C3%B6henverstellbar-Schwenkbar/dp/B078JB4291/ref=sr_1_7?__mk_de_DE=%C3%85M%C3%85%C5%BD%C3%95%C3%91&keywords=gsync+34+zoll&qid=1570545676&sr=8-7)). Diesen Bildschirm kann man dann vergleichsweise sehr lange nutzen (mind. 5 Jahre).

Dann noch am Besten gleich ein 750 Watt Netzteil einbauen und ne RTX2070-Super dazu.
Das wäre momentan Preis/Leistungsmäßig wohl annähernd das Optimum, wenn ich weiter WQHD aber mit >60hz zocken/arbeiten will und in ab 1,5 Jahren dann wieder aufrüstet.
Gesamt dürfte das Upgrade jetzt dann 1500€ kosten, scheint aber die derzeit sinnvollste Lösung zu sein, wenn man keine Abstriche machen will.
Die ursprüngliche Alternative (der 2560x1050 GSync 34 Zöller für 600€) wäre langfristig wohl nix, weil der Trend zu sehr hohen Auflösungen geht.

The Dude
2019-10-08, 17:02:09
Da ein generelles Upgrade (neue Intel-CPU in 7nm mit deutlich besserer ProKern-Leistung, 32 GB RAM und NVidia Ampere in 7nm) wohl so erst irgendwann in 2021 verfügbar sein dürfte,

Laut dieser Roadmap:
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Roadmap-Grafikkarten-Liste-Radeon-Geforce-1128937/
...soll Ampere schon im Q2 2020 kommen.

Daredevil
2019-10-08, 17:05:01
Grad was undervolting angeht, muss man wahrscheinlich einiges an Zeit investieren, um das Optimum zu erreichen.
Neee, eigentlich nicht.
Bei Nvidia ist das Prozedere deutlich einfacher als z.B. bei der beliebten Vega mit Voltage Editor mit verschiedenen Taktstufen ect. . 95% der "Arbeit" des Undervoltings hast du nach ner halben Stunde erledigt, für die restlichen 5% kannst du gerne mal einen Tag an der Kiste hängen. :D
Ne 2080ti steht ja eh nicht zu Wahl, wollte dir nur zeigen, dass es geht, wenn man denn will.

Ganz ehrlich? Für diese Umbaumaßnahmen kannst du dir auch einfach den Stress ersparen und dir ne 2080ti holen und fertig ist.
Das was die 1070 heute ist, ist die 2070 vielleicht schon Morgen ( 2080 Leistung bei 8GB war noch nie sehr... ausgewogen, auch wenn der Preis nun gut ist ), nur hast du bei diesem Schritt sinnlos dein Monitor gesidegradet und unnötig ein Netzteil gekauft.

DrFreaK666
2019-10-08, 18:26:12
3440xx1440...da wäre ne Halbierung 1720x720 und das auf 34 Zoll ca. 50 cm vor der Nase sieht nicht gut aus.

Was passiert wenn man nur horizontal die Auflösung halbiert?? Also 1720x1440

Alter Sack
2019-10-09, 14:48:26
Was passiert wenn man nur horizontal die Auflösung halbiert?? Also 1720x1440

Ich glaube, dann würde das Bild verzerren.

Alter Sack
2019-10-09, 14:56:53
Neee, eigentlich nicht.
Bei Nvidia ist das Prozedere deutlich einfacher als z.B. bei der beliebten Vega mit Voltage Editor mit verschiedenen Taktstufen ect. . 95% der "Arbeit" des Undervoltings hast du nach ner halben Stunde erledigt, für die restlichen 5% kannst du gerne mal einen Tag an der Kiste hängen. :D
Ne 2080ti steht ja eh nicht zu Wahl, wollte dir nur zeigen, dass es geht, wenn man denn will.

Ganz ehrlich? Für diese Umbaumaßnahmen kannst du dir auch einfach den Stress ersparen und dir ne 2080ti holen und fertig ist.
Das was die 1070 heute ist, ist die 2070 vielleicht schon Morgen ( 2080 Leistung bei 8GB war noch nie sehr... ausgewogen, auch wenn der Preis nun gut ist ), nur hast du bei diesem Schritt sinnlos dein Monitor gesidegradet und unnötig ein Netzteil gekauft.

Bin jetzt schon mal nen Schritt weiter.
Mein 3440x1440 habe ich nen Kunden für 350€ verkauft und mir soeben den Acer Predidator X34P (https://www.amazon.de/Acer-Displayport-Reaktionszeit-H%C3%B6henverstellbar-Schwenkbar/dp/B078JB4291/ref=sr_1_1?__mk_de_DE=%C3%85M%C3%85%C5%BD%C3%95%C3%91&keywords=x34p&qid=1570625386&sr=8-1) für 850€ bestellt.
Kann mir die Ust. als Selbständiger ja komplett ziehen, so dass der Aufpreis netto nur 420€ ist
Bekomme dafür quasi identisches Bild (3440x1440), aber mit GSync-Modul und max. 120Hz.

Zumindest lassen sich dann ständig schwankende FPS deutlich besser kompensieren, als aktuell (FreeSync unter 60FPS funzen mit der NVidia irgendwie nicht gut....zumindest bei meinem jetzigen TFT).

Wenn der Monitor da ist, wird dann (nach der Prüf/Testphase) entschieden, ob ich auf NVidia-Ampere warte, oder vorrübergehend doch noch ne RTX2070super hole (RTX2080 lohnt iwie nicht und RTX2080Ti ist preislich und vom TDP her einfach pervers... vor allem der höhere Stromverbrauch ist ein noGo).

Gut möglich, dass ich aber noch dieses Jahr ein generelles Upgrade hin zu i7-10xxx mit 32 GB RAM, SSD in PCI-E mache. Vorraussetzung wäre, dass die in Kürze erscheinenden Core-Refefresh-Chips ne spürbar höhere Kern-Performance bietet, als beim i7-6700k. Dann würde sowieso auch ein neues 750 Watt Netzteil verbaut und ne Graka mit höherem TDP wäre kein Thema mehr.

JVC
2019-10-09, 16:37:45
... und mir soeben den Acer Predidator X34P (https://www.amazon.de/Acer-Displayport-Reaktionszeit-H%C3%B6henverstellbar-Schwenkbar/dp/B078JB4291/ref=sr_1_1?__mk_de_DE=%C3%85M%C3%85%C5%BD%C3%95%C3%91&keywords=x34p&qid=1570625386&sr=8-1) für 850€ bestellt.

:up: ... Wenn man "Sehschlitze" mag :wink: (ich mag sie nicht :|)
Dieses "halbe 4K" kann auch der alte Standard ganz gut versorgen.
(ich halt dir die Daumen das du nen guten erwischt https://www.amazon.de/gp/customer-reviews/R11XU4PEJXPJSK/ref=cm_cr_arp_d_rvw_ttl?ie=UTF8&ASIN=B078JB4291 )

M.f.G. JVC

Alter Sack
2019-10-09, 17:19:57
:up: ... Wenn man "Sehschlitze" mag :wink: (ich mag sie nicht :|)
Dieses "halbe 4K" kann auch der alte Standard ganz gut versorgen.
(ich halt dir die Daumen das du nen guten erwischt https://www.amazon.de/gp/customer-reviews/R11XU4PEJXPJSK/ref=cm_cr_arp_d_rvw_ttl?ie=UTF8&ASIN=B078JB4291 )

M.f.G. JVC

Die Bewertung bezieht sich auf das Modell Z34A (100hz Freesync)
Ich habe das neue Modell X34P (120Hz) bestellt.

Popeljoe
2019-10-09, 20:28:20
Die Bewertung bezieht sich auf das Modell Z34A (100hz Freesync)
Ich habe das neue Modell X34P (120Hz) bestellt.
Trotzdem scheint Acer bei dem Moni massive Qualitätsprobleme zu haben. (https://www.amazon.de/product-reviews/B078JB4291/ref=acr_dp_hist_3?ie=UTF8&filterByStar=three_star&reviewerType=all_reviews#reviews-filter-bar)
Das liest sich echt, wie ein HW Martyrium! Viel Glück!

Alter Sack
2019-10-10, 07:22:29
Trotzdem scheint Acer bei dem Moni massive Qualitätsprobleme zu haben. (https://www.amazon.de/product-reviews/B078JB4291/ref=acr_dp_hist_3?ie=UTF8&filterByStar=three_star&reviewerType=all_reviews#reviews-filter-bar)
Das liest sich echt, wie ein HW Martyrium! Viel Glück!

Habe div. Tests (auch youtube, etc.) gesehen. Bin erst mal zuversichtlich.
Kenne auch von Probleme mit Asus TFTs.

Alter Sack
2019-10-10, 15:35:29
Der TFT ist heute Vormittag eingetroffen.
Bin zufrieden. Bis jetzt keine Probleme.

Habe uach kurz mal Evil Within 2 angeworfen. Der Unterschied ist schon sehr krass dank GSync!
Das Game läuft im Vergleich zu vorher (also VSync, bzw. FreeSync mit Nvidia) um Welten smoother, so dass sogar höhere Grafiksettings möglich sind.
Borderlands 3 ebenfalls kurz getestet und es läuft auch wesentlich runder, weil GSync deutlich besser mit wechselnden FPS zurecht kommt, wie FreeSync mit Nvidia-Karte.

Der Punkt ist, dass die GTX1070 bei aktuellen Spielen in UHD regelmäßiger FPS-Einbrüche hat, als noch vor 1-2 Jahren, weil die Anforderungen gestiegen sind. Mit GSync wird das quasi deutlich besser abgefedert (da GSync anscheindend viel besser auf sowas reagiert, als FreeSync).

Aktuell sehe ich quasi keinen Grund mehr für einen zeitnahen Grafikkartenwechsel und könnte also schmerzfrei warten, bis NVidia Ampere rauskommt.

JVC
2019-10-11, 09:41:52
... Mit GSync wird das quasi deutlich besser abgefedert (da GSync anscheindend viel besser auf sowas reagiert, als FreeSync).

Du vergleichst dein nicht funktionierendes "Free-Sync" mit funktionierendem "G-Sync" ?
Bildest dir daraus deine Meinung ?
Und stellst aufgund dieser "Fak(e)ten" auch gleich noch eine These auf ?

"Hoecker, Sie sind raus"

M.f.G. JVC

Alter Sack
2019-10-11, 11:03:32
Du vergleichst dein nicht funktionierendes "Free-Sync" mit funktionierendem "G-Sync" ?
Bildest dir daraus deine Meinung ?
Und stellst aufgund dieser "Fak(e)ten" auch gleich noch eine These auf ?

"Hoecker, Sie sind raus"

M.f.G. JVC

Du hast natürlich absolut Recht. Sorry für meine komplette Unfähigkeit.

Obwohl ich bereits 2015-2017 nen GSync-TFT mit 144Hz und danach den FreenSync-60Hz TFT hatte und nun wieder einen GSync eine, bin ich völlig unfähig, die Situation korrekt und objektiv anhand der tatsächlich erlebten Tatsachen zu beurteilen.

dildo4u
2019-10-11, 12:13:16
Du vergleichst dein nicht funktionierendes "Free-Sync" mit funktionierendem "G-Sync" ?
Bildest dir daraus deine Meinung ?
Und stellst aufgund dieser "Fak(e)ten" auch gleich noch eine These auf ?

"Hoecker, Sie sind raus"

M.f.G. JVC
Informier dich erst mal Freesync 2 garantiert dir eine weite Hz Range wie es bei Gsync der Fall ist.Freesync 1 kann absolut grottige Implementierungen beinhalten,es schwankt extrem von Modell zu Modell.


Garantierte Unterstützung der Low Framerate Compensation (LFC)

https://www.amd.com/de/technologies/free-sync

Alter Sack
2019-10-11, 12:42:14
Informier dich erst mal Freesync 2 garantiert dir eine weite Hz Range wie es bei Gsync der Fall ist.Freesync 1 kann absolut grottige Implementierungen beinhalten,es schwankt extrem von Modell zu Modell.

https://www.amd.com/de/technologies/free-sync

Der Punkt ist doch: warum soll ich bei einem Monitorneukauf auf FreeSync2 gehen, wenn ich auch gleich GSync kaufen kann (und mit Gsync in der Vergangenheit sehr gute Erfahrungen sammeln konnte).

dildo4u
2019-10-11, 12:47:40
Du muss dich nicht rechtfertigen es gibt massig Leute die keine Erfahrungen mit der Tech haben oder einfach vom eigenen Modell auf alle Freesync Modelle schließen.

Mega-Zord
2019-10-11, 15:00:53
Ich benutze einen G-Sync-kompatiblen 4k-Monitor. Ich bin zwar ein NV-Fanboy, aber mit G-Sync würde ich mich ja an eine Technik fest binden. Einen Monitor benutze ich im Zweifel für zwei PCs. Wer weiß, ob in drei Jahren AMD vielleicht doch was brauchbares liefert und NV eine zweite GeForce FX rausbringt.

Ich kann auf meinem Acer sowohl Free- als auch G-Sync nutzen. Es läuft mit meiner 2080 Ti problemlos. Wenn du auf Nummer Sicher gehen willst kaufst du einen offiziell von G-Sync unterstützten Freesync-Monitor, aber eigentlich funktionieren alle aktuellen Freesync-Monitore mit G-Sync aber der Pascal-Generation. Meine alte 980 Ti wäre also nicht unterstützt worden, aber du hast ja auch eine 1070.

Zu Freesync 2: Ich sehe da nur HDR als wirklich erwähnenswerten Vorteil. Wobei da auch bedacht werden muss, dass die meisten Displays nur HDR-400/600 haben und das kann man sich eigentlich auch schenken. Sprich, aktuell gibt es einen einzigen FS2-Monitor, der was taugen könnte.

exxo
2019-10-14, 23:04:43
Der Punkt ist doch: warum soll ich bei einem Monitorneukauf auf FreeSync2 gehen, wenn ich auch gleich GSync kaufen kann (und mit Gsync in der Vergangenheit sehr gute Erfahrungen sammeln konnte).

Wenn dir der Vendor Lock-In von nvidia nicht auf den Keks geht, dann mach das.

Letztendlich ist Gsync mit dedizierten Chip im Display mittlerweile obsolet weil nvidia inzwischen eingelenkt hat und diese Funktionalität im Treiber implementiert hat (Gsync Compatible).

Alter Sack
2019-10-15, 07:45:49
Wenn dir der Vendor Lock-In von nvidia nicht auf den Keks geht, dann mach das.

Letztendlich ist Gsync mit dedizierten Chip im Display mittlerweile obsolet weil nvidia inzwischen eingelenkt hat und diese Funktionalität im Treiber implementiert hat (Gsync Compatible).

Der FreeSync funktionierte auf meinem System bei FPS unter 60 Hz grottig.
Der GSync Monitor macht das um Welten besser.

BK-Morpheus
2019-10-15, 10:10:49
Was kann man sich dann darunter vorstellen, dass Freesync bei dir unter 60Hz "grottig lief"?
Gab es Flackern/Artefakte oder hat es einfach nicht richtig funktioniert aka ruckeln oder tearing?

Bei mir läuft's immer nur korrekt oder gar nicht.
Als ich noch eine GTX 1070 am Freesync Monitor hatte, liefen Spielen im exklusiven Vollbildmodus z.B. immer absolut sauber.
Nur bei Borderless Fullscreen war die Hz Zahl am Monitor zwar immer noch variabel, aber nicht mehr richtig synchron zur Framerate vom Spiel und somit gab es entweder ruckeln (trotz >50fps) oder sogar tearing.

Workaround dafür ist einfach FPS Limits vom Spiel oder RTSS entfernen und über Nvidia Inspector via Treiber für das Spiel das FPS Limit setzen. Dann lief Freesync auch bei borderless window Spielen sahnig.

Alter Sack
2019-10-15, 10:36:40
Was kann man sich dann darunter vorstellen, dass Freesync bei dir unter 60Hz "grottig lief"?
Gab es Flackern/Artefakte oder hat es einfach nicht richtig funktioniert aka ruckeln oder tearing?

Bei mir läuft's immer nur korrekt oder gar nicht.
Als ich noch eine GTX 1070 am Freesync Monitor hatte, liefen Spielen im exklusiven Vollbildmodus z.B. immer absolut sauber.
Nur bei Borderless Fullscreen war die Hz Zahl am Monitor zwar immer noch variabel, aber nicht mehr richtig synchron zur Framerate vom Spiel und somit gab es entweder ruckeln (trotz >50fps) oder sogar tearing.

Workaround dafür ist einfach FPS Limits vom Spiel oder RTSS entfernen und über Nvidia Inspector via Treiber für das Spiel das FPS Limit setzen. Dann lief Freesync auch bei borderless window Spielen sahnig.

Das Bild war nicht flüssig, also ruckelig und zwar alles unter 60 FPS. Quasi so, als ob alles alle paar Millisekunden kurz unterbrochen wird.
Es muss etwas mit dem TFT oder mit Freensync zu tun haben, denn wenn die Graka die 60FPS geschafft hat, war alles flüssig. Wenn Freensync bei unter 60 FPS ausgeschaltet war, war es auch flüssiger, als mit eingeschaltetem FreeSync.

wie geschrieben: jetzt mit dem GSync-TFT fluppt alles wie es sein soll und auch wenn mal nur 45 FPS anliegen, ist das komplette Bild deutlich sichtbar flüssiger.

Von daher kam mit dem alten TFT nur ein Graka-Wechsel in Frage. Mit dem neuen GSync-TFT sind die FPS-Einbrüche nicht mehr schlimm.

BK-Morpheus
2019-10-15, 11:18:29
Ok, klingt tatsächlich so, wie das Problem bei borderless Fullscreen. Aber du hattest da sicher den ganz normalen Vollbildmodus im Spiel am laufen, oder?

Alter Sack
2019-10-15, 14:50:41
Ok, klingt tatsächlich so, wie das Problem bei borderless Fullscreen. Aber du hattest da sicher den ganz normalen Vollbildmodus im Spiel am laufen, oder?

Alles durchprobiert. Borderless, komplett fullscreen, Window.