PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Sandy Bridge G-Sync/Freesync-ready machen?


Seiten : [1] 2

Lurtz
2016-02-14, 17:28:19
Ich bin primär Singleplayer und lebe, da mich selbst der leiseste Anflug von Tearing komplett aus der Immersion reißt, deshalb seit Jahren mit dem VSync-bedingten Input Lag.
Da ich seit einiger Zeit wieder vermehrt UT spiele, fällt mir aber auf wie beschissen dieser Kompromiss eigentlich ist. Ohne VSync habe ich heftiges Tearing, das macht einfach keinen Spaß. Mit VSync oder im borderless window habe ich einen derart starken Input Lag, dass sich das Spiel einfach mies anfühlt (und ich im MP auch merklich schlechter spiele).

Von daher überlege ich ob es Sinn macht, meine Sandy-Bridge-Basis G-Sync/Freesync-ready zu machen...

Erstmal zum System:
ASRock Z68 Extreme3 Gen3
Core i5 2500k mit 4Ghz, mehr wird mir einfach zu heiß
Radeon HD 7950
8 GB Ram
SSD

Meine Überlegungen:
-Ich halte Freesync für die prinzipiell bessere Lösung, möchte aber aus diversen Gründen lieber zu nVidia wechseln. Ein Grund: Der DX11-Treiber von nVidia sollte meine CPU merkbar entlasten. Zusammen mit Vulkan/DX12 könnte die CPU vielleicht noch ein paar Jahre zufriedenstellend arbeiten.

-Problem: Welche GPU wäre in der nächsten Zeit sinnvoll? GTA 980 Ti ist zu teuer. GTX 980 ist nicht preiswert. GTX 970 ist ein Speicherkrüppel. GTX 960 4GB wäre kaum ein Upgrade zu meiner vorhandenen.

-Bleibe ich bei AMD und nehme eine R9 390, was ein ganz nettes Upgrade wäre, könnte ich Freesync nutzen, müsste aber weiterhin mit dem Treiber leben, der meine CPU überfordert.

Aktuell habe ich einen Dell U2312HM. Also 60Hz + IPS, aus der Input-Lag-Warte wahrscheinlich eine Katastrophe im Vergleich zu modernen Geräten. Bin auch zufrieden damit, der nächste sollte aber möglichst 1440p haben, was die Anforderungen an die GPU aber nicht gerade senkt. TN möchte ich nicht, das IPS hat mir schon ziemlich gut gefallen, abgesehen vom IPS-Glow, was ich aber nie zu sehr störend fand.

Gibt es momentan brauchbare Monitore, die die Anforderungen erfüllen? Nehmen sich G-Sync/Freesync preislich viel? Welchen Ziel-FPS-Bereich müsste ich für beide Techniken anstreben?

Oder sind das alles zu viele Kompromisse und ich sollte lieber noch ein wenig warten und das gesamte System wechseln?

Vielen Dank für eure Meinungen.

Edit: Ach ja, Thema 4k. Finde ich klasse, nur kann ich mir das realistisch gesehen einfach nicht leisten :ugly: Von daher ehe ich davon aus, dass 1440p schon ein deutliches Upgrade gegenüber 1080p wären um noch ein paar Jahre zu überbrücken.
Oder interpolieren die 4k-Monitore echt so gut dass selbst 1080p damit gangbar wäre und dennoch Mehrwert vorhanden wäre?

aufkrawall
2016-02-14, 17:34:59
Ich weiß, das schlägt jetzt in die Richtung, die du im Thread eigentlich nicht haben willst, aber: Wär es denn wirklich schlimm, wenn die CPU heißer würde? In SNB sind ja nicht mal VRMs integriert, der Asic würde wohl selbst einen hypothetischen Dauerbetrieb bei 90°C wegstecken.
imho ist es schon ziemliche Verschwendung, Sandy unterhalb von 4,4Ghz zu betreiben, sofern man keine außerordentlich schlechte CPU erwischt hat.
Nach mehreren Jahren kann auch das Wechseln der Wärmeleitpaste ein kleines Wunder bewirken.

Lurtz
2016-02-14, 17:40:18
Ich weiß, das schlägt jetzt in die Richtung, die du im Thread eigentlich nicht haben willst, aber: Wär es denn wirklich schlimm, wenn die CPU heißer würde? In SNB sind ja nicht mal VRMs integriert, der Asic würde wohl selbst einen hypothetischen Dauerbetrieb bei 90°C wegstecken.
imho ist es schon ziemliche Verschwendung, Sandy unterhalb von 4,4Ghz zu betreiben, sofern man keine außerordentlich schlechte CPU erwischt hat.
Nach mehreren Jahren kann auch das Wechseln der Wärmeleitpaste ein kleines Wunder bewirken.
Es ist ja nicht nur die CPU, die heißer wird. Das gesamte Gehäuse heizt sich auf, die GPU wird heißer (und damit vor allem lauter), meine schweineteure Xonar Essence STX klebt dank Boardlayout direkt unter der GPU und kriegt die gesamte Hitze ab...

Ich bin kein Extrem-OCer, der stundenlang die ideale VCore austüftelt. Vielleicht macht auch das Board schlapp, aber weiter als 4,2Ghz bin ich stabil nie wirklich gekommen.
Und selbst wenn, ist der Unterschied zwischen 4,0 und 4,4Ghz wirklich so groß, als dass es die Hitze wert ist? Ich habe da so meine Zweifel, ein Skylake würde das wahrscheinlich allein durch den Architekturunterschied auffressen.

Aber spinnen wir das mal weiter und gehen davon aus die CPU "reicht" auch für eine AMD-Karte, welchen Weg würdest du dann gehen?

Achill
2016-02-14, 17:44:44
Es ist ja nicht nur die CPU, die heißer wird. Das gesamte Gehäuse heizt sich auf, die GPU wird heißer (und damit vor allem lauter), meine schweineteure Xonar Essence STX klebt dank Boardlayout direkt unter der GPU und kriegt die gesamte Hitze ab...

Ich bin kein Extrem-OCer, der stundenlang die ideale VCore austüftelt. Vielleicht macht auch das Board schlapp, aber weiter als 4,2Ghz bin ich stabil nie wirklich gekommen.
Und selbst wenn, ist der Unterschied zwischen 4,0 und 4,4Ghz wirklich so groß, als dass es die Hitze wert ist? Ich habe da so meine Zweifel, ein Skylake würde das wahrscheinlich allein durch den Architekturunterschied auffressen.

Aber spinnen wir das mal weiter und gehen davon aus die CPU "reicht" auch für eine AMD-Karte, welchen Weg würdest du dann gehen?

Was hast du denn für ein Kühler im Einsatz? Wenn das Gehäuse stimmt, dann erreicht man mit einen Tower-Kühler und einen Gehäusekühler (auf gleicher /ähnlicher Höher dahinter) ein sehr guten Luftstrom der die heiße Luft von der CPU gar nicht erst im Gehäuse belässt.

Dein Board hat auch zwei 4Pin Stecker, damit könnt unter Last / wenn es wärmer wird, dein MB die Lüfter (per PWN) vom Gehäuse hoch fahren - ggf. hier die Lüfter aufrüsten. Der Kühler und die Lüfter kosten nicht die Welt und auch wenn du später noch wechselst, die Investition bleibt nicht sinnlos, ist aber im Vergleich zu anderen Maßnahmen günstig und es ggf. Wert ausprobiert zu werden (inkl. OC+WL-Paste wie aufkrawall schon richtig angemerkt hat).

Lurtz
2016-02-14, 17:48:19
Was hast du denn für ein Kühler im Einsatz? Wenn das Gehäuse stimmt, dann erreicht man mit einen Tower-Kühler und einen Gehäusekühler (auf gleicher /ähnlicher Höher dahinter) ein sehr guten Luftstrom der die heiße Luft von der CPU gar nicht erst im Gehäuse belässt.
Einen Alpenföhn Nordwand in einem Define R3. Hinter dem CPU-Kühler sitzt ein Gehäuselüfter, der die heiße Luft rausziehen soll. Der Noctua NF-P12 des Nordwand bläst auf den Kühler. Trotzdem steigen mit der VCore die Temperaturen extrem schnell an.

Edit: Die Lüfter sollten alle PWM-gesteuert sein.

Schnoesel
2016-02-14, 17:55:24
Erhöhe die Auflösung und die Settings dann hast auch kein Problem mit einem CPU-Limit was ich bei einem 4 GHZ Sandy eh nicht verstehe, wie man sich darum Gedanken macht, zumal du nach eigener Aussage kein High FPS Gamer bist. Reine Panikmache. Manchmal frage ich mich wie ich mit meiner CPU überhaupt noch spielen kann ...

aufkrawall
2016-02-14, 17:56:42
Gut, Hitze im Gehäuse ist unschön. Aber sollte die Hitze durch die CPU nicht direkt herausbefördert werden?
Ich geb aber zu, dass ich eine Gehäuseseite immer offen habe. Das liegt aber auch daran, dass ich die Gehäuselüfter nicht so gut steuern kann, wie ich das gerne hätte, und ich beim Ausprobieren verschiedener Lüfter von der Qualität derer alles andere als begeistert war (was ein China-Müll...).

Wegen CPU-Limit, kann es imho Sinn machen, auf die kommenden Spiele zu schauen. Was hast du da so auf dem Radar?
Mit ein bisschen Glück hat man nach Tomb Raider ( :freak: ) das Tal der Tränen bei AMD bez. CPU-Limits halbwegs durchschritten. Allerdings lehrt die Erfahrung, dass bei AMD das "bessere Morgen" leider immer deutlich später eintritt als erhofft, weshalb ich mich hüte, da irgendeine sichere Aussage zu treffen.

Ich denke, die 970 wird in den kommenden DX12/Vulkan-Spielen ziemlich gegen die 390 abstinken und kein FreeSync ist auch mega-abturnend.

Stanger
2016-02-14, 17:59:54
Also ich hatte mit meinem AMD Experiment extremes Tearing welches ich zwar mit V-Sync eliminieren konnte aber die FPS auch, trotz starker GPU etc. teilweise dann ins unspielbare rutschten.
Mit der TI hab ich absolut NULL tearing ohne V-Sync.
Deine Entscheidung bzgl. 4k teile ich ebenfalls und werde wohl auch auf 1440p wechseln.
Außerdem sind Monitore mit 4k@144Hz@G-Sync (gleichzeitig 144Hz+Sync)noch sehr rar was einem dann insofern die Entscheidung leichter macht.

Welchen Ziel-FPS-Bereich müsste ich für beide Techniken anstreben?
Welches UT - 2003?
Also von AMD R9-390X 8GB auf Nv 980 TI GB@1680x1050 war mein Netto Gewinn an FPS zwischen 50% und 300%. Dh. ich kann bei der genannten Auflösung derzeit ganz gut auf Ultra Settings auf 1440p hoffen.

mfg
Stanger

fondness
2016-02-14, 18:30:16
Edit: Ach ja, Thema 4k. Finde ich klasse, nur kann ich mir das realistisch gesehen einfach nicht leisten :ugly: Von daher ehe ich davon aus, dass 1440p schon ein deutliches Upgrade gegenüber 1080p wären um noch ein paar Jahre zu überbrücken.
Oder interpolieren die 4k-Monitore echt so gut dass selbst 1080p damit gangbar wäre und dennoch Mehrwert vorhanden wäre?

Die 1080p Interpolation ist IMO perfekt, auch 1440p sieht mindestens sehr gut aus. Schaue dir das auf jeden Fall an, ich hätte es auch nicht geglaubt, wenn ich es nicht selbst gesehen hätte. Bevor du dir jetzt noch einen 1440p Schirm kaufst, würde ich auf jeden Fall den LG 27MU67-B probieren: http://geizhals.eu/lg-27mu67-b-a1273811.html?hloc=at&hloc=de

Der ist sogar preiswerter wie die meisten 1440p Sync-Schirme.

Erhöhe die Auflösung und die Settings dann hast auch kein Problem mit einem CPU-Limit was ich bei einem 4 GHZ Sandy eh nicht verstehe, wie man sich darum Gedanken macht, zumal du nach eigener Aussage kein High FPS Gamer bist. Reine Panikmache. Manchmal frage ich mich wie ich mit meiner CPU überhaupt noch spielen kann ...

Kann ich auch nicht nachvollziehen, mit einem Sandy@4Ghz sollte man keine Probleme mit dem CPU-Limit haben.

Stanger
2016-02-14, 18:33:24
Die 1080p Interpolation ist IMO perfekt, auch 1440p sieht mindestens sehr gut aus.

Ja, aber du kaufst dir doch auch kein 400 PS Auto und machst dir dann nen Holzklotz unters Gaspedal damit er nicht schneller als 100 fährt.
Interpolation hin oder her...

aufkrawall
2016-02-14, 18:34:16
Die WQHD Spiele-Monitore sind aber einfach abartig überteuert.

fondness
2016-02-14, 18:37:08
Ja, aber du kaufst dir doch auch kein 400 PS Auto und machst dir dann nen Holzklotz unters Gaspedal damit er nicht schneller als 100 fährt.
Interpolation hin oder her...

Ich habe nur eine 290 und spiele durchaus auch Spiele in 4K, halt wenig anspruchsvolles wie Starcraft 2 oder Anno. Anderes in 1440p oder 1080p. Alleine schon diese Flexibilität ist viel wert - mit einem 1440p Schirm muss man immer in 1440p spielen. Dazu kommt eine genial knackige Darstellung am Desktop. Ich sehe keinen Grund, heute noch in etwas anderes zu investieren, zumal die Preise auch mittlerweile absolut brauchbar sind.

Stanger
2016-02-14, 18:50:10
Die Preise sind Ok, allerdings bedient der Markt atm eher den AMD Markt mit 4k Monitoren in zufriedenstellendem Umfang.

mironicus
2016-02-14, 18:52:00
Wenn ich jetzt aktuell eine AMD-GPU kaufen würde, dann eine R9 Nano. Zusammen mit einem Eizo 2735.

http://de.allyouneed.com/de/xfx-4gb-hbm-x-r9-nano-grafikkarte/p841538497/
Gutschein + Qipu noch möglich (9%).

http://www.redcoon.de/B643087-EIZO-Foris-FS2735-144-Hz-LED-IPS-S1_Monitor
Im Set billiger immerhin 80 Euro billger als einzeln. Qipu möglich.

Achill
2016-02-14, 18:54:03
Einen Alpenföhn Nordwand in einem Define R3. Hinter dem CPU-Kühler sitzt ein Gehäuselüfter, der die heiße Luft rausziehen soll. Der Noctua NF-P12 des Nordwand bläst auf den Kühler. Trotzdem steigen mit der VCore die Temperaturen extrem schnell an.

Edit: Die Lüfter sollten alle PWM-gesteuert sein.


Erstmal zum Gehäuse:
Das "Fractal Design Define R3" ist ja mal keine schlechte Ausgangsbasis. Hast du alle Lüfter-Plätze besetzt?

Mit den Möglichkeiten:
2x 120mm front
1x 120mm rear
2x 140mm/120mm roof
1x 140mm/120mm side (ggf. auch raus, einfach Testen wann Temps besser sind)

... hast du mehr Potenzial als ich mit 3x120 front, 1x120 rear, 1x120 roof - und ich habe den 5820k übertaktet und die 2x290X mit CFX am Start.

Bzgl. Luftstrom würde ich versuchen:
- 2x 120mm front => rein
- 1x 120mm rear => raus
- 2x 140mm/120mm roof => raus
- 1x 140mm/120mm side => rein

Bzgl. Kühler erstmal die Standard-Sachen checken:
- Verstaubt?
- Bessere Lüfter nutzbar (seit ~2010 gab es ja auch hier Verbesserungen)

Generell habe ich bei meinen Tower-Lüftern bisher immer darauf gedachtet, dass die Lüfter (mit einer kleinen Gummiauflage) plan auf dem Kühlkörper aufliegen - es wenig Spielraum für das Entweichen von Luft gibt. Die Nordwand scheint mir hier nicht optimal, durch die geschwungene Oberfläche kann leicht Luft nach oben und unten weg strömen. Ein Ventilator baut ja einen Luftdruck auf der schlussendlich zu einer Luftströmung wird. Es gilt (wie bei vielen Sachen aber auch) dass der Weg des geringsten Widerstands genommen wird.
=> Die Luft durch die Lammelen zu drücken hat wird ein höheren Widerstand haben als die seitlichen Öffnungen. Ein anderer Kühler könnte hier noch gut etwas bringen. Z.B.:
- Scythe Mugen 4 PCGH-Edition (http://geizhals.de/scythe-mugen-4-pcgh-edition-scmg-4pcgh-a999348.html?hloc=at&hloc=de)

Ich habe übrigens den Gelid Solutions The Black Edition (http://geizhals.de/gelid-solutions-the-black-edition-a914748.html?hloc=at&hloc=de) mit 2x Noctua NF-F12 PWM (http://geizhals.de/noctua-nf-f12-pwm-a698532.html) im Einsatz.

Lurtz
2016-02-14, 18:54:23
Wegen CPU-Limit, kann es imho Sinn machen, auf die kommenden Spiele zu schauen. Was hast du da so auf dem Radar?
Mit ein bisschen Glück hat man nach Tomb Raider ( :freak: ) das Tal der Tränen bei AMD bez. CPU-Limits halbwegs durchschritten. Allerdings lehrt die Erfahrung, dass bei AMD das "bessere Morgen" leider immer deutlich später eintritt als erhofft, weshalb ich mich hüte, da irgendeine sichere Aussage zu treffen.
Mirror's Edge, Dishonored 2, die Ubisofttitel spiele ich ganz gerne und sind immer recht heftig (wobei dieses Jahr kein AC kommt), Witcher 3 fürs zweite Addon.

Also ich hatte mit meinem AMD Experiment extremes Tearing welches ich zwar mit V-Sync eliminieren konnte aber die FPS auch, trotz starker GPU etc. teilweise dann ins unspielbare rutschten.
Welches Experiment?

Welches UT - 2003?
Nein, die pre Alpha vom aktuellen UT.

Die 1080p Interpolation ist IMO perfekt, auch 1440p sieht mindestens sehr gut aus. Schaue dir das auf jeden Fall an, ich hätte es auch nicht geglaubt, wenn ich es nicht selbst gesehen hätte. Bevor du dir jetzt noch einen 1440p Schirm kaufst, würde ich auf jeden Fall den LG 27MU67-B probieren: http://geizhals.eu/lg-27mu67-b-a1273811.html?hloc=at&hloc=de
Danke für den Tipp, sieht echt gut aus.

Aber geht die Freesync-Spanne da echt nur bis 40Hz?

[QUOTE=Stanger;10943235]Ja, aber du kaufst dir doch auch kein 400 PS Auto und machst dir dann nen Holzklotz unters Gaspedal damit er nicht schneller als 100 fährt.
Interpolation hin oder her...
Also ich bspw. bin die meiste Zeit auf dem Desktop, nicht ingame, und da hätte man immer was von 4k.
Zumal ältere Spiele auch gut gehen sollten.

aufkrawall
2016-02-14, 18:56:15
Wenn ich jetzt aktuell eine AMD-GPU kaufen würde, dann eine R9 Nano.
Ziemlicher Unsinn, so viel Geld für eine 4GB-Karte auszugeben, wenn der Fokus auf Spielen liegt.

fondness
2016-02-14, 18:56:50
Aber geht die Freesync-Spanne da echt nur bis 40Hz?


Bis 33Hz, was du kinderleicht mit CRU ändern kannst.

Lurtz
2016-02-14, 18:57:50
Erstmal zum Gehäuse:
Das "Fractal Design Define R3" ist ja mal keine schlechte Ausgangsbasis. Hast du alle Lüfter-Plätze besetzt?

Mit den Möglichkeiten:
2x 120mm front
1x 120mm rear
2x 140mm/120mm roof
1x 140mm/120mm side
Ich habe nur so besetzt:
1x 120mm front
1x 120mm rear
0x 140mm/120mm roof
0x 140mm/120mm side

Bzgl. Kühler erstmal die Standard-Sachen checken:
- Verstaubt?
- Bessere Lüfter nutzbar (seit ~2010 gab es ja auch hier Verbesserungen)
Den Lüfter habe ich erst ausgetauscht gegen die genannten Noctua. Die Befestigung ist aber auch echt dämlich, was habe ich geflucht...

Stanger
2016-02-14, 19:06:25
Ziemlicher Unsinn, so viel Geld für eine 4GB-Karte auszugeben,
Auch Unsinn Geld in eine 8 GB Karte zu stecken welche der Treiber nicht bedienen kann weil er die CPU überfordert. Meine alte 770 GTX hatte sich bisher mit ihren 4 GB gut geschlagen.
Weniger ist manchmal mehr.

sun-man
2016-02-14, 19:14:51
Also ich das gleiche System mit nem Naoxia Deep Silence und nur 2 Lüftern. Mein 2500k wird auf 4,2Ghz höchsten 60°C warm. Idle liegt der um die 30

aufkrawall
2016-02-14, 19:29:12
Auch Unsinn Geld in eine 8 GB Karte zu stecken welche der Treiber nicht bedienen kann weil er die CPU überfordert. Meine alte 770 GTX hatte sich bisher mit ihren 4 GB gut geschlagen.
Weniger ist manchmal mehr.
Du hast aber nicht die Karte mit weniger, sondern mit mehr VRAM gekauft. Mit 2GB wär die 770 schon längst am Ende.
Genau so wird das nach einem ähnlichen Zeitraum auch sein, wenn man jetzt 4 statt 8GB (oder wenigstens 6, was aber nur die teure 980 Ti bietet) kauft. Die Zukunftstauglichkeit ist mit mehr VRAM immer wesentlich höher.

Mit DX12/Vulkan gibt es bei AMD keine schlechtere CPU-Performance mehr.
Die Frage ist halt, wann das jetzt endlich mal anrollt, und ob weitere Frostbite-Spiele mit DX11 ähnlich gut laufen werden wie Battlefront.

Achill
2016-02-14, 19:36:29
Ich habe nur so besetzt:
1x 120mm front
1x 120mm rear
0x 140mm/120mm roof
0x 140mm/120mm side

Den Lüfter habe ich erst ausgetauscht gegen die genannten Noctua. Die Befestigung ist aber auch echt dämlich, was habe ich geflucht...


Das mit dem Noctua ging unter. Bei den Lüftern fürs Gehäuse kann ich mir aber schon vorstellen, dass Aufgrund der Beschaffenheit kein guter Luftstrom entsteht (Vermutung! - bin kein Experte):
=> Wie schon erwähnt bauen Lüfter einen Druck auf, der zu einen Überdrück / Unterdruck im Gehäuse (an bestimmten Stellen) führt wodurch Luft versucht zu entweichen / nach zu strömen.
In der jetzigen Konfiguration hat jeder genutzte Lüfter in direkter Nachtbarschaft eine weitere Öffnung im Gehäuse. Über diese ist es bezogen auf den Widerstand "leichter" den Über-/Unterdruck aus zu gleichen was m.M.n. leicht zu einer Zirkulation/Ausgleich zwischen diesen Öffnungen führt (zumindest für ein Teil des Luftstroms) und nicht zum gewünschten Zustand, dass die Luft in einen Teil des Gehäuses rein stromt, weiter durch das Gehäuse strömt und an einer anderen Stelle (vorzugsweise oben Aufgrund des term. Auftriebs) wieder verlässt.

Hast du in der Familie / bei Freunden die Möglichkeit mal ein paar weitere Lüfter zu beschaffen um zu testen?

Also ich das gleiche System mit nem Naoxia Deep Silence und nur 2 Lüftern. Mein 2500k wird auf 4,2Ghz höchsten 60°C warm. Idle liegt der um die 30


Das ist ein guter Hinweis. @Lurtz wie warm ist warm und welchen vcore hast du?

By the way, ich nutzt noch immer "Coollaboratory Liquid MetalPad"s Aufgrund der idiotensicheren Verwendung - geht aber nur bei Kühlern wo der Boden wirklich plan ist - darf keine kleinen Riefen geben.

Stanger
2016-02-14, 20:00:41
Die Zukunftstauglichkeit ist mit mehr VRAM immer wesentlich höher.
Das, ohne Zweifel. Nur sollte man sich genau überlegen wofür man sein hart verdientes Geld investiert.
Die Frage ist halt, wann das jetzt endlich mal anrollt...
Nein, das ist die Sache nicht wert, das muß jeder für sich selbst entscheiden.

mfg
Stanger

aufkrawall
2016-02-14, 20:04:40
Das, ohne Zweifel. Nur sollte man sich genau überlegen wofür man sein hart verdientes Geld investiert.

Eben. Von Nvidia gibt es im mittelhohen Preissegment überhaupt nichts interessantes, nur die die Krüppel-970 oder die überteuerte 980.


Nein, das ist die Sache nicht wert, das muß jeder für sich selbst entscheiden.

Hitman kommt im März, Quantum Break im April und Fable Legends wahrscheinlich im Sommer oder Herbst. Ist anzunehmen, dass bei all diesen Spielen die 390 eine 970 ziemlich abziehen wird.
Bei Frostbite-Spielen auch, sofern das CPU-Limit nicht zum Problem wird.

sun-man
2016-02-14, 21:00:39
Im Anhang ne Runde Dying Light The Following

Thermalright HR-02 auf nem 2500k mit 4200Mhz ohne jegliche Stromanpassung. Ich kümmere mich da nichtmal drum ob und wie die Lüfter im Gehäuse laufen. Das ganze wurde 2013 oder so aufgeschraubt und seitdem nie wieder angefasst. Ich glaub damals hab ich noch diese Silver irgendwas Paste mit raus geschmiert. Dummmerweise sehe ich gerade das ich wiedermal falsch ausgeschnitten habe - 58°C bekomme ich.

VG

Lurtz
2016-02-14, 21:19:45
So siehts bei mir nach einer Runde Novigrad in TW3 aus:
http://666kb.com/i/d6eka7zbmo4y8xwnb.png

Achill
2016-02-14, 21:27:31
Lurtz, Laut Netz (http://www.overclock.net/t/968053/official-the-sandy-stable-club-guides-voltages-temps-bios-templates-inc-spreadsheet) hast du aber schon gut VCore anliegen. Da wird es auch mit 4.1GHz wärmer - sieht jetzt aber nicht kritisch aus.

VCore selber eingestellt oder Auto vom Board?
Kannst du denn den Multiplikator erhöhen ohne den VCore mit zu erhöhen?

Lurtz
2016-02-14, 21:32:57
Lurtz, Laut Netz (http://www.overclock.net/t/968053/official-the-sandy-stable-club-guides-voltages-temps-bios-templates-inc-spreadsheet) hast du aber schon gut VCore anliegen. Da wird es auch mit 4.1GHz wärmer - sieht jetzt aber nicht kritisch aus.
Wenn ich niedriger gehe crasht mir spätestens The Witcher 3... Das Ding ist ziemlich hart was OC angeht.

VCore selber eingestellt oder Auto vom Board?
Kannst du denn den Multiplikator erhöhen ohne den VCore mit zu erhöhen?
Offset -0.015V

Der VCore zieht ziemlich schnell mit...

Wenn ich mit fixed 1.2V anlege bootet er meist nicht mal mehr ohne Bluescreen.

Achill
2016-02-14, 21:51:57
Wenn ich niedriger gehe crasht mir spätestens The Witcher 3... Das Ding ist ziemlich hart was OC angeht.


Offset -0.015V

Der VCore zieht ziemlich schnell mit...

Wenn ich mit fixed 1.2V anlege bootet er meist nicht mal mehr ohne Bluescreen.

Klingt nicht so toll, ich habe das gleich Problem mit dem L3-Cache (geht nur 3.3Ghz) - aber der ist nicht so wichtig. Die Temps sehen jetzt auch nicht wie Luftbläschen in der Wärmleitpaste aus sondern leider eher wie eine Niete bei der Silicon-Lottery ... :/

An deiner Stelle wüste ich nicht was ich machen würde, der 390 ist zu alt um jetzt noch hoch zu gehen bzw. nicht günstig genug. Die 980 hätte für ein Upgrade zu wenig Speiche ebenso alle Furys.

Ein wirkliches Upgrade ist nur die 980TI (wegen 6GB) und wenn man diese auch Übertaktet will - ansonsten wäre sie mir zu teuer, da der Preis seit der Einführung nicht wirklich gefallen ist und Ende dieses / Anfang nächstes Jahr die neuen GPUs anstehen. Bei einen Auto kauft man auch nicht mehr das aktuelle Modell, wenn man weiß, dass in ein paar Monaten was neues kommt und man dies für ein leicht höher Preis bekommt oder das alte Modell deutlich günstiger (Außer man braucht ein neues, weil das alte hin ist).

Edit:
Du hast aber auch noch kein FreeSync-Monitor oder? Nur wenn man den hätte, dann könnte man ggf. über ein 390(X) nachdenken - wegen FreeSync.

Edit2:
Evtl. nächste Woche noch Vulkan abwarten und hoffentlich gibt es ein paar Zahlen und damit eine Aussicht ob deine GPU zukünftig besser deine CPU auslastet. Wenn dem so ist, so sind die aktuell erscheinenden / noch erscheinenden DX11 Spiele der Zenit jener - wer weiß.

exxo
2016-02-14, 22:16:13
Es ist ja nicht nur die CPU, die heißer wird. Das gesamte Gehäuse heizt sich auf, die GPU wird heißer (und damit vor allem lauter), meine schweineteure Xonar Essence STX klebt dank Boardlayout direkt unter der GPU und kriegt die gesamte Hitze ab...

Und selbst wenn, ist der Unterschied zwischen 4,0 und 4,4Ghz wirklich so groß, als dass es die Hitze wert ist? Ich habe da so meine Zweifel, ein Skylake würde das wahrscheinlich allein durch den Architekturunterschied auffressen.

10 Prozent mehr würden den Overhead des AMD Treibers schon kompensieren.

Wegen der durch OC erhöhten Case Temps könntest du ein AIO Wakü einbauen deren Radiator die Abwärme der CPU direkt aus dem Case befördert. Als Nebeneffekt laufen deine Case Lüfter dann auch langsamer.

Also ich hatte mit meinem AMD Experiment extremes Tearing welches ich zwar mit V-Sync eliminieren konnte aber die FPS auch, trotz starker GPU etc. teilweise dann ins unspielbare rutschten.
Mit der TI hab ich absolut NULL tearing ohne V-Sync.


Ich spiele mit einr R9 290 ohne V-Sync und Tearing ist sehr selten zu entdecken...

Ziemlicher Unsinn, so viel Geld für eine 4GB-Karte auszugeben, wenn der Fokus auf Spielen liegt.

Der Sinn diese Beitrages ist mir nicht so ganz klar. Wofür benötigt man eine Karte mit 4GB wenn nicht für Spiele?

Auch Unsinn Geld in eine 8 GB Karte zu stecken welche der Treiber nicht bedienen kann weil er die CPU überfordert.

Erläutere mal den Zusammenhang zwischen der Größe des VRAM und dem Overhead des Treibers in Kombination mit einem Sandy auf 4ghz.

Lurtz
2016-02-14, 23:24:34
Klingt nicht so toll, ich habe das gleich Problem mit dem L3-Cache (geht nur 3.3Ghz) - aber der ist nicht so wichtig. Die Temps sehen jetzt auch nicht wie Luftbläschen in der Wärmleitpaste aus sondern leider eher wie eine Niete bei der Silicon-Lottery ... :/
Ja, entweder ich übersehe was oder ich hatte einfach extremes Pech mit meinem. Wenn ich sehe dass manche mit der VCore fast auf 4,5Ghz bei besseren Temps kommen :ugly:

An deiner Stelle wüste ich nicht was ich machen würde, der 390 ist zu alt um jetzt noch hoch zu gehen bzw. nicht günstig genug. Die 980 hätte für ein Upgrade zu wenig Speiche ebenso alle Furys.
Sehe ich grundsätzlich auch so. Und wenn dann hätte ich die 390 schon lange gekauft haben sollen.

Edit:
Du hast aber auch noch kein FreeSync-Monitor oder? Nur wenn man den hätte, dann könnte man ggf. über ein 390(X) nachdenken - wegen FreeSync.
Nein, eben auch nicht.

Am sinnvollsten ist wohl einfach abwarten und bis dahin den Input Lag in Kauf nehmen... Ist nur doof wenn man immer im Hinterkopf hat wie viel besser man gerade spielen könnte.

Ich spiele mit einr R9 290 ohne V-Sync und Tearing ist sehr selten zu entdecken...
Echt? Hat dein Monitor mehr als 60Hz?

Lurtz
2016-02-20, 20:29:39
Wie war das, ein Sandy Bridge @4Ghz reicht für alles? ;)

https://www.youtube.com/watch?v=frNjT5R5XI4

Da merkt man halt doch dass die CPU fünf Jahre alt ist... Und das meiste ist mit nVidia gebencht, nicht AMD.

Mit der R9 390 ist dann das aufkrawallsche Tal der Tränen erreicht:
https://youtu.be/frNjT5R5XI4?t=470

Durch OC kann man den beschissenen DX11-Treiber offensichtlich nicht kompensieren.


Wobei ich mich frage woher die die Leistungssteigerungen über den schnelleren Ram bekommen. Das Ramscaling wurde doch bei Sandy Bridge immer als vernachlässigbar gebencht :confused:

dargo
2016-02-20, 21:44:01
Wobei ich mich frage woher die die Leistungssteigerungen über den schnelleren Ram bekommen. Das Ramscaling wurde doch bei Sandy Bridge immer als vernachlässigbar gebencht :confused:
Das ist alles Blödsinn. Früher als der SB noch aktuell war gab es eben nicht so cpu-limitierte Spiele wie heute und die Grafikkarten waren entsprechend langsamer. Wer Ahnung vom Benchen hatte konnte auch beim SB eine gute Skalierung mit schnellerem Ram zeigen. Aber dann kamen wieder manche mit "720p wäre nicht praxisrelevant". Die Folgen siehst du heute in den üblichen Spielauflösungen.

Lurtz
2016-02-20, 22:58:59
Das ist alles Blödsinn. Früher als der SB noch aktuell war gab es eben nicht so cpu-limitierte Spiele wie heute und die Grafikkarten waren entsprechend langsamer. Wer Ahnung vom Benchen hatte konnte auch beim SB eine gute Skalierung mit schnellerem Ram zeigen. Aber dann kamen wieder manche mit "720p wäre nicht praxisrelevant". Die Folgen siehst du heute in den üblichen Spielauflösungen.
Hab was von 2011 gefunden, was in die Richtung geht:
If you're running memory benchmarks all day long, then yes, faster memory will improve bandwidth and access latencies substantially. In fact, Sandy Bridge CPUs extract more performance from the same memory configuration than their Lynnfield- and Clarkdale-based counterparts. However, as we learned when exploring the affect of memory speed on the performance of Intel's first Core i7 processors, finding games and applications that make effective use of the extra memory bandwidth and faster access latencies can be difficult.

Na mein superschneller 1.333-Mhz Ram hilft mir da auch nicht weiter ;D

Robspassion
2016-02-20, 23:35:30
Bin gewechselt von einem i5 2500K@4,4 Ghz.

Was soll ich sagen der Unterschied ist gigantisch in CPU limitierten Spielen bzw. Szenen.

Hatte z.B. in GTA V während ich in der Stadt rumgecruised bin so 70-80 Frames + Micro Ruckler. Die CPU war auf 100% die ganze Zeit und die 980ti hat sich gelangweilt. Jetzt hab ich an den Stellen 110-120 FPS.

Bei Assassins Creed Syndicate hatte ich teilweise lange Freezes von 2-3 Sekunden immer wenn die CPU mal wieder auf 100% war mit dem i5.

Battlefield 4 auf nem 64er Server war auch gnadenlos CPU limitiert. Die Sandy Bridge war eine Weile lang eine klasse CPU aber ich habe dann schon recht deutlich gemerkt,dass da nicht mehr so viel geht, wenn man hohe FPS erzielen möchte.

Zum anfänglichen Thema, hol dir einen Freesync/Gsync Monitor + entsprechende Graka. Der Unterschied ist gewaltig. Kann mir nicht mehr vorstellen wie ich vor 2014 ohne das Ding zocken konnte:freak:

Lurtz
2016-02-21, 00:13:42
Ich komme auch immer mehr zu der Überzeugung, dass ich doch die gesamte Basis erneuern sollte. Der 2500k war echt eine geniale CPU, und würde auch sicher noch die gesamte Gen gut gehen, aber trotz der relativ geringen Fortschritte gibt es mittlerweile einfach deutlich besseres. Zumal es ja auch neue Schnittstellen bei USB etc. gibt, wo ich noch massiv unterbestückt bin.

Das wird dann aber noch dauern...

aufkrawall
2016-02-21, 02:00:56
Hatte z.B. in GTA V während ich in der Stadt rumgecruised bin so 70-80 Frames + Micro Ruckler. Die CPU war auf 100% die ganze Zeit und die 980ti hat sich gelangweilt. Jetzt hab ich an den Stellen 110-120 FPS.

Bei Assassins Creed Syndicate hatte ich teilweise lange Freezes von 2-3 Sekunden immer wenn die CPU mal wieder auf 100% war mit dem i5.

Kann ich absolut nicht bestätigen, ich hatte in beiden Spielen für ein paar Minuten 720p an und das lief absolut sauber. Bei Syndicate war die CPU-Auslastung sogar durchgängig bei 100%, die fps waren auch recht hoch (afair locker >60).


Battlefield 4 auf nem 64er Server war auch gnadenlos CPU limitiert.

Mit einer 980 Ti in 1080p ist das klar. In WQHD mit besserer HBAO per Config eingestellt, ist man aber wieder die allermeiste Zeit GPU limitiert, die min-fps bei Shanghai 64 CQL liegen im CPU-Limit bei ca. 75. Da kann man in vielen anderen Spielen nur von träumen, etwa bei dieser Müll-Engine von Blizzard für HotS.

fondness
2016-02-21, 10:16:16
Ich komme auch immer mehr zu der Überzeugung, dass ich doch die gesamte Basis erneuern sollte. Der 2500k war echt eine geniale CPU, und würde auch sicher noch die gesamte Gen gut gehen, aber trotz der relativ geringen Fortschritte gibt es mittlerweile einfach deutlich besseres. Zumal es ja auch neue Schnittstellen bei USB etc. gibt, wo ich noch massiv unterbestückt bin.

Das wird dann aber noch dauern...

Viele unterschätzen halt auch den Zinsenzinseffekt. Wenn Intel jedes Jahr 10% IPC drauf legt (Hausnummer), sind das nach 5 Jahren eben nicht nur 50%.

Zergra
2016-02-21, 10:26:44
Viele unterschätzen halt auch den Zinsenzinseffekt. Wenn Intel jedes Jahr 10% IPC drauf legt (Hausnummer), sind das nach 5 Jahren eben nicht nur 50%.


Das Problem ist das es aber nur:
Sandy 100%
Ivi 106%
Haswell 114,48%
Skylake 123,64% wären wenn man von den Daten von der Launch Analyse aus dem 3DC ausgeht.
Bei 50% mehr IPC wäre das schon etwas anderes. In diesem Fall haben wir gerade einmal 1,64% mehr Leistung durch den "Zinseszinseffekt".

fondness
2016-02-21, 10:30:51
Naja, solche "Launchanalysen" sind halt auch immer Glättungen. Im reinen CPU-Limit dürften da deutlich mehr wie die 23% realistisch sein.

sun-man
2016-02-21, 11:41:13
Hmmm, Schade. Hab keines der Games (und auch nen 2500k). Dying Light oder sp scheinen nicht CPU Limitiert

ux-3
2016-02-21, 11:59:44
In diesem Fall haben wir gerade einmal 1,64% mehr Leistung durch den "Zinseszinseffekt".

Ich schlag vor, Du rechnest das noch mal nach. ;)

Eisenoxid
2016-02-21, 12:37:29
Wie war das, ein Sandy Bridge @4Ghz reicht für alles? ;)

https://www.youtube.com/watch?v=frNjT5R5XI4

Da merkt man halt doch dass die CPU fünf Jahre alt ist... Und das meiste ist mit nVidia gebencht, nicht AMD.

Sehr interessant...evtl. sollte ich auch mal drüber nachdenken dem Sandy-i5 schnelleren Ram zu spendieren :freak:

ux-3
2016-02-21, 13:15:26
Sehr interessant...evtl. sollte ich auch mal drüber nachdenken dem Sandy-i5 schnelleren Ram zu spendieren :freak:

Leider läuft das nicht immer alles auf 2133. :frown:

robbitop
2016-02-21, 13:26:42
R290 gebraucht günstig bei ebay Kleinanzeigen kaufen.
Einen MG279Q kaufen.
2x Lüfter ins Dach und CPU auf möglichst 4,4-4,5 GHz bringen. Das wäre IMO das beste P/L.

sun-man
2016-02-21, 13:33:53
Also die 390 limitiert beim Witcher schon bei 1440p, da macht es ne 290 sicherlich auch nicht besser. Ich hab da max 70% CPU Last in den Peaks - sonst eher um die 50.

robbitop
2016-02-21, 16:02:16
Eine 390 ist praktisch eine umgelabelte 290. Die 290 käme gebraucht deutlich billiger. Wäre aktuell das beste P/L.Wenn eine GPU zu langsam für ein Spiel und eine Auflösung ist, ist eine valide Alternative, den ein oder anderen Regler nach links zu ziehen. Der Unterschied ist im Blindtest oft nicht sichtbar.

aufkrawall
2016-02-21, 16:14:32
Hawaii wird in 1080p aber nicht gut ausgelastet und Lurtz will ja nicht so viel auf einmal anschaffen.

Ganz ehrlich: Wenn der AMD-Overhead in 1080p ständig nervt, würd ich mir überlegen, die 7950 zu verkaufen und durch eine anständige 4GB 960 zu ersetzen.
Die Ausgaben dafür hielten sich noch halbwegs in Grenzen und damit kann man in 1080p dann sicher wesentlich entspannter neue Titel zocken als mit der 7950 mit dem schlechten DX11-Treiber. Lurtz scheint ja schon seit einiger Zeit von den Treibern relativ enttäuscht zu sein.

kokett
2016-02-21, 16:15:31
Naja, solche "Launchanalysen" sind halt auch immer Glättungen. Im reinen CPU-Limit dürften da deutlich mehr wie die 23% realistisch sein.

Mein Wechsel war von 3570k@4,2Ghz auf den 6700er Skylake. Laut Launchanalysen wären diese CPUs exakt gleichschnell (Ivy OC vs Sky Stock). Das ist aber überhaupt nicht so, insbesondere bei den min FPS ist die neue Cpu deutlich besser, vor allem in Spielen wo IB oft bei 100% Auslastung war (GTA V, AC Unity).

robbitop
2016-02-21, 17:11:02
Aufkrawall - 1080p?
Hä? Er will doch eh einen Freesync Monitor kaufen. Der MG279Q ist 1440p.

aufkrawall
2016-02-21, 17:15:51
Der Zwischenstand war
Am sinnvollsten ist wohl einfach abwarten und bis dahin den Input Lag in Kauf nehmen... Ist nur doof wenn man immer im Hinterkopf hat wie viel besser man gerade spielen könnte.

Mit der 960 würde er wenigstens schon mal in 1080p vermutlich wesentlich besser fahren als momentan.
Asus-Schrottmonitore empfiehlt man imho auch niemandem, dem man keine Scherereien wünscht.

robbitop
2016-02-21, 22:27:50
In 1080p reicht eine 7950 aber eigentlich auch. Dann kann er es auch so lassen.

ux-3
2016-02-21, 22:47:07
Ich folge dem Thread auch schon ein Weilchen.
Funktioniert g-sync mit jeder Nvidia Karte? Oder erst ab einer bestimmten Reihe.

Ich kann mir vorstellen, dass das für Flightsims ne feine Sache ist.

Robspassion
2016-02-21, 23:23:48
Also laut der Website von Nvidia braucht man als Minimum Folgendes:

DisplayPort 1.2

Grafikprozessor: Für die G-SYNC-Merkmale ist eine NVIDIA GeForce GTX 650 Ti BOOST oder höhere Grafikkarte erforderlich.
Betriebssystem: Windows 7, 8 und 8.1
Treiber: R340.52 oder höher

aufkrawall
2016-02-22, 00:04:11
In 1080p reicht eine 7950 aber eigentlich auch. Dann kann er es auch so lassen.
Tut sie ja eben nicht, wenn man die CPU-Performance mitrechnet.
In Tomb Raider gibts mit dem AMD-Treiber üble Einbrüche. Mit einer 960 hätte er für einige Spiele quasi gleich die CPU mitupgegradet.
Da kann man für den Nettopreis schon drüber nachdenken.

ux-3
2016-02-22, 00:16:37
Grafikprozessor: Für die G-SYNC-Merkmale ist eine NVIDIA GeForce GTX 650 Ti BOOST oder höhere Grafikkarte erforderlich.

Dann wäre meine 670 GTX ja sogar ausreichend. :)

aufkrawall
2016-02-22, 00:29:13
Wäre sie nicht nur, ist sie sogar.

Hübie
2016-02-22, 01:07:54
Hier wird im Dunkeln gestochert. Lurtz? Was bist du denn maximal bereit auszugeben? 80% der Vorschläge hier machen wenig bis keinen Sinn. Also sag mal was du locker machen willst (oder kannst) und was dir besonders wichtig ist. Musst du Spiele zu Release zocken? Wenn nicht wartet man halt immer bis AMD einen Treiber bringt.

Mal aus dem Bauch heraus: aktuell würde ich höchstens verkaufen, aber nicht kaufen. Zumindest sollte man mal leaks abwarten. Ist ja nicht so, dass bei dir die Hütte brennt.

AMDs Zen CPU und Polaris GPU könnten schnell interessant werden und dann würdest du dich ggf ärgern aufs falsche Pferd gesetzt zu haben...

sun-man
2016-02-22, 07:39:04
Hier gehts viel um die Performance - weniger um nen Monitor, der mich aber auch mal interessieren würde.
Was empfehlt Ihr bei Freesync? Ich bin da auch noch nicht sicher ob ich mich derartig an einen Anbieter binden will.

VG

Hübie
2016-02-22, 09:43:24
Ich bezog mich doch nirgends auf den Monitor? :confused: Oder meinst du gar nicht mich?

sun-man
2016-02-22, 09:58:58
Nenene, war so allgemein. Im ersten Beitrag ging es ja auch um nen Monitor.

Gibt es in 1440p nur diesen einen von Asus? Beim Rest ist das meiste eben 4k und da weiß ich nicht wie gut oder schlecht die 390 noch mit kommt.

Lurtz
2016-03-16, 10:26:59
Update:
Hab mir jetzt 16GB Ram gegönnt, der mit 2.133Mhz läuft. Damit habe ich ein wenig getestet, ich hänge tatsächlich in den allermeisten Situationen im GPU-Limit mit meiner HD 7950 (60fps-Target).

Sprich ich brauche eine neue GPU, die HD 7950 schlägt sich zwar wacker, aber wirklich glücklich werde ich damit nicht mehr.

Sehe ich das richtig, dass Polaris wohl erst als Variante über 500€ kommen wird und der Rest dann erst Ende des Jahres? :frown:
Bin versucht doch noch eine R9 390 zu kaufen... Gibt es da Modelle unter 30cm? Bei 30cm stört der Festplattenkäfig meines Define R3, aber ich habe vier Platten, ich möchte den so belassen.

dargo
2016-03-16, 10:33:59
Sehe ich das richtig, dass Polaris wohl erst als Variante über 500€ kommen wird und der Rest dann erst Ende des Jahres? :frown:

Andersrum. Zuerst kommt Mainstream + Performance. Und erst Ende 2016, Anfang 2017 High-End.

Michalito
2016-03-16, 11:47:16
Hier würde ich dann die Karten in dieser Reihenfolge bevorzugen:

1. MSI
2. Gigabyte
3. His ( wobei mir bei der die RMA Quote bei MF eigentlich schon zu hoch ist,aber gerade im Mindstar für 299 vertickt wird + Hitman..)

http://www.heise.de/preisvergleich/?cat=gra16_512&xf=1440_R9+390~2612_300&asuch=&bpmax=&v=e&hloc=at&hloc=de&plz=&dist=&sort=p

aber angesichts des Preissturzes der Radeon R9 Fury vlt. noch zwei Wochen warten, bis sich 390x (die erscheint mir z.Z. einfach zu teuer) und 390 auch neu sortiert haben

dargo
2016-03-16, 12:23:36
Ich hab das ungute Gefühl, dass viele "08/15" User die HiS mit den Defaultsettings betreiben was auf Dauer nicht gesund sein kann. Da hat sich HiS mit 95°C TT @Default wohl etwas verkalkuliert. Mit den Defaultsettings bleiben die Lüfter zwar schön leise (~1300RPM), dafür operiert die GPU dann mit ca. 76-80°C in einem gut belüfteten Gehäuse. In einem schlecht belüfteten Gehäuse kann das durchaus Richtung 90+°C gehen. Letzteres kann auf Dauer nicht funktionieren. Bei über 90°C GPU wird die VRM1 auch recht weit über 100°C liegen. Für Anfänger ist die HiS weniger geeignet. Man sollte schon etwas die Zusammenhänge beim TT, PT etc. kennen.

Lurtz
2016-03-16, 12:48:30
Bei 300€ für eine R9 390 könnte man schwach werden. Bei Mindfactory kaufe ich allerdings nicht, schon genug "Service" von denen erlebt.

dargo
2016-03-16, 12:56:03
Bei 300€ für eine R9 390 könnte man schwach werden.
Schon mitbekommen? :D
http://www.mindfactory.de/product_info.php/8192MB-HIS-Radeon-R9-390-IceQ-X2-OC-Rev--2-0-Aktiv-PCIe-3-0-x16--Retail-_1006622.html

Aber gut, wenn du mit MF nicht klar kommst musst du noch ein wenig warten. Ich denke Caseking, Alternate dürften da bald nachziehen.

Michalito
2016-03-16, 12:58:38
Tja... Das Engelchen / Teufel / Schulterproblem...

Ich musste bereits 3 mal RMA mit einem Board bei MF machen. Es gab 2 neue Boards, und keine Probleme. Insofern bin ich kein gebranntes MF Kind und kaufe da jederzeit gerne wieder. Und ja, der Preis ist hot.. Vlt. jagt MF jetzt in kommnder Zeit alle 390 (x) da durch..? Sapphire Nitro 390x und PWC 390 waren ja schon drin im Mindstar. Und den Hitmankey kann man auch, wenn man das möcht bestimmt für einen 20er verticken.. Dann ist das wirklich eine sehr attraktiver Preis.

Lurtz
2016-03-16, 14:27:39
Hitman würde ich sogar selbst spielen wollen.

Mindfactory hat mir für eine defekte 300€-Grafikkarte nach 22 Monaten noch 90€ angeboten, das ist doch lächerlich. Bei Amazon würde ich den vollen Kaufpreis wiederkriegen :ugly:

aufkrawall
2016-03-16, 14:32:56
Ich würd die HiS nicht einfach kaufen, nur weil sie billig ist. 1350rpm sind im Idle sind ja mal so etwas von Steinzeit.
Ich würd bei einer 390 wohl zur MSI Gaming greifen und die softwareseitig tweaken.
Mit Mindfactory hab ich persönlich auch sehr negative Erfahrungen gemacht, die versenden systematisch & kackendreist Schrott als Neuware.

Lurtz
2016-03-16, 15:07:44
Hatte MSI nicht die miesen Kühler bei den R9 290ern? :uponder: Oder war das Asus?

Frosty
2016-03-16, 15:16:16
Hatte MSI nicht die miesen Kühler bei den R9 290ern? :uponder: Oder war das Asus?


war asus. deren neuere kühler sind meistens ineffizient, einige der heatpipes (direct touch) haben keinen oder zu wenig kontakt zum gpu-die.
eine ausnahme ist die asus r9 380, da deren chip gedreht ist haben alle heatpipes kontakt zum die.
der twin frozr 4 von msi bzw. vor allem die 5. inkarnation davon sind mit das beste was es in den letzten jahren gab.

aufkrawall
2016-03-16, 15:25:25
Von der MSI sind die meisten Nutzerkommentare bei Händlern auch wesentlich positiver als von der Asus. Die Asus wird wohl trotz der drei Lüfter gerne ziemlich heiß und laut.

Lurtz
2016-03-16, 15:28:42
Am leisesten ist wohl definitiv Sapphire. Aber die bieten in Deutschland ja keine wirkliche Garantie mehr und sind eben sehr sehr lang.

aufkrawall
2016-03-16, 15:30:47
Ich kann dir von Sapphire persönlich nur abraten, ich hatte an die fünf Karten verschiedener Tri-X Iterationen und bei allen war irgendwas am rasseln, schleifen oder heulen.
Ich hatte drei MSI-Karten und bei allen liefen die Lüfter mechanisch perfekt.

dargo
2016-03-16, 16:04:12
Ich würd die HiS nicht einfach kaufen, nur weil sie billig ist. 1350rpm sind im Idle sind ja mal so etwas von Steinzeit.

Was sich problemlos für ~2€ ändern lässt und damit hat man die beste R9 390 die es gibt. Es sei denn man hat zwei linke Hände. :tongue:

btw.
Die Revision 2.0 hat nun 7 anstatt 5 Heatpipes beim Kühler. Das sollte noch leiser/kühler werden.

Hatte MSI nicht die miesen Kühler bei den R9 290ern? :uponder: Oder war das Asus?
Der Kühler der MSI ist gut bei den 390-ern (Neuentwicklung), nur beim PT und Takt hat MSI einen an der Waffel. :tongue:

Am leisesten ist wohl definitiv Sapphire.
Ähm... not. Die leiseste ist die HiS bei Last. Idle lässt sich "modifizieren".

aufkrawall
2016-03-16, 16:12:15
1000rpm sind auch nicht der Knaller, bei der MSI gehen 0 oder 500.
Und wie ist das mit der Diode, muss man dafür das Lüfter-Kabel modifizieren? Dann wär ja die Garantie futsch. Oder hast du das mittels Stecker gelöst?

dargo
2016-03-16, 16:19:54
1000rpm sind auch nicht der Knaller, bei der MSI gehen 0 oder 500.

Ich hab 800RPM in Idle, das hörst du aus meinem Gehäuse garantiert nicht mehr raus. Vergleich das nicht mit der MSI wo die Lüfter größer sind.


Und wie ist das mit der Diode, muss man dafür das Lüfter-Kabel modifizieren? Dann wär ja die Garantie futsch. Oder hast du das mittels Stecker gelöst?
Es sind mehrere Dioden. Für 1350RPM--->800RPM habe ich 6 Stück gebraucht. Wenn du 8 nimmst hast du eben ~600RPM usw. Und natürlich habe ich ein entsprechendes Zwischenstück gekauft damit die Garantie nicht futsch ist. An diesem Zwischenstück wird die Plusleitung getrennt und die Dioden kommen dazwischen.

Lurtz
2016-03-16, 16:33:04
Naja bei MSI hört man auch viel von Spulenfiepen und Co. Da kann man wohl immer Pech haben.

Unhörbar im Gehäuse würde mir reichen. Schadet das ständige Anlaufen und Stoppen nicht dem Lüfter?

Was macht HiS denn sonst besser als andere, dargo?

aufkrawall
2016-03-16, 16:40:35
Zirpen und Sirren hatte ich auch mit Sapphire. Wenn du die MSI 970 meinst: Das ist eine ältere Revision, die viel stärker zum Spulenfiepen neigt als z.B. die MSI 980 Gaming. Die hatte ich da, und hatte so gut wie überhaupt keine elektronischen Geräusche.

dargo
2016-03-16, 16:43:14
Was macht HiS denn sonst besser als andere, dargo?
Die hat ein recht tiefes PT von ~200W. Der Kontakt der HPs zum Kühler ist dank Kupferkern auch sehr gut. Was man leider bei einer Asus Strix nicht behaupten kann. VRM-Kühler sind auch ok gewählt. Der wärmste VRM hat bei mir ~90°C bei "nur" 1440RPM bei den Lüftern. Der andere mittlerer 70-er Bereich.

Lurtz
2016-03-16, 17:04:26
Hängt das nicht vom einzelnen Chip ab wie tief das PT ist? :confused:

aufkrawall
2016-03-16, 17:06:29
Bei Nvidia hängt davon der Boost ab, Powertune/Powertarget sind für eine Modellreihe aber immer gleich.
Wenn man bei AMD einen schlechten Chip erreicht hat, läuft der halt mit mehr Spannung und man wird ggf. stärker im Powertune-Limit gedrosselt.

fondness
2016-03-16, 17:55:33
Ich kann dir von Sapphire persönlich nur abraten, ich hatte an die fünf Karten verschiedener Tri-X Iterationen und bei allen war irgendwas am rasseln, schleifen oder heulen.
Ich hatte drei MSI-Karten und bei allen liefen die Lüfter mechanisch perfekt.

Die Sapphire 390 Nitro hat mit Abstand die besten Userbewertungen und kommt auch bei Reviews durchgehend sehr gut weg. Die MSI kommt da auf teils deutlich schlechtere Werte. Deine persönlichen Erfahrungen in Ehren, aber im Zweifelsfall würde ich trotzdem die Sapphire probieren. Die RMA-Quote ist bei der Sapphire auch am geringsten bei Mindfactory. Spulenfießen konnte ich da auch nirgends beobachten und ich habe die Karten schon mehrmals verbaut.

dargo
2016-03-16, 18:04:24
Hängt das nicht vom einzelnen Chip ab wie tief das PT ist? :confused:
Nein, der Hersteller bestimmt wieviel die Karte verbrauchen darf.

Bei Nvidia hängt davon der Boost ab, Powertune/Powertarget sind für eine Modellreihe aber immer gleich.

Falsch. Bei der 390-er (inkl. X) Serie gibt es alles zwischen 200 und 300+W. Den Vogel schießt mal wieder MSI mit der R9 390X und einem PT von 350-375W (genau weiß ich es nicht).

Lurtz
2016-03-16, 22:14:55
Hab nochmal nachgemessen und gegoogelt, die Sapphire passt definitiv nicht ins Define R3 :( Hatte bis auf die letzte VTX 3D immer Sapphire und war stets sehr zufrieden.

Die HIS ist mir nicht geheuer, da gibts allein bei Mindfactory ein paar Leute wo sie dead on arrival oder innerhalb der ersten Tage war.

aufkrawall
2016-03-16, 22:20:39
Falsch. Bei der 390-er (inkl. X) Serie gibt es alles zwischen 200 und 300+W. Den Vogel schießt mal wieder MSI mit der R9 390X und einem PT von 350-375W (genau weiß ich es nicht).
Nix falsch, du hast mich höchstens falsch verstanden. Lies nochmal nach, meine Formulierung macht schon Sinn...

dargo
2016-03-16, 22:26:21
@Lurtz

Dann warte besser auf Polaris 10.

Lurtz
2016-03-16, 22:28:01
@Lurtz

Dann warte besser auf Polaris 10.
Ist wohl das einzig vernünftige *grummel*

Hübie
2016-03-16, 23:27:52
Für dich kämen ja nur die Gigabyte, MSI und VTX3D in Frage. Alles keine Überflieger. Du kannst btw. Amazon auch einen Preis vorschlagen. Ziemlich versteckte Option und ich weiß auch gerade nicht, ob dies auch bei Händlern geht, welche Amazon als Plattform nutzen. Nur so als Tipp. :smile:

Lurtz
2016-03-17, 08:19:37
Wie lange muss man denn realistisch gesehen noch auf Polaris 10 warten? Sommer?

Für dich kämen ja nur die Gigabyte, MSI und VTX3D in Frage. Alles keine Überflieger. Du kannst btw. Amazon auch einen Preis vorschlagen. Ziemlich versteckte Option und ich weiß auch gerade nicht, ob dies auch bei Händlern geht, welche Amazon als Plattform nutzen. Nur so als Tipp. :smile:
Gibt es das in Deutschland und ist das nicht nur für Marktplatz-Händler gedacht?

dargo
2016-03-17, 08:23:24
Wie lange muss man denn realistisch gesehen noch auf Polaris 10 warten? Sommer?

Wenn Polaris 11 und 10 gleichzeitig kommen ca. 3-4 Monate.

Lurtz
2016-03-17, 09:28:43
Dann dauerts noch mindestens einen Monat bis zu normalen Preisen lieferbar... Weiß nicht ob ich so lange warten kann :usad:

Michalito
2016-03-17, 15:57:50
Dann dauerts noch mindestens einen Monat bis zu normalen Preisen lieferbar... Weiß nicht ob ich so lange warten kann :usad:


Oder schlimmer noch: Es wird wie bei der 5000er Genaration. Erstkäufer hatten da totales Glück, die Preise zogen direkt nach oben an, und wurden erst nach X Monaten günstig ;D Alptraum :tongue:

dargo
2016-03-17, 16:08:50
Dann dauerts noch mindestens einen Monat bis zu normalen Preisen lieferbar... Weiß nicht ob ich so lange warten kann :usad:
Das ist das Risiko bei neuer Hardware. ;)

Lurtz
2016-04-02, 22:41:26
Hab jetzt doch zugeschlagen - eine MSI R9 390 bewohnt seit heute meinen PC :cool: Bin sehr zufrieden, die Leistungssteigerung ist schon enorm, bei mehr Details deutlich höhere fps und die 8GB Ram sind trotz aller Unkenrufe Gold wert - und das alles bei deutlich angenehmerer Lautstärke.

Wobei es nach wie vor Spiele gibt, wo die CPU einfach an ihre Grenzen kommt. Arkham Knight bspw. stockt alle paar Sekunden mal, weil die CPU beim Streaming nicht mit 60fps Schritt halten kann. Das Gleiche bei GTA V. Da kann aber auch der Treiber nicht viel dafür, denn diese Titel multithreaden so gut, dass der 2500k @4Ghz auf allen vier Kernen bei 100% ist...

Jetzt stellt sich mir die Frage, mit welchem Freesync-Monitor ich das Setup aufwerten könnte. Allerdings finde ich fast immer 27"-Empfehlungen.
Mein Schreibtisch wäre aber eher für 24" geeignet. Gibts da im 24"-Bereich gar nichts brauchbares? :uponder:

Hübie
2016-04-03, 00:42:18
Wie kann ein Schreibtisch nicht knappe 8 cm mehr Diagonale vertragen? :confused: Und was willst du maximal ausgeben? :|

Lurtz
2016-04-03, 06:40:18
Der Schreibtisch ist im Grunde halt ausgereizt. Zudem weiß ich auch nicht so recht, was ich mit 27" anfangen sollte. Aber gut, sagen wir mal ich nehme 27".

Budget wären ca. 500€. 600€ wären dann schon etwas heftig. Möchte aber auch keinen TN-Schrott, hatte die letzten Jahre IPS und das hat mir schon sehr gut gefallen.
Zudem tendiere ich mittlerweile stark dazu, gleich 2160p zu nehmen, wenn die Interpolation tatsächlich so gut funktioniert.

Größtes Problem scheint ja noch die Freesync-Range zu sein, die meist nur bis 40 Hz geht. Fondness meint bei dem von ihm empfohlenen LG geht mit Custom Resolution bis 33 Hz. Aber effektiv ist das ja Übertakten, funktioniert das wirklich mit jedem Monitor?

Was passiert wenn man die Freesync-Range verlässt, hat man dann alle Nachteile von VSync off oder gibt es beim Übergang noch weitere Nebenwirkungen?

Und wie gut funktioniert die Skalierung von Windows 10 und Programmen? Gibt es da immer noch so große Probleme?

sun-man
2016-04-03, 08:09:18
Ich schlage mich ja fast mit derselben Frage rum - allerdinsg als Dual-Monitorsetup an einer 390.

Gleiche Auflösung wäre OK, keine Ahnung was AMD Taktmäßig macht wenn einer 1080 und der andere 1440p hat.

Ich hab nen Dell IPS....der XL2730Z soll ja wirklich gut sein wohl ein besseres TN Panel habe.
Ich hab an sich viel zu oft gelesen wie geil Free/G Sync aussehen soll und das es sich absolut lohnt.

dargo
2016-04-03, 08:17:34
Jetzt stellt sich mir die Frage, mit welchem Freesync-Monitor ich das Setup aufwerten könnte. Allerdings finde ich fast immer 27"-Empfehlungen.
Mein Schreibtisch wäre aber eher für 24" geeignet. Gibts da im 24"-Bereich gar nichts brauchbares? :uponder:
Wenns eilig ist.
http://geizhals.de/aoc-g2460pf-a1318972.html?hloc=at&hloc=de

Mit dem passenden Treiber sind 35-144Hz drin. Wenn du noch etwas warten kannst warte auf den Nixeus NX-VUE24A mit 30-144Hz.

Edit:
Ops... zu spät gelesen, dass TN nicht gewünscht wird. Bei dem Budget bleibt eigentlich nur der Asus MG279Q. Du kannst den übrigens ohne Übertaktung mit folgenden Ranges betreiben.

* 35-90Hz
* 47-120Hz
* 56-144Hz

Aktuell läuft bei mir die Mitte. Wenn ich eine schnellere Karte habe und kaum bis gar nicht mehr unter 56fps rutsche spricht auch nichts gegen dauerhafte 56-144Hz.

PS: mit minimalen Übertaktung vom Scaler gehen auch problemlos.

* 33-90Hz
* 44-120Hz
* 54-144Hz

Edit 2:
Theoretisch gingen auch 39-100Hz ohne Scalerübertaktung. Das dumme ist halt, dass nur folgende Frequenzen bei nativen 1440p wählbar sind... 60, 90, 120 und 144Hz. Weiß jetzt nicht ob sich das ändern lässt. Vielleicht kann man die 90Hz in 100Hz ändern.

Lurtz
2016-04-03, 08:38:48
Die haben laut Tests beide Gamma issues und das TN-Panel machts nur noch schlimmer. Ich wüsste nicht wozu ich mit Freesync 144 Hz bräuchte, solche Frameraten erreiche ich generell sowieso nie.

Umgekehrt glaube ich nicht, dass ich nach fünf Jahren IPS wieder zu TN zurück möchte und 2016 noch einen FullHD-Monitor kaufen möchte. Eher nicht.

Edit: Was ist der große Unterschied vom ASUS MG279Q zum LG 27MU67-B?
Auflösung und Hz?

dargo
2016-04-03, 08:43:07
Willst du dir echt so ne 60Hz Gurke kaufen? Naja... jeder wie er will.


Edit: Was ist der große Unterschied vom ASUS MG279Q zum LG 27MU67-B?
Auflösung und Hz?
Jup.

Zudem kann der Asus LFC dank wesentlich höheren Freesync-Range.

Lurtz
2016-04-03, 08:55:10
Ich kann nicht einschätzen, was 144Hz bringen, ich spiele seit über zehn Jahren mit 60Hz. Ich hatte eigentlich gehofft 144Hz wären mit Freesync praktisch überflüssig, aber da bin ich wohl falsch informiert.

LFC höre ich auch das erste Mal...
Wie brauchbar interpoliert der Asus 1080p?

Keine Ahnung was ich machen soll. 2160p mit 144Hz werden in dem Preisbereich noch Monate dauern, oder?

dargo
2016-04-03, 08:59:44
Ich kann nicht einschätzen, was 144Hz bringen, ich spiele seit über zehn Jahren mit 60Hz. Ich hatte eigentlich gehofft 144Hz wären mit Freesync praktisch überflüssig, aber da bin ich wohl falsch informiert.

Bei 144Hz ist Freesync noch lange nicht überflüssig. Wer sowas behauptet ist blind. Es gibt zwar Spiele die bei dieser Frequenz weniger zum Ruckeln neigen, aber komplett ruckelfrei ist es auch nicht. Dafür ist die Frequenz noch viel zu niedrig fürs Auge.


LFC höre ich auch das erste Mal...

http://images.anandtech.com/doci/9811/Radeon%20Software%20Crimson%20Edition-page-022.jpg


Wie brauchbar interpoliert der Asus 1080p?

Vergiss es gleich, das sieht kacke aus.



Keine Ahnung was ich machen soll. 2160p mit 144Hz werden in dem Preisbereich noch Monate dauern, oder?
Erstens das, zweitens brauchst du eine neue Graka mit DP1.3.

Lurtz
2016-04-03, 09:06:29
Bei 144Hz ist Freesync noch lange nicht überflüssig. Wer sowas behauptet ist blind. Es gibt zwar Spiele die bei dieser Frequenz weniger zum Ruckeln neigen, aber komplett ruckelfrei ist es auch nicht. Dafür ist die Frequenz noch viel zu niedrig fürs Auge.
Ich dachte andersherum: Wenn ich sowieso nur maximal 60fps erreiche, würden 60Hz mit Freesync reichen und 144Hz mit Freesync keine nennenswerten Vorteile mehr bringen.

http://images.anandtech.com/doci/9811/Radeon%20Software%20Crimson%20Edition-page-022.jpg
Und das funktioniert so gut wie beworben?

Vergiss es gleich, das sieht kacke aus.
Meh.
Wenn ich neue Titel in 1440p spielen soll, erreiche ich ja eher 40 als 60fps, selbst mit der 390...

Erstens das, zweitens brauchst du eine neue Graka mit DP1.3.
Ok, also ist das Zukunftsmusik.

Ich mache das zwar nicht gerne, aber einzig sinnvolle Möglichkeit wäre wohl, den LG und den Asus zu bestellen und dann zu vergleichen was mir besser gefällt und ob ich ohne 144Hz leben kann...

Wird wohl keine Elektronikmärkte geben, die sowas vorführen oder wo man gar anspielen kann?

dargo
2016-04-03, 09:13:42
Ich dachte andersherum: Wenn ich sowieso nur maximal 60fps erreiche, würden 60Hz mit Freesync reichen und 144Hz mit Freesync keine nennenswerten Vorteile mehr bringen.

Wenn du eh mit max. 60fps spielst bringen dir natürlich mehr als 60Hz nichts.


Und das funktioniert so gut wie beworben?

Nicht ganz. In manchen Spielen/Engines ist der Übergang in den LFC-Bereich und wieder zurück in den nativen Freesync-Bereich vom Monitor nicht sauber. Es kann schon mal einen Zuckler geben.


Ich mache das zwar nicht gerne, aber einzig sinnvolle Möglichkeit wäre wohl, den LG und den Asus zu bestellen und dann zu vergleichen was mir besser gefällt und ob ich ohne 144Hz leben kann...

Mach das, ist eigentlich das beste was du machen kannst. So siehst du was dir besser zusagt. Vorallem auch wie hoch die Anforderungen für 4k sind. Da kommst du mit der R9 390 imo nicht weit. Du machst dir schon Sorgen mit 1440p. :tongue:

Lurtz
2016-04-03, 09:30:14
Wenn du eh mit max. 60fps spielst bringen dir natürlich mehr als 60Hz nichts.
Dann habe ich das ja doch richtig interpretiert :confused: :ugly:

Mach das, ist eigentlich das beste was du machen kannst. So siehst du was dir besser zusagt. Vorallem auch wie hoch die Anforderungen für 4k sind. Da kommst du mit der R9 390 imo nicht weit. Du machst dir schon Sorgen mit 1440p. :tongue:
Aktuelle Titel wären in 2160p überhaupt nicht möglich, das ist mir absolut klar. Nur hätte ich dann bei 2160p eben die Möglichkeit der sehr guten Interpolation.
Unter dem Gesichtspunkt komme ich auch mit 1440p nicht wirklich weit genug, da selbst das ordentlich Leistung frisst und nicht immer nativ möglich sein wird.

Und ansonsten denke ich, dass mich 4k wesentlich glücklicher als 144Hz machen würden. Die Bildschärfe allein auf dem Desktop ist ein Traum.

Oder ich kaufe mir jetzt nochmal einen 1080p-Monitor mit Freesync und warte bis sich die Technologie noch etwas weiter entwickelt hat und 2160p samt 144Hz etc. Standard sind.
Aber wenn ich da bei Geizhals schaue, gibt es nur 2 Monitore, die überhaupt ein IPS-Panel haben und einen mit VA-Panel. Alles andere TN.

dargo
2016-04-03, 09:39:54
Dann habe ich das ja doch richtig interpretiert :confused: :ugly:

Jein.

Vergiss bitte nicht, dass du mit Vsync On den üblichen Lag wieder hast wenn die max. Refreshrate erreicht wird. Das geht bei 60Hz natürlich wesentlich leichter als bsw. bei 90, 120 oder 144Hz. Du kannst zwar mit FRTC dem entgegenwirken. Bin mir jetzt aber auch nicht 100% sicher ob FRTC in jedem Spiel problemlos ist. Stichwort... saubere Frametimes.

fondness
2016-04-03, 09:48:29
Der Schreibtisch ist im Grunde halt ausgereizt. Zudem weiß ich auch nicht so recht, was ich mit 27" anfangen sollte. Aber gut, sagen wir mal ich nehme 27".

Budget wären ca. 500€. 600€ wären dann schon etwas heftig. Möchte aber auch keinen TN-Schrott, hatte die letzten Jahre IPS und das hat mir schon sehr gut gefallen.
Zudem tendiere ich mittlerweile stark dazu, gleich 2160p zu nehmen, wenn die Interpolation tatsächlich so gut funktioniert.

Größtes Problem scheint ja noch die Freesync-Range zu sein, die meist nur bis 40 Hz geht. Fondness meint bei dem von ihm empfohlenen LG geht mit Custom Resolution bis 33 Hz. Aber effektiv ist das ja Übertakten, funktioniert das wirklich mit jedem Monitor?

Was passiert wenn man die Freesync-Range verlässt, hat man dann alle Nachteile von VSync off oder gibt es beim Übergang noch weitere Nebenwirkungen?

Und wie gut funktioniert die Skalierung von Windows 10 und Programmen? Gibt es da immer noch so große Probleme?

Wie schon gesagt, IMO ist der LG 27MU67-B die beste Wahl. Du bist völlig flexibel was die Auflösung betrifft, kannst je nach Spiel in 1080p, 1440p oder 4K spielen. Mittels einer kurzen Einstellung in CRU geht der FreeSync-Range von 33-60Hz, alleine hier im Forum x-fach bestätigt, läuft bei jedem ohne Probleme. Wenn du mit VsyncOn spielst, fällst du dann unter 33fps relativ sanft auf 30 gesyncte Hz, erst unter 30 würde es dann problemtaisch werden, aber das ist ohnehin nicht mehr flüssig, von daher eher ein theoretisches Problem. Ich bin mit meinem LG zu 99,9% immer im FreeSync-Range und haben bei 60fps einfach eine fps-Limiter eingeschaltet.

Zudem kommt der LG durch die Bank bei allen Tests und User-Reviews sehr gut weg, der ASUS MG279Q ist eine Lotterie.

Ich dachte andersherum: Wenn ich sowieso nur maximal 60fps erreiche, würden 60Hz mit Freesync reichen und 144Hz mit Freesync keine nennenswerten Vorteile mehr bringen.


Richtig.

Lurtz
2016-04-03, 09:49:40
Ist VSync bei Freesync nicht sowieso off?

Ich verstehe das alles nicht, gibt es irgendwo einen guten Grundlagenartikel?

Und wieso gibt es keine vernünftigen 1080p-Monitore mit Freesync, nur 1440p? Ich glaube ich kaufe einfach gar nichts :ufinger:

fondness
2016-04-03, 09:58:05
Ist VSync bei Freesync nicht sowieso off?


Außerhalb des FreeSync-Ranges deines Monitors kannst du einstellen, ob du VSync On oder Off willst.


Ich verstehe das alles nicht, gibt es irgendwo einen guten Grundlagenartikel?

Leider sind viele Artiekl nicht mehr wirklich akruell, was willst du denn wissen?


Und wieso gibt es keine vernünftigen 1080p-Monitore mit Freesync, nur 1440p? Ich glaube ich kaufe einfach gar nichts :ufinger:

Naja, viele wollen eben 144Hz Monitore und da wird alles außer TN schwierig. Bzw stribt 1080p außer in der Billigschiene schön langsam.

Hübie
2016-04-03, 10:06:24
Wie schon gesagt, IMO ist der LG 27MU67-B die beste Wahl. Du bist völlig flexibel was die Auflösung betrifft, kannst je nach Spiel in 1080p, 1440p oder 4K spielen. Mittels einer kurzen Einstellung in CRU geht der FreeSync-Range von 33-60Hz, alleine hier im Forum x-fach bestätigt, läuft bei jedem ohne Probleme. Wenn du mit VsyncOn spielst, fällst du dann unter 33fps relativ sanft auf 30 gesyncte Hz, erst unter 30 würde es dann problemtaisch werden, aber das ist ohnehin nicht mehr flüssig, von daher eher ein theoretisches Problem. Ich bin mit meinem LG zu 99,9% immer im FreeSync-Range und haben bei 60fps einfach eine fps-Limiter eingeschaltet.

Zudem kommt der LG durch die Bank bei allen Tests und User-Reviews sehr gut weg, der ASUS ist eine Lotterie MG279Q.


Das ist auch das was ich so lese / höre. Der scheint deutlich weniger Schwankung in der Fertigung zu haben und kann gut interpolieren. Also give it a try. Wenn ders für den Preis net packt, dann wohl keiner. ;)

Noebbie
2016-04-03, 10:09:48
Der LG hat dann wieder nur 60Hz.

Aber irgendwo steckt man eben immer zurück.

Hübie
2016-04-03, 10:10:29
Na ja aber er kennt halt nicht mehr und vielleicht ist er nicht so ein hi-senser.

Lurtz
2016-04-03, 10:12:23
Na ja aber er kennt halt nicht mehr und vielleicht ist er nicht so ein hi-senser.
Ne, gar nicht ;) Zudem merke ich dass ich mit der Zeit immer weniger Shooter spiele.
Ich weiß gar nicht mehr wann ich das letzte Mal einen klassischen Shooter gespielt habe, Wolfenstein habe ich nach ein par Stunden abgebrochen...

Hübie
2016-04-03, 10:15:49
Dann rückt dies Anforderung doch eh in den Hintergrund. Wie gesagt schließe ich mich da fondness an.

fondness
2016-04-03, 10:18:49
Wie schon gesagt, unter 60fps ist es mit FreeSync im Sync-Bereich vollkommen egal, ob der Monitor 144Hz kann oder nicht.

Noebbie
2016-04-03, 10:20:33
Wie schon gesagt, unter 60fps ist es mit FreeSync vollkommen egal, ob der Monitor 144Hz kann oder nicht.

So lange man die 60fps halten kann und keine Probleme mit vsync hat. Ein Sprung auf von 60 auf 30 kann "weh tun".

fondness
2016-04-03, 10:22:06
So lange man die 60fps halten kann und keine Probleme mit vsync hat. Ein Sprung auf von 60 auf 30 kann "weh tun".

Nein, ich spreche von FreeSync, da brauchst du keine 60 fps halten, der Monitor ist im gesamten Range durchgehend gesynct. Ich habe zB nur bei 60 fps eine Limiter eingeschaltet und fertig.

Noebbie
2016-04-03, 10:22:57
Nein, ich spreche von FreeSync, da brauchst du keine 60 fps halten, der Monitor ist im gesamten Range durchgehend gesynct.

Dann verstehe ich dich nicht.

Edit. Ah ok jetzt...

fondness
2016-04-03, 10:24:13
Dann verstehe ich dich nicht.

Was ich sagen wollte: Nur wenn du mit >60 fps spielst, bringt dir ein Monitor mit >60Hz etwas mit FreeSync.

Ich bin zB jemand, der meist maximale IQ bevorzugt und keine >60 fps braucht, deshalb reichen mit die 60 Hz völlig. Auch wenn mehr natürlich immer schön wäre, aber man kann eben nicht alles haben^^

dargo
2016-04-03, 10:36:18
Ist VSync bei Freesync nicht sowieso off?

Du musst dich von dem alten Vsync bei VRR verabschieden. Bei Vsync On und Freesync verhält sich dein Monitor nur wie dein Alter ohne VRR wenn du die maximale Refreshrate von deinem Bildschirm erreichst oder die min. Freesync Frequenz. Letzteres dann allerdings nur wenn dein Bildschirm kein LFC kann.

sun-man
2016-04-03, 11:18:12
Der LG hat dann wieder nur 60Hz.

Aber irgendwo steckt man eben immer zurück.
Was bedeutet das? Iterpoliert geht kein Freesync?

Ich frage halt auch weil es mich interessiert. Aber für 4k ist die 390 halt ne Ecke zu Schwach, je nach Game sind 1440p OK.

Mortalvision
2016-04-03, 11:30:42
Sorry, was ist maximale IQ bei monitoren?

Lurtz
2016-04-03, 11:34:54
Du musst dich von dem alten Vsync bei VRR verabschieden. Bei Vsync On und Freesync verhält sich dein Monitor nur wie dein Alter ohne VRR wenn du die maximale Refreshrate von deinem Bildschirm erreichst oder die min. Freesync Frequenz. Letzteres dann allerdings nur wenn dein Bildschirm kein LFC kann.
Achso, das heißt wenn ein Spiel mehr als 60fps erzielt und ich keinen Framelimiter an habe, muss ich mich ab mehr als 60fps wieder für den Input Lag von Vsync oder Tearing entscheiden?

fondness
2016-04-03, 11:35:32
Achso, das heißt wenn ein Spiel mehr als 60fps erzielt und ich keinen Framelimiter an habe, muss ich mich ab mehr als 60fps wieder für den Input Lag von Vsync oder Tearing entscheiden?

Genau.

Was bedeutet das? Iterpoliert geht kein Freesync?

Ich frage halt auch weil es mich interessiert. Aber für 4k ist die 390 halt ne Ecke zu Schwach, je nach Game sind 1440p OK.

FreeSync geht natürlich auch mit interpolierten Bild. 4K zahlt sich IMO alleine schon für Desktop und ältere Spiele aus, dazu kannst du durch die gute Interpolation in neuen Spielen zwischen 1080p und 1440p faktisch frei wählen. Und nächstes Jahr dann mit einer 14nm Grfaikkarte geht vielleicht auch 4K in neuen Spielen. :)

Lurtz
2016-04-03, 11:49:57
Genau.
Hm, das habe ich als VSync-on-Spieler gar nicht bedacht.

fondness
2016-04-03, 11:54:19
Deshalb nehme ich auch einen fps-Limiter^^

Lurtz
2016-04-03, 12:01:29
Deshalb nehme ich auch einen fps-Limiter^^
Wenn er denn funktioniert.
Bei der UT alpha bspw. sorgt der ingame-Limiter für Stuttering und den vom Treiber kriege ich nicht zum Laufen. Auf kleinen Maps kriegt man aber selbst auf Epic locker über 100fps...

Jetzt bin ich wieder total verunsichert. Vielleicht sollte ich doch noch warten. Aber eigentlich habe ich die Karte ja auch wegen der Freesync-Funktionalität gekauft :frown:

dargo
2016-04-03, 12:08:45
Wenn er denn funktioniert.
Bei der UT alpha bspw. sorgt der ingame-Limiter für Stuttering und den vom Treiber kriege ich nicht zum Laufen.
Vergiss bei Freesync alle Limiter. Die funktionieren mal mehr, mal weniger schlecht. Das einzige was am besten funktioniert ist der treiberinterne Limiter. Der limitiert knapp unterhalb der max. Frequenz. Bei 60Hz solltest du also mit 60fps limitieren. Ob der Treiberlimiter wirklich in jedem Spiel keine negativen Auswirkungen auf Frametimes hat kann ich nicht genau sagen. Das müsste ich genauer untersuchen. Ich nutze den dank 90+Hz einfach zu selten.

btw.
Der Treiberlimiter funktioniert noch nicht unter DX12. Gleiches gilt aber auch für Freesync.

PS: warum funzt FRTC bei dir nicht? :confused:

fondness
2016-04-03, 12:22:13
Wenn er denn funktioniert.
Bei der UT alpha bspw. sorgt der ingame-Limiter für Stuttering und den vom Treiber kriege ich nicht zum Laufen. Auf kleinen Maps kriegt man aber selbst auf Epic locker über 100fps...

Jetzt bin ich wieder total verunsichert. Vielleicht sollte ich doch noch warten. Aber eigentlich habe ich die Karte ja auch wegen der Freesync-Funktionalität gekauft :frown:

Hm, UT alpha habe ich nicht. Aber entweder der Treiberlimiter, oder ingame oder über den Riva Tuner Statistics Server habe ich bis jetzt noch in jedem Spiel einen Limiter gefunden, der auch funktioniert. Aber zugegebenermaßen spiele ich längst nicht jedes Spiel, da ist dargo wohl der bessere Ansprechpartner.

Lurtz
2016-04-03, 12:44:27
Sorry, Spiel lief im borderless window :facepalm: Im Fullscreen läuft es butterweich mit FRTC.

Problematisch dürften Spiele mit Unity-Engine sein, die unterstützen oft gar keinen echten Fullscreen...

sun-man
2016-04-03, 12:48:17
Genau.



FreeSync geht natürlich auch mit interpolierten Bild. 4K zahlt sich IMO alleine schon für Desktop und ältere Spiele aus, dazu kannst du durch die gute Interpolation in neuen Spielen zwischen 1080p und 1440p faktisch frei wählen. Und nächstes Jahr dann mit einer 14nm Grfaikkarte geht vielleicht auch 4K in neuen Spielen. :)
Danke:smile:

dargo
2016-04-03, 13:03:00
Problematisch dürften Spiele mit Unity-Engine sein, die unterstützen oft gar keinen echten Fullscreen...
Dann muss sich halt der Entwickler was einfallen lassen. Siehe Microsoft mit dem Mai-Update. ;)

Mr.Ice
2016-04-03, 13:09:03
Freesync ist ja AMD ? und G-Sync ist NV.

gibt es auch ein Monitor der beides kann ?

Wenn ich es richtig versteh kaufe ich mir ein G-sync Monitor muss ich mir immer Nv Karten kaufen bzw wenn ich halt G-sync nutzen möchte ?

Lurtz
2016-04-03, 13:25:39
Dann muss sich halt der Entwickler was einfallen lassen. Siehe Microsoft mit dem Mai-Update. ;)
Ich glaube da kann man lange drauf warten. Die Unity-Engine ist doch seit Jahren eine Katastrophe, Firewatch lief selbst auf der PS4 beschissen. Irgendsoein Indie-Early-Access-Entwickler investiert da keine Zeit irgendwie Freesync zu ermöglichen.

sun-man
2016-04-03, 14:36:48
Freesync ist ja AMD ? und G-Sync ist NV.

gibt es auch ein Monitor der beides kann ?

Wenn ich es richtig versteh kaufe ich mir ein G-sync Monitor muss ich mir immer Nv Karten kaufen bzw wenn ich halt G-sync nutzen möchte ?
Beides gibt's afaik nicht. Der Rest ist richtig

aufkrawall
2016-04-03, 16:08:11
Ich glaube da kann man lange drauf warten. Die Unity-Engine ist doch seit Jahren eine Katastrophe, Firewatch lief selbst auf der PS4 beschissen. Irgendsoein Indie-Early-Access-Entwickler investiert da keine Zeit irgendwie Freesync zu ermöglichen.
Ich mache bei jedem Unity-Spiel auch recht schnell Alt + F4, irgendwas ist immer komplett fürn Arsch.

Ansonsten: Ein weiterer MSI 390 Jünger, unsere Macht wächst. :D

Bei FreeSync darf AMD mal noch ein paar Treiber-Updates bringen, damit es mit DX12 oder in-game fps-Limitern keine Einschränkungen mehr gibt.

Lurtz
2016-04-04, 13:13:01
Also im Computerbaseforum wird beim LG explizit negativ von unscharfer 1080p-Skalierung gesprochen. Der Prad-Test lässt sich über den Punkt überhaupt nicht aus.

Bei Asus soll das bspw. deutlich schärfer aussehen.

dargo
2016-04-04, 13:16:55
Vielleicht fällt dir damit die Entscheidung etwas leichter? :D
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10991737&postcount=68

Gut... die 23" sind schon bissel klein. Aber den Rest kann ich nun wunderbar je nach Leistungsbedarf in Spielen nutzen. =)

Lurtz
2016-04-04, 13:19:59
Vielleicht fällt dir damit die Entscheidung etwas leichter? :D
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10991737&postcount=68

Gut... die 23" sind schon bissel klein. Aber den Rest kann ich nun wunderbar je nach Leistungsbedarf in Spielen nutzen. =)
Heißt du betreibst deinen Monitor mit schwarzen Balken? :ugly:

dargo
2016-04-04, 13:43:43
Yes. :)

sun-man
2016-04-04, 14:50:33
Beim luxx ist bei dem lg auch von schlechter 1080p Optik die Rede. Keine Ahnung wie schlimm das im gaming ware

Lurtz
2016-04-04, 14:51:26
Also im Moment tendiere ich dazu gar nichts zu kaufen. Mir gefällt das alles nicht und 500-600€ für einen unbefriedigenden Monitor ist einfach viel zu viel.

Muss ich weiter mit der VSync-Krücke leben. 24", 1080p, IPS und Freesync hätte ich gerne, aber das scheint nicht bedient zu werden.

Dr.Doom
2016-04-04, 15:46:15
Heißt du betreibst deinen Monitor mit schwarzen Balken? :ugly:
Yes. :)
Dr. Zoom is not amused. :frown:

sun-man
2016-04-04, 16:48:28
Also im Moment tendiere ich dazu gar nichts zu kaufen. Mir gefällt das alles nicht und 500-600€ für einen unbefriedigenden Monitor ist einfach viel zu viel.

Muss ich weiter mit der VSync-Krücke leben. 24", 1080p, IPS und Freesync hätte ich gerne, aber das scheint nicht bedient zu werden.
Das Problem ist sicher eher die Größe. Der LG mit seinen 4K sieht native sicher grandios aus.

Lurtz
2016-04-04, 16:52:43
Bestimmt, wobei es auch Leute gibt, die sagen dass ihnen 2160p @27" generell zu viel sind und man mit Skalierung auch nicht mehr Fläche als mit 1440p hat...

aufkrawall
2016-04-04, 16:57:00
Für Spiele gibts imho kein zu groß, ich hab den 27"er nur wegen Desktop/Video ganz hinten auf dem Tisch stehen. Bei Spielen geh ich ziemlich nah ran und da könnten es auch 30" sein.

21:9@27" find ich aber ziemlich schlecht, es leuchten einfach zu wenig Pixel/zu wenig Fläche für eine angemessene Immersion.

Lurtz
2016-04-04, 16:58:54
War missverständlich, ich meinte dass 2160p eine zu hohe Auflösung für 27" sind, jedenfalls auf dem Desktop.

aufkrawall
2016-04-04, 17:03:32
Die meisten Programme sollen mittlerweile mit Windows skalieren.
Könntest du ja mit VSR in etwa ausprobieren, bei mir geht das nicht. :freak:
Ich hab da keine persönliche Erfahrung mit. Als ich noch DSR hatte, ist mir das nicht eingefallen, das mal ernsthaft auszuprobieren.

Lurtz
2016-04-04, 17:12:08
Bei Amazon ist man sich auch nicht einig ob 1080p nun sehr scharf oder sehr schwammig sind:
http://www.amazon.de/forum/-/Tx3Q5BRU8ZIWG2U/ref=ask_ql_ql_al_hza?asin=B00WR921FO

Hübie
2016-04-04, 17:23:52
Teste doch einfach selber. Die machen dich vogelig. Vielleicht hat der Kollege da das interne Sampling von SoM benutzt. Angaben zur Graka und Einstellungen haben die eh nicht gemacht. Also alles sehr vage. Man kann so etwas auch direkt vereinbaren. Im Laden dürfte man ja auch testen. ;)

Lurtz
2016-04-04, 17:27:53
Saturn hat ihn vor Ort. Aber da brauche ich gar nicht hin, weil sie keine brauchbaren Zuspieler haben und Testen zuhause darf man eh nur mit Preisabschlag.

sun-man
2016-04-04, 17:31:19
Für Spiele gibts imho kein zu groß, ich hab den 27"er nur wegen Desktop/Video ganz hinten auf dem Tisch stehen. Bei Spielen geh ich ziemlich nah ran und da könnten es auch 30" sein.

21:9@27" find ich aber ziemlich schlecht, es leuchten einfach zu wenig Pixel/zu wenig Fläche für eine angemessene Immersion.

Jo. Aber Freesync hin oder her. Ne 390 schafft das glaub ich kaum

aufkrawall
2016-04-04, 17:44:05
Spiele kann man ja notfalls in WQHD spielen und man würde immer noch von der händisch eingerichteten 33Hz FreeSync-Untergrenze profitieren.
Ich würd aber erst noch warten, ob oder was da noch per Treiber für FreeSync kommt. Im Mai muss wegen der UWP-Spiele ja eh noch was kommen.

fondness
2016-04-04, 18:49:18
Also im Computerbaseforum wird beim LG explizit negativ von unscharfer 1080p-Skalierung gesprochen. Der Prad-Test lässt sich über den Punkt überhaupt nicht aus.

Bei Asus soll das bspw. deutlich schärfer aussehen.

Man kann beim LG im OSD sogar den Schärfegrad einstellen bei der Interpolation. Wenn einem das im höchsten Schärfegrad noch unscharf vorkommt, dann hat man IMO was in den Augen. Das ist beim höchsten Schärfegrad vollkommen überschärft^^

sun-man
2016-04-05, 07:56:13
Ich lese gerade das hier -> http://www.hardwareluxx.de/community/f111/lg-27mu67-b-4k-ultrahd-monitor-gaming-allrounder-mit-ah-ips-und-freesync-1104232.html

http://www.heise.de/preisvergleich/lg-electronics-27ud68-w-a1395285.html

DÜNNER Rahmen und nicht so ne Fettflosse :D

Lurtz
2016-04-05, 09:08:24
Sonst gibts aber keine Unterschiede, oder? 40€ mehr für einen schöneren Rahmen sind mir ehrlich gesagt zu viel :ugly:

sun-man
2016-04-05, 09:17:56
Eine bessere bzw überarbeitete Firmware kann jetzt auch nicht gerade schaden. MiniDP ist auch nicht mit dabei.

Lurtz
2016-04-05, 09:24:35
Naja, kommt drauf an ob die Firmware was bringt. Mehr Freesync-Range ja offensichtlich nicht.

Lurtz
2016-04-05, 10:07:18
Die Modelle 27UD68-P und 27UD68-W unterscheiden sich praktisch nur im Standfuß, der beim W-Modell deutlich weniger Einstellmöglichkeiten bietet. Der 27UD88-W bietet laut Datenblatt die umfangreichste Ausstattung, wozu auch USB-Anschlüsse zählen.
http://www.computerbase.de/2016-03/monitore-dreimal-ultra-hd-ips-und-freesync-auf-27-zoll-von-lg/

sun-man
2016-04-05, 12:10:51
Ich steh gerade vor dem nachfolger. Wie geil. 549 in weiß. Joystick als Bedienung unten mittig und das nachschärfen per Monitor geht sogar relativ gut. Ist in 1080p durchaus in Ordnung

Lurtz
2016-04-05, 12:27:18
Ich habe mir jetzt mal den LG 27MU67-B bestellt. Muss mal was sehen um weiter entscheiden zu können.

Da wird ein DisplayPort-zu Mini-DisplayPort-Kabel mitgeliefert. Ist das ok oder bräuchte ich ein DisplayPort-zu--DisplayPort-Kabel?

fondness
2016-04-05, 12:28:18
Ich steh gerade vor dem nachfolger. Wie geil. 549 in weiß. Joystick als Bedienung unten mittig und das nachschärfen per Monitor geht sogar relativ gut. Ist in 1080p durchaus in Ordnung

Sag ich doch^^
1440p sieht ebenfalls sehr gut aus IMO, da braucht man nicht mal sonderlich nachschärfen.

Da wird ein DisplayPort-zu Mini-DisplayPort-Kabel mitgeliefert. Ist das ok oder bräuchte ich ein DisplayPort-zu--DisplayPort-Kabel?

Das ist genau so gut oder schlecht wie ein DP-zu-DP-Kabel. Du schließt einfach das an was du am PC hast, also DP oder mini-DP und das andere Ende am Monitor, der hat ja ebenfalls DP- und minDP-Anschlüsse.

sun-man
2016-04-05, 12:36:45
Austeller... 1 Woche gelaufen. 520€. Gekauft

Lurtz
2016-04-05, 12:37:00
Das ist genau so gut oder schlecht wie ein DP-zu-DP-Kabel. Du schließt einfach das an was du am PC hast, also DP oder mini-DP und das andere Ende am Monitor, der hat ja ebenfalls DP- und minDP-Anschlüsse.
Ok, danke. Wusste nicht ob es von DP zu miniDP Unterschiede gibt.

Bin schon gespannt :)

Lurtz
2016-04-05, 12:37:24
Austeller... 1 Woche gelaufen. 520€. Gekauft
Den 27UD68-P?

sun-man
2016-04-05, 12:41:04
Ja. Den Nachfolger... Aber in weiß. Ist eh nur hinten weiß

Lurtz
2016-04-05, 12:44:03
Ok, dann können wir ja zeitgleich von unseren Eindrücken berichten :D Bzw. kommt meiner frühestens Donnerstag, hab den Liefertermin morgen um ein paar Minuten verpasst :(

sun-man
2016-04-05, 13:18:36
Kann man diesen "The Division" Code irgendwie verkaufen? Ist nix für mich

Hübie
2016-04-05, 13:26:28
Wenn du den noch nicht verwendet hast sollte es ohne weiteres gehen. Du musst das Prozedere soweit durchschreiten, dass du den Gamecode hast. Ich hätte übrigens Interesse. :smile:

sun-man
2016-04-05, 14:29:13
Ah, OK. Ist jetzt hier ab OT. Muss mal gucken was man da so verlangen kann das beide Seiten zufrieden sind. Kannst Dich gerne per PN melden mit nem Angebot, Paypal hab ich und bekannt bin ich ja grundsätzlich auch :D. Erstmal aufbauen

sun-man
2016-04-05, 14:57:19
Das gibts doch wohl nicht. Der Code für The Division wurde raus genommen. Die Tüte ist offen und nix mehr drin. So geb ich den wohl zurück - 520€ hin oder her

Lurtz
2016-04-05, 15:00:47
Das gibts doch wohl nicht. Der Code für The Division wurde raus genommen. Die Tüte ist offen und nix mehr drin. So geb ich den wohl zurück - 520€ hin oder her
Rofl. Diese miesen Diebe ;)

Hübie
2016-04-05, 15:11:14
Da hat der Händler aber ebenso seine Pflicht verletzt. Manchmal frag ich mich echt in welcher Gesellschaft man lebt. :freak:

Noebbie
2016-04-05, 15:17:48
Vllt gibt dir der Händler ja eine Division DVD Box dafür.

sun-man
2016-04-05, 15:29:24
Muah, das fuckt mich jetzt aber etwas ab. Warum legen die ein HDMI Kabel rein? Damit scheint kein Freesync zu gehen - und ich hab nur MiniDP Kabel. Meine Fresse

sun-man
2016-04-05, 15:56:30
ROFL...der Monitor pfeifft ganz leise sobald er an ist

anorakker
2016-04-05, 16:40:03
das wär ein böser fail, wenn es kein defekt ist. die neuen lgs standen eigentlich aktuell ganz oben auf meiner kandidaten liste für das upgrade meines alten eizo s2110w....

sun-man
2016-04-05, 17:23:40
Ich hab den zurück gegeben und jetzt den 27MU67 hier stehen. Ich bin echt zu doof. Keine Ahnung wie man den Höhenverstellt und die AMD Treiber geben Freesync auch nicht frei (MiniDP Kabel ist in Verwendung)

*Klammer raus ziehen und nicht drücken

dargo
2016-04-05, 17:26:14
Ich hab den zurück gegeben und jetzt den 27MU67 hier stehen. Ich bin echt zu doof. Keine Ahnung wie man den Höhenverstellt und die AMD Treiber geben Freesync auch nicht frei (MiniDP Kabel ist in Verwendung)

*Klammer raus ziehen und nicht drücken
Wie meinst du das? Du musst natürlich Freesync im Treiber und Bildschirm aktivieren. Ich hoffe das weißt du?

sun-man
2016-04-05, 17:36:43
Jaein....im Monitor haben ich soeben gefunden. Mein Fehler, im Treiber hieß es nur "geht nicht".

Die angepassten Treiber gibts doch sicher auch irgendwo? Ich hab Q&D nur irgendwas mit 3 Tools gefunden die man nutzen kann um den Treiber anzupassen.

dargo
2016-04-05, 17:45:44
Du brauchst am Treiber nichts ändern. Einfach CRU starten, neue Freesync-Range eintragen und neustarten.

Jaein....im Monitor haben ich soeben gefunden. Mein Fehler, im Treiber hieß es nur "geht nicht".

Kann auch schlecht wenn der Bildschirm kein Freesync meldet. :tongue:

fondness
2016-04-05, 17:46:11
Du musst den Treiber nicht mehr anpassen....einfach in CRU einstellen und fertig.


/Edit: So sieht das bei meinem 27MU67 aus, im roten Kästchen steht der FreeSync-Range:

http://s27.postimg.org/die5bhkwz/Clipboard01.jpg (http://postimage.org/)

sun-man
2016-04-05, 18:00:10
OK, Danke Euch. Also unter Win10 nur das eintragen, OK und Restart64 tippen?

Ich hab die LG Ultra HD Treiber GSM5B09

fondness
2016-04-05, 18:01:37
Richtig. Eintragen, OK, Neustarten, fertig. Der neue Range sollte dann auch im AMD-Treiber angezeigt werden, wenn du mit der Maus über die FreeSync Option fährst.

Hübie
2016-04-05, 18:05:25
Mal so doof gefragt: Weshalb macht AMD das nicht bzw. gibt dies seinen Partnern so nicht vor? Hat man irgendwelche Nachteile mit 33-61 Hz? :confused: Wie ist das eigentlich bei G-Sync? Muss man das auch ändern?

sun-man
2016-04-05, 18:07:56
Danke sehr - perfekt, das passt. Nur das mein Treiber eben Ultra HD heisst. Nunja.

Muss ich sonst noch etwas beachten? Bei den Bildanpassungen tue ich mich immer etwas schwer. 100% Helligkeit ist natürlich zu viel irgendwie. Da ist ja so viel. Super Resolution+ , irgendein Schwarzwert beim zocken. Da gabs doch irgendwo ne Datenbank....Hmmm. Mal suchen.

Freesync - heisst VSync off?

fondness
2016-04-05, 18:10:58
Ja ich habe mit den LG-Treiber erspart, deshalb heißt das Ding bei dir wohl Ultra HD.

Ich habe Helligkeit 30%, Kontrast 70%, Gamma 2,4 (nur so liefert der Schirm korrektes Gamma von 2,2(!)), RGB (50,49,50). Das andere kannst du auf default lassen.

Freesync - heisst VSync off?

Wie du willst, die VSync-Einstellungen gelten aber nur außerhalb des Sync-Ranges des Monitors.


Mal so doof gefragt: Weshalb macht AMD das nicht bzw. gibt dies seinen Partnern so nicht vor? Hat man irgendwelche Nachteile mit 33-61 Hz? :confused: Wie ist das eigentlich bei G-Sync? Muss man das auch ändern?

FreeSync ist ein offener Standard, die Hersteller können also den Range so festlegen wie sie wollen. Bei diesem LG ist eben bekannt, dass deutlich mehr geht wie vom Hersteller freigegeben, nämlich bis zu 33Hz minimum statt den 40 Hz die LG hinterlegt hat. Bei G-Sync kannst du das nicht ändern, da der Standard geschlossen ist. Die meisten G-Sync-Monitore haben einen unteren Range im Bereich 33-36Hz AFAIK, das wird irgendwo im NV-Modul geregelt.

Lurtz
2016-04-05, 18:18:15
Was passiert wenn man weniger als 33Hz einträgt?

fondness
2016-04-05, 18:19:05
Gibt Bildfehler, kannst du aber gerne Probieren, vielleicht hast du Glück. :D

Lurtz
2016-04-05, 18:19:34
Gibt Bildfehler, kannst du aber gerne Probieren, vielleicht hast du Glück. :D
Macht aber an der Hardware nichts kaputt?

dargo
2016-04-05, 18:20:38
Mal so doof gefragt: Weshalb macht AMD das nicht bzw. gibt dies seinen Partnern so nicht vor? Hat man irgendwelche Nachteile mit 33-61 Hz? :confused:
Bei einem offenen Standard gibt es keine Vorgaben von einem IHV.

Zu der erweiterten Range... es gibt leider keine Langzeiterfahrungen damit. Keiner kann sagen wie sich dieses "OC" auf den Scaler oder das Panel langfristig auswirkt. Frag Fondness & Co nochmal in paar Jahren. ;)

sun-man
2016-04-05, 18:22:32
Puh, das Bild wird so aber doch arg "gelblich" hab ich so das Gefühl. Was ist mit DFC und Super Resolution?

Die Einstellungen sind echt fies fummelig. Im Nachfolger geht das per Joystick unten am Monitor sehr sehr viel einfacher. Zudem greift das Tool "OnScreen Control" auf sehr viel mehr Möglichkeiten zu. Bei dem jetzigen ist das ja nur ganz rudimentär.

fondness
2016-04-05, 18:22:48
Macht aber an der Hardware nichts kaputt?

Also meiner geht noch und ich habe viel probiert. :D
Spaß beiseite, es kann dir natürlich niemand Garantie für irgendwas geben. Aber es gibt nach wie vor keinen einzigen Bericht, dass bei irgendwem die Hardware Schaden genommen hätte. Streng genommen "übertaktest" du natürlich die Spezifikationen des Hersteller.

Hübie
2016-04-05, 18:38:01
Hm. Okay. Klingt jetzt aber nicht dramatisch. Danke für die Antworten.

sun-man
2016-04-05, 20:09:22
Alos nach etwas Zeit ist die schiere Größe ziemlich gewöhnungsbedürftig.

150% unter Win10 sind eingestellt.
Beispiel: Das PDF zum Monitor in Foxit? Das Inhaltsverzeichnis ist im Grunde kaum lesbar und die Suchmaske ist extrem winzig.
Die Schrift in Win10 (rechtsklick auf irgendwas) oder auch die Schrift hier im Forum wirken unsauber - das im Forum kann aber auch an Chrome liegen.

Lurtz
2016-04-05, 20:12:37
Hm, du machst mir die Vorfreude kaputt :D

sun-man
2016-04-05, 20:55:27
Es ist halt die Größe....

Trackmania Turbo sieht derartig geil aus - überfordert mich aber bei der Größe fast ein wenig.
Subnautica hat keinen Vsync
Diable 3: Fantastisch - dafür ist aber der Battlenet Starter im Grunde unbenutzbar weil VIEL zu klein. Keine Ahnung wie man das einstellen soll. Keine Ahnung ob das im Screenshot so rüberkommt. Den musste ich verkleiner da alleine der Ausschnitt zu groß war.
Witcher 3: in 4k auf meinem System hart an der Untergrenze mit 30fps....in 1440 sieht es auch noch sehr gut aus und spielt sich fantastisch.
Partition Minitool? Die Werbung unten rechts ist unlesbar klein
Div Installationsmenüs wirken unsauber da zu klein

Die Schrift macht mir Sorgen. Mich stört das viele Schriften einfach so wnzig sind beim normalen Arbeiten

sun-man
2016-04-06, 08:05:05
TheBat - gerade noch benutzbar
FastStone Image Viewer - im Grunde unbrauchbar da unlesbar klein. Nutze es zum Glück nur zum Download der Images.
Nexus Dock - skaliert super

Update: Dem 68'er liegt wohl normalerweise ein DP Kabel bei. Dazu komtm aber noch das man den 68'er scheinbar nicht nach vorne kippen kann. Hatte das gestern kurz versucht aber noch keine Beachtung geschenkt.

Lurtz
2016-04-06, 08:30:01
Echt schlimm dass so viele Software noch so schlecht skaliert. Darunter auch fast alle Spieleclients, gerade die sollten es eigentlich besser machen.

sun-man
2016-04-06, 10:03:05
Naja, 4k ist letztendlich so wenig verbreitet das es halt so ne Sache ist. Ritlabs z.B. - bezahlter Mailclient.
"Thank you for your email. We are aware of the fact that The Bat!'s
interface icons cannot be scaled and look small, however, at this
point there is no solution, unfortunately. We will look for a
solution, however, we cannot provide you with the exact date."

Lurtz
2016-04-06, 10:10:57
Trotzdem ist HighDPI jetzt nicht gerade eine neue Entwicklung und seit Win8 sind auch alle Voraussetzungen vorhanden um für Windows entsprechend zu entwickeln.

sun-man
2016-04-06, 10:29:08
Da ich noch krank geschrieben bin....was mich gerade am allermeisten anzickt ist Windows.
Spiele ich ein Spiel in 1440p an und gehe auf den Desktop zurück sind alle Icons am linken Rand. Ich kann die noch so oft sortieren. Das nervt mal richtig

sun-man
2016-04-06, 17:38:49
Tja, bleibt dabei. Alle Icons gehen nach nem Standby nach Links - egal wie schön ich die vorher angeordnet habe. Extrem nervig
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=572204

Lurtz
2016-04-06, 18:39:37
Gut dass mein Desktop entweder leer oder eine unsortierte Unordnung ist.

sun-man
2016-04-06, 18:59:00
Übrigens hat das Battlenet bei mir heute ein Update gezogen und seitdem ist der Starter les- und nutzbar. Scheinbar wird das angepasst.

Lurtz
2016-04-06, 20:18:52
Übrigens hat das Battlenet bei mir heute ein Update gezogen und seitdem ist der Starter les- und nutzbar. Scheinbar wird das angepasst.
Cool, gutes Timing :D Steam und Co. sollten da mal nachziehen.

fondness
2016-04-06, 20:39:43
Battlenet hat bei mir noch nie Probleme gemacht. Entweder haben wir unterschiedliche Ansichten was "les- und nutzbar" ist, oder bei dir hat da vorher was nicht gestimmt. Ich verstehe auch nicht, warum du den Battlenet-Starter bei deinem Screen auf Vollbild skalierst. Auch Steam ist mehr als groß genug.

/Edit: Okay nach dem Update wurde der Battlenet-Starter deutlich vergrößert, fand ich aber nicht notwendig, wirkt jetzt fast zu groß, ich bin doch nicht blind.^^

Lurtz
2016-04-07, 13:50:40
Sun-man, behälst du den 27MU67-B jetzt oder holst du einen nicht fiependen 27UD68?

sun-man
2016-04-07, 14:08:28
Ich denke ich behalte den. Das Display soll ja ein und dasselbe sein. Der schmale Rand sieht zwar unheimlich gut aus, aber der Monitor steht eh 100% im PC Zimmer. Nen zweiten daneben werden ich mir wohl nicht anschaffen :D

Vermute mal MM würde auch etwas angepisst sein wenn ich den nochmal zurückbringe. Weiß gar nicht ob die das machen würden.

Battlenet hat bei mir noch nie Probleme gemacht. Entweder haben wir unterschiedliche Ansichten was "les- und nutzbar" ist, oder bei dir hat da vorher was nicht gestimmt. Ich verstehe auch nicht, warum du den Battlenet-Starter bei deinem Screen auf Vollbild skalierst. Auch Steam ist mehr als groß genug.

/Edit: Okay nach dem Update wurde der Battlenet-Starter deutlich vergrößert, fand ich aber nicht notwendig, wirkt jetzt fast zu groß, ich bin doch nicht blind.^^
Ne, also vorher war das irgendwie nix. VIEL zu klein, auch wenn ich es so an sich nicht brauche.

Lurtz
2016-04-07, 20:29:15
Hm, sehr durchwachsenes Erlebnis bisher.

Manche Spiele kommen mit dem Monitor gar nicht klar. In Diablo 3 habe ich mit 1080p gestartet erst mal keinen Mauszeiger gesehen und musste dann blind die Auflösung einstellen.
Titan Quest lässt sich gar nicht zum Laufen zu bewegen, der Mauszeiger bleibt eingefroren und macht gar nichts. Kann der Monitor nichts dafür, ist trotzdem doof.

Hat man ein Spiel in 1080/1440p gespielt, sind sämtliche Fenster auf dem Desktop verkleinert und verschoben.

Freesync ist eine herbe Enttäuschung und scheint in Spielen mit Topdown-Kamera überhaupt nicht zu funktionieren.
Bei Diablo 3 wabert das Bild um die gesamte Spielfigur, keineswegs mit VSync zu vergleichen. Bei Grim Dawn hat man permanent einen Tearingstreifen im unteren Bilddrittel. Ebenfalls nicht mit VSync zu vergleichen.
Bei Actionspielen scheints zu gehen.

Muss ich den Framelimiter eigentlich auf 60 oder 59 fps stellen? Bei 60 scheint es schon zu tearen, kann aber auch daran liegen dass mit 60 fps in den Radeon Settings die fps immer wieder leicht drüber springen...

Und wo definiere ich, was passiert wenn Freesync nicht greift? Mit der normalen VSync-Einstellung im Spiel und/oder den Radeon Settings?
Oder greift Freesync gar nicht, solange VSync irgendwo aktiviert ist?

Wenn 2160p mal laufen, siehts natürlich bombastisch aus. 1440p sind auch noch sehr gut, 1080p ok.
Die Menüsteuerung über die Fummelknöpfe ist eine Krankheit.

sun-man
2016-04-07, 20:35:24
Also in Diablo3 wabert bei mir gar nicht. Das Bild ist grandios stabil in 4k

aufkrawall
2016-04-07, 20:37:53
Der fps-Limiter im Treiber scheint verbugt zu sein, der ging hier manchmal einfach nicht.

sun-man
2016-04-07, 20:38:59
Ps. Ich nutze keinen limiter... Weiß nichtmal was das ist. Vsync und 60max

Lurtz
2016-04-07, 20:57:27
Ps. Ich nutze keinen limiter... Weiß nichtmal was das ist. Vsync und 60max
Und trotzdem greift Freesync im Freesync-Bereich? :uponder:

sun-man
2016-04-07, 21:00:19
Warum nicht? Es sieht zumindest so aus. Fps fallen ja auch mal auf 40 oder so... Kann gerade nicht nachsehen... Couchen

Lurtz
2016-04-07, 21:24:28
Müssen die Radeon Settings die neue Range anzeigen, wenn man sie mit CRU geändert hat?

Edit: Ja, jetzt.

fondness
2016-04-07, 21:39:29
Und trotzdem greift Freesync im Freesync-Bereich? :uponder:

Klar, VSync greift, sobald du den Range des Monitors verlässt (wenn eingeschaltet). UNd btw bei mir "wabt" auch nix in Diablo 3, und ich habe VSync off plus Framelimiter.

Und wo genau funktioniert FreeSync genau nicht? Mit der Kamera hat das jedenfalls nichts zu tun.

sun-man
2016-04-07, 21:41:20
Das hab ich bei CB gefunden


FreeSync auf diese Technik und verhält sich wie G-Sync. Alternativ kann V-Sync im Spiel aber auch deaktiviert werden. Das reduziert den Input-Lag, führt allerdings zu Tearing.

Lurtz
2016-04-07, 21:42:27
Klar, VSync greift, sobald du den Range des Monitors verlässt (wenn eingeschaltet). UNd btw bei mir "wabt" auch nix in Diablo 3, und ich habe VSync off plus Framelimiter.
Auf wie viel fps steht der Framelimiter? Hast du den ingame-Framelimiter an oder aus?

Bei mir ist das Bild einfach grausam ohne VSync.

Das hab ich bei CB gefunden


FreeSync auf diese Technik und verhält sich wie G-Sync. Alternativ kann V-Sync im Spiel aber auch deaktiviert werden. Das reduziert den Input-Lag, führt allerdings zu Tearing.
:confused:

Lurtz
2016-04-07, 21:50:58
Jetzt nochmal logisch betrachtet: Wenn ich auf 60fps limitiere und die Range bis 60Hz geht, müsste ich mich immer in der Freesync-Range bewegen und es sollte überhaupt keinen Unterschied machen, ob ich VSync on oder off schalte.

Sprich, wenn es mit Vsync on oder off doch Unterschiede gibt, greift Freesync eben nicht.

Muss doch so sein, oder nicht?

dargo
2016-04-07, 21:51:12
Vergiss Ingame Framelimiter bei VRR! Wenn du einen Limiter verwendest dann nimm nur den Treiberlimiter. Sollte es trotz Treiberlimiter mal tearen dann funzt der nicht richtig. Ist mir letztens auch bei Assetto Corsa mit meinem Asus aufgefallen. Trotz 90fps Limit hatte ich im Replay teilweise Tearing gehabt, mit Vsync Off versteht sich. Treiberlimiter auf 89fps gestellt und schon passte es. Ergo versuche es mit 59fps bei 60Hz. Spätestens bei 58fps Limit sollte es dann aber endgültig passen. Normalerweise sollte es bei einem 60Hz Bildschirm mit 60fps Treiberlimit kein Tearing geben weil der Limiter immer im Bereich von 59,xfps operiert. Höchstwahrscheinlich ein Bug im FRTC in manchen Treibern.

Lurtz
2016-04-07, 22:01:07
Vergiss Ingame Framelimiter bei VRR! Wenn du einen Limiter verwendest dann nimm nur den Treiberlimiter. Sollte es trotz Treiberlimiter mal tearen dann funzt der nicht richtig. Ist mir letztens auch bei Assetto Corsa mit meinem Asus aufgefallen. Trotz 90fps Limit hatte ich im Replay teilweise Tearing gehabt, mit Vsync Off versteht sich. Treiberlimiter auf 89fps gestellt und schon passte es. Ergo versuche es mit 59fps bei 60Hz. Spätestens bei 58fps Limit sollte es dann aber endgültig passen. Normalerweise sollte es bei einem 60Hz Bildschirm mit 60fps Treiberlimit kein Tearing geben weil der Limiter immer im Bereich von 59,xfps operiert. Höchstwahrscheinlich ein Bug im FRTC in manchen Treibern.
Tu ich ja. Bei Diablo 3 ist nur standardmäßig der ingame-Limiter immer an (background und foreground separat).

Danke, das wollte ich wissen :up: Also müssen in dem Fall die 60fps nicht ganz gehalten und deshalb der Freesyncrange verlassen werden. Kann man immer mal beobachten...

Lurtz
2016-04-07, 22:05:00
Achja, die Größe stört mich bei der Auflösung übrigens gar nicht. Könnte mir jetzt sogar vorstellen mal 32" in 4k hinzustellen :ugly:

Anno 1404 sieht großartig aus in 2160p und läuft sehr flüssig. Leider wird das Interface winzig... Das ist so ärgerlich :frown:

dargo
2016-04-07, 22:05:37
Tu ich ja. Bei Diablo 3 ist nur standardmäßig der ingame-Limiter immer an (background und foreground separat).

Zu Diablo 3 kann ich speziell nichts sagen da ich das nicht spiele. Wenn der Ingamelimiter bei 60fps Limit zum Tearing führt versuch mal zusätzlich den Treiberlimiter auf 58 oder 59fps zu stellen. Was passiert da?

PS: lässt sich der Ingamelimiter echt nicht abstellen? Auch nicht über Inis etc.?

Lurtz
2016-04-07, 22:14:42
Zu Diablo 3 kann ich speziell nichts sagen da ich das nicht spiele. Wenn der Ingamelimiter bei 60fps Limit zum Tearing führt versuch mal zusätzlich den Treiberlimiter auf 58 oder 59fps zu stellen. Was passiert da?

PS: lässt sich der Ingamelimiter echt nicht abstellen? Auch nicht über Inis etc.?
Also bei Grim Dawn ist das Tearing mit 58fps-Limit weg. Läuft allerdings immer noch recht unrund. Aber das wird eher am Spiel liegen.

Doch, der lässt sich im Menü ausstellen.
Jetzt greift der Treiberlimiter aber auch nicht mehr und alles teart ohne Ende :usad: Mit ingame-Limiter auch.

dargo
2016-04-07, 22:23:14
Also bei Grim Dawn ist das Tearing mit 58fps-Limit weg. Läuft allerdings immer noch recht unrund. Aber das wird eher am Spiel liegen.

Schau dir ohne jegliche Limiter und Vsync Off die Frametimes an. Wenn die mies sind kann VRR auch nicht zaubern.

Lurtz
2016-04-07, 23:20:13
Schau dir ohne jegliche Limiter und Vsync Off die Frametimes an. Wenn die mies sind kann VRR auch nicht zaubern.
Ist klar, Grim Dawn hängt allein so oft im CPU-Limit, dass man da nie vernünftige Frametimes haben wird.

Wenn es mal läuft, ist 4k + Freesync einfach atemberaubend :massa: The Vanishing of Ethan Carter Redux war gerade höchst beeindruckend und lief noch recht fluffig.

Talos Principle läuft mit hohen GPU-Settings oft sogar mit 60fps in 4k.

aufkrawall
2016-04-07, 23:25:40
Wie ist die Bildschärfe bei Ethan Carter mit TAA ohne Nachschärfen denn so?

Lurtz
2016-04-07, 23:34:44
Selbst Battlefront in 4k geht, wenn man bei den meisten Settings außer Texturen mit medium leben kann. Ist halt die Frage ob man der Auflösung so viele Details opfern möchte...

In einem Shooter macht Freesync unter 40fps aber auch nicht mehr viel, fühlt sich einfach zu zäh an.

Am meisten regt mich momentan noch auf, dass sich die Fenster auf dem Desktop ständig verschieben, das war mit 1080p nie annähernd so schlimm :mad:

Edit: Achja fondness, 1080p sieht aber schon deutlich matschiger als 1440p aus. Könnte jetzt leider nicht sagen dass das perfekt skaliert. Und mehr Schärfe dazuzunehmen gibt furchtbare Artefakte, das geht gar nicht. Ob 1440p + 144 Hz am Ende nicht doch mehr bringen? :uponder:

Wie ist die Bildschärfe bei Ethan Carter mit TAA ohne Nachschärfen denn so?
So:
http://abload.de/img/ethancarter-win64-shi95ufz.jpg
http://abload.de/img/ethancarter-win64-shiv6u7d.jpg

aufkrawall
2016-04-07, 23:40:40
Ich meinte auf deinem Monitor. :freak: :biggrin:

Lurtz
2016-04-07, 23:45:15
Nunja, das ist ja sehr subjektiv. Ich bin TAA-Fan, schon in 1080p nehme ich das teilweise, da würden andere schon längst schreiend wegrennen :ugly:

aufkrawall
2016-04-07, 23:52:07
Ok. Da ich ja auch mit dem Monitor liebäugle, bist du aber auch einfach der perfekte "Vortester". :wink:
Kannst du etwas dazu sagen, wie sich BF4 mit 58/59fps Cap anfühlt?

Lurtz
2016-04-08, 00:17:59
BF4 fühlt sich für mich auch gut an, aber wie man dem Thread entnehmen kann habe ich da nicht die höchsten Ansprüche.

NBA 2k16 läuft super in 4k maxed out und hat beim AA sogar noch Reserven. Also so unmöglich wie es gerne mal dargestellt wird ist das auch mit Mittelklasse-Hardware nicht.

aufkrawall
2016-04-08, 00:21:34
Schön zu hören.
Ich hab ja auch nur 75Hz und mit 80fps Limit ist das Tearing im Heli teilweise schon sehr störend.
Wenn du den in-game Limiter nutzt (ruuhig, dargo ;) ), gibts aber tatsächlich wieder Tearing? :)

Lurtz
2016-04-08, 00:28:44
Müsste ich am Wochenende mal ausprobieren.

TW3 geht leider gar nicht @4k. Hängt bei ca. 27fps, egal welche Details ich einstelle :| Da bleibt wohl nur Warten auf Polaris.

aufkrawall
2016-04-08, 00:30:05
Aber in WQHD machen die Einstellungen einen Unterschied bei den fps?

Lurtz
2016-04-08, 00:33:21
Aber in WQHD machen die Einstellungen einen Unterschied bei den fps?
Ja, einen merklichen.

Die Spiele scheinen sehr unterschiedlich auf den Sprung WQHD -> 4k zu reagieren.

sun-man
2016-04-08, 07:29:32
Hab ich auch bemerkt. 1440p geht in der Regel (i2500k mit 4,2Ghz und ne 390) völlig Problemlos. Bei 4k gehts dann massiv in den Keller. Witcher ist hart an der Grenze in 4k. 2133'er RAM könnte mir da die 10% bringen die mich wieder zum Freesync bringen :D. aber auch in 1440p sieht es sehr sehr gut aus.
Just Cause 3 ist auch grenzwertig in 4k - ClockBlocker ist Pflicht.

Lurtz
2016-04-08, 07:35:36
Och Mensch, jetzt hat Windows ohne mein Zutun irgendwas umgestellt und der Monitor ist viel zu dunkel :frown:

Kurz nach der Anmeldung passt es noch, nach ein paar Sekunden lädt Windows dann diese Einstellung. Jetzt habe ich totalen Black Crush.

Jemand eine Ahnung was das sein könnte?

Nach zwei Neustarts gehts jetzt wieder. Keine Ahnung was das wieder ist. Welche Bildschirmskalierung verwendet ihr unter Windows, 150%?

dargo
2016-04-08, 08:34:16
Hab ich auch bemerkt. 1440p geht in der Regel (i2500k mit 4,2Ghz und ne 390) völlig Problemlos. Bei 4k gehts dann massiv in den Keller.
Ich hab ja nicht ohne Grund 1440p für eine R9 390 gewählt. ;) Und selbst damit stößt die schon bei einigen neuen Games langsam an die Grenzen. Muss da ein paar Details reduzieren damit ich meine min. 40-45fps habe, alternativ kleinere Auflösung richtig skaliert. Bis Vega dauert es aber noch ein wenig. Von Polaris 10 erwarte ich jetzt keinen nennenswerten Sprung von unseren Karten aus. Die werden zwar wesentlich sparsamer sein, davon laufen die Spiele aber auch nicht schneller.

Lurtz
2016-04-08, 09:14:26
An HighDPI gewöhnt man sich jedenfalls extrem schnell. Sitze jetzt auf der Arbeit wieder vor 1080p und könnte kotzen :P

Mein Traummonitor wäre momentan wohl 32", 4k, 120 Hz aufwärts und eine möglichst große Freesyncrange ab 30 Hz. Naja, in drei Jahren vielleicht...

Ist eigentlich bekannt ob AMD da noch an Verbesserungen arbeitet? Oder ist das jetzt alleinige Sache der Monitorhersteller? GSync scheint bei LFC ja generell Vorteile zu haben...

Ich hab ja nicht ohne Grund 1440p für eine R9 390 gewählt. ;) Und selbst damit stößt die schon bei einigen neuen Games langsam an die Grenzen.
Nicht jeder spielt nur die neuesten AAA-Grafikkracher ;)

Bis Vega dauert es aber noch ein wenig. Von Polaris 10 erwarte ich jetzt keinen nennenswerten Sprung von unseren Karten aus.
Viel schlimmer ist der beschissene Grafikmarkt, in dem man einfach keine vernünftige Leistungssteigerung für akzeptable Preise bekommt.

dargo
2016-04-08, 09:21:57
Ist eigentlich bekannt ob AMD da noch an Verbesserungen arbeitet? Oder ist das jetzt alleinige Sache der Monitorhersteller?
This.

Wobei 4k und 120Hz nur mit DP1.3 geht.


Viel schlimmer ist der beschissene Grafikmarkt, in dem man einfach keine vernünftige Leistungssteigerung für akzeptable Preise bekommt.
Da bin ich bei dir, es gibt einfach zu lange Durststrecken. Bei der immer komplexeren Fertigung aber auch kein Wunder. Ich bin schon langsam am Überlegen ob ich bei der nächsten Graka doch nicht etwas mehr Geld auf den Tisch lege. Ich meine... bis da wieder was nenenswert Schnelleres kommt vergehen wieder um die 3 Jahre. :usweet:

dargo
2016-04-08, 09:24:04
doppelpost

Lurtz
2016-04-08, 09:42:08
This.

Wobei 4k und 120Hz nur mit DP1.3 geht.
Na hoffentlich passiert da noch einiges.

Da bin ich bei dir, es gibt einfach zu lange Durststrecken. Bei der immer komplexeren Fertigung aber auch kein Wunder. Ich bin schon langsam am Überlegen ob ich bei der nächsten Graka doch nicht etwas mehr Geld auf den Tisch lege. Ich meine... bis da wieder was nenenswert Schnelleres kommt vergehen wieder um die 3 Jahre. :usweet:
Ich auch. Aber die 980 Ti hat mit ihren 6GB Ram ja auch schon wieder ein relativ absehbares Ablaufdatum.

dargo
2016-04-08, 09:46:05
Nvidia ist eh außen vor bei Freesync, zumindest aktuell.

sun-man
2016-04-08, 13:44:55
Tropico 5 sieht in 4k IMHO auch nicht so dolle aus. So viele aktuelle Sachen hab ich nicht, Fallout4 ist da wohl noch mit das aktuellste (Trackmania auch). The Division hab ich abgegeben....Spenden-Gifts werden angenommen :D ;)

Lurtz
2016-04-08, 13:46:20
Grim Dawn ist günstig und sieht toll aus :D