PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Diskussion zur GTX970-Problematik: Nur 3,5 GB, nur 224 Bit DDR, nur 56 ROPs


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 [23] 24

Raff
2016-02-23, 08:58:46
Dann ist die Textur Kompression einfacht grottig + AA

- Innefiziente Textur Kompression
- Innefiziente AA Balance
- Innefizientes Multithreaded Streaming

Das sind meist so die Hauptgründe wo die GTX 970 unnötig drunter leiden kann, wenn mehrere zusammenkommen wirds schnell unlustig.

The Division lief hier einwandfrei auf der 980. Ich glaub nicht, dass die Engine schlecht ist...

Die Snowdrop-Engine stellt zwar recht hohe Anforderungen an Grafikkarten, bietet dafür aber auch viel. Das Spiel riecht an vielen Ecken ganz leicht nach Next-Gen – eigentlich fehlt nur DX12. Wobei die Mehrkernskalierung schon jetzt sehr gut ist (ebenso, daraus resultierend, die CPU-Performance in den meisten Situationen).

Höhere Qualität benötigt auch mehr Ressourcen. Es sollte nicht das Ziel für Entwickler sein, speziell verkrüppelte Karten bestmöglich zu behandeln, Verbreitung hin oder her. 4-GiB-Karten mit echter, voller Anbindung sind der gemeinsame Nenner. Das wird der GTX 970 zum Verhängnis.

MfG,
Raff

Monsta
2016-02-23, 09:06:04
So scheiße, wie Tomb Raider bei AMD im CPU-Limit oder Spiele wie The Division mit der 970 in WQHD laufen, hab ich mit der 980 alles richtig gemacht.
So super, wie hier alles mit der 980 läuft, überleg ich mir den Kauf von Radeons in Zukunft drei Mal und evtl. wirds dann auch Gsync statt FreeSync. =)

Btw. hatte ich gleich zu Anfang schon eine 980 gekauft, war aber mit dem Referenzdesign nicht zufrieden. Wenn du hier schon olle Kamellen aufwärmst...

Dann dreh mal 3 details raus. Auf das Spielerlebnis hat das doch eh kaum Einfluss.
Dann läuft es auch auf ner Amd Karte. Zeig einfach mal Eier.

dildo4u
2016-02-23, 09:14:52
Das Game wurde schon angepasst Nvidia/Ubi empfiehlt für eine 970 das High Preset zu nutzen.Für mich macht es Sinn ein Preset für 3GB Karten zu haben da einige GTX780 und 7950/AMD 280 verkauft wurden.

(del)
2016-02-23, 09:24:56
Ich bewundere immer wieder, zu welchen Emotionen und verbalen Walzerdrehungen manche fähig sind, wenn es um so schnöde Dinge wie Grafikkarten geht. Da wird von Krüppel-RAM, Heizplatten, Heißluftturbinen und ähnlichem Gedöns geschrieben, geätzt und gelobhudelt, dass einem glatt der Hut wegfliegt. Würde nur ein Teil davon in eine romatische Liebesbeziehung fließen, hätte Deutschland sicher kein Geburtenproblem mehr und irgendwer würde dann auch mal meine Rente zahlen. :D

Gut, einen gewissen Unterhaltungswert kann man dem ganzen Thread ja nun weiß Gott nicht absprechen, aber etwas mehr Sachlichkeit hintenraus wäre echt der Bringer. Ich bezweifle, dass Entwicklerstudios jemals Rücksicht auf die Eigenheiten bestimmter Kartenmodelle nehmen werden bzw. genommen haben, denn der Lebenszyklus solcher Produkte ist meist kürzer als die Entwicklungsphase eines Spiels oder einer Engine.

In Bezug auf die 970 muss es NV mit den eigenen Treibern richten, bzw. dies zumindest versuchen, mehr geht nicht. Gleiches gilt für AMD, bei denen es für bestimmte Leuchtturmprojekte (Raff weiß, was ich konkret damit meine) plötzlich Launchtreiber gibt, während viele Spieler anderer neuer Titel lange im Nichts rumstochern müssen, bevor sich das Team mal erbarmt und optimiert.

Ich sehe auf allen Seiten jede Menge offener Baustellen mit abgesoffenen Bohrlöchern, von denen man nie weiß, wie tief man am Ende darin versinken kann. Deshalb wäre mehr Sachlichkeit eher am Platz, als die ewige Steinchenschmeißerei, die nichts bringt, außer noch mehr Steinchen und verbale Kinderkacke.

Achill
2016-02-23, 09:29:09
Das stimmt einfach nicht, die Asus Strix 970 hat mit Werks-OC ein standardmäßiges Powertarget von 165W, während man bei Hawaii-Karten kaum oder gar nichts unter 250W finden wird.
Und ja, das kann in Spielen ausgereizt werden und nein, Maxwell ist durch das niedrige PT dabei nicht langsam.

Die Asus Strix 970 hat laut BIOS sogar nur ein Powertarget von rund 160W. Die MSI 970 Gaming jedoch von 200W - nicht umsonst wird diese von PCGH bei einen Boost von +1300MHz eingesetzt. Die Asus Strix 970 könnte dies wahrscheinlich nicht immer halten.

Analysiertes Bios: https://www.techpowerup.com/vgabios/166536/msi-gtx970-4096-141225.html
Anleitung für Maxwell Bios Editor & Power Table: http://www.computerbase.de/forum/showthread.php?t=1445972

BlacKi
2016-02-23, 09:37:09
Die Asus Strix 970 hat laut BIOS sogar nur ein Powertarget von rund 160W. Die MSI 970 Gaming jedoch von 200W - nicht umsonst wird diese von PCGH bei einen Boost von +1300MHz eingesetzt. Die Asus Strix 970 könnte dies wahrscheinlich nicht immer halten

1300 sind nicht viel, 160w wird wohl fast durchgehend anliegen. 200w tdp könnte höchstens die minimum fps schönen,an den avg wird sich fast nichts tun.

Raff
2016-02-23, 09:47:45
Das Game wurde schon angepasst Nvidia/Ubi empfiehlt für eine 970 das High Preset zu nutzen.Für mich macht es Sinn ein Preset für 3GB Karten zu haben da einige GTX780 und 7950/AMD 280 verkauft wurden.

Yep, definitiv. Für die volle Packung braucht's dann eben 6 oder 8 GiByte nebst entsprechender Rohleistung. Mit vollwertigen 4 GiB kommt man @ Ultra aber gut zurecht.

MfG,
Raff

dargo
2016-02-23, 09:57:17
PCGH hat 390 Strix und Nitro getestet beide liegen über 300 Watt.
Du hast es immer noch nicht verstanden. Es gibt von AMD keine expliziten PT und Taktvorgaben. Jeder Hersteller kocht da sein eigenes Süppchen. Wenn man Taktraten von bsw. 1050Mhz auf Teufel komm raus erreichen will dann muss man entsprechend einiges mehr an Spannung anlegen. Damit der Takt zusätzlich auch möglichst durchgängig gehalten wird muss ein entprechend höheres Power Target her. Und schon hast du eine wesentlich ineffizientere Grafikkarte. Zudem gehört Asus eh schon zu den ineffizientesten Grenadas. Keine Ahnung ob hier das Custom-PCB nicht auch einen gewissen Anteil dazu beiträgt. Möglicherweise ist das PCB auf starkes OC ausgelegt.

Eine kleine Gegenüberstellung von mir. Sollte eine Asus Strix 390 tatsächlich bei 300W avg. liegen (wobei mir das schon ziemlich viel vorkommt) erkauft sich Asus ca. 6-7% mehr Leistung mit grob 100W mehr Verbrauch im Vergleich zu HiS. Bitte nicht vergessen, dass der Speicher überall gleich schnell taktet. Also kann man auch keine 1:1 Skalierung erwarten. Ich hoffe dir wird klar wie hirnrissig das ist.

Edit:
Hier sieht man auch ganz gut den Schwachsinn von Asus.
http://www.hardware-mag.de/artikel/grafikkarten/asus_strix_r9_390_oc_gaming_im_test/15/

Ist zwar leider der Gesamtverbrauch. An den Relationen ändert sich aber nichts gravierend. 84W (je nach NT Netto 70-75W) mehr bei der non X 390 von Asus im Vergleich zu einer 290X Tri-X OC von Sapphire. Letztere hat afaik ein PT von 250W.

Achill
2016-02-23, 09:58:49
1300 sind nicht viel, 160w wird wohl fast durchgehend anliegen. 200w tdp könnte höchstens die minimum fps schönen,an den avg wird sich fast nichts tun.

Das kann ich leider nicht einschätzen noch prüfen. Es zeigt aber, dass die Werte von overclockersclub.com nicht so falsch sein können:


[...]
- MSI 970 Gaming (http://www.overclockersclub.com/reviews/msi_gtx_970_gaming_4g/15.htm) ~290W* (Unigine Heaven, System)
- PowerColor PCS+ R9 390 8GB (http://www.overclockersclub.com/reviews/powercolor_pcs_r9_390_8gb/15.htm) ~337W** (Unigine Heaven, System)

* Core i7 4770K @ 4.4GHz
** Core i7 4770K @ 4.5GHz


Ich finde es auch gut, dass Maxwell dies hergibt und das Anpassen des Bios kinderleicht ist. Habe als 290X Besitzer auch kein Problem wenn eine GPU 250W haben möchte...

Mir geht es nur um diese nicht differenzierten Standard-Argumente bzgl. Effizienz - entweder es ist eine Standard GTX 970 mit ~160W Power Target und entsprechend Effizient bezogen auf W/Frame oder es ist der Typ MSI 970 Gaming und eben nicht mehr so Effizient und nebenbei angemerkt auch meisten mehr kostet.

Die gleiche Regelmäßigkeit lässt sich bestimmt auch bei den OC-Versionen der 980(TI) / Titan X finden.

Achill
2016-02-23, 10:18:20
Hitman Beta ist durch PCGH (http://www.pcgameshardware.de/Hitman-Spiel-6333/Specials/Benchmark-1186919/) getestet worden.

M4xw0lf
2016-02-23, 10:21:00
Hitman Beta ist durch PCGH (http://www.pcgameshardware.de/Hitman-Spiel-6333/Specials/Benchmark-1186919/) getestet worden.
Wie ich dort bereits schrob - da gibts nicht besonders viel auffälliges zu sehen bei der 970. Einzig die Frametimes in WQHD zu Beginn der Sequenz fallen aus dem Rahmen, da die Karte hier als einzige Stocker zeigt.

dildo4u
2016-02-23, 10:29:14
Der Test ist ein bissel überflüssig es sei denn DX12 ist zum Launch nicht bereit.
Die Performance unter DX11 ist unter aller Kanone für die gebotene Optik.


https://youtu.be/B_TJRSC7dOY?t=1m15s

iuno
2016-02-23, 10:31:05
Bei den Frametime Diagrammen (WQHD) ist etwas mit der Beschriftung der Buttons schief gelaufen.

Warum haben die GM204-Karten (auch 980) so abartige Frametimes, die Fury mit 4 GiB aber nicht?

M4xw0lf
2016-02-23, 10:32:42
Bei den Frametime Diagrammen (WQHD) ist etwas mit der Beschriftung der Buttons schief gelaufen.

Warum haben die GM204-Karten (auch 980) so abartige Frametimes, die Fury mit 4 GiB aber nicht?
Fehlt sicher noch etwas Treiberfeinschliff.

dargo
2016-02-23, 10:33:33
Hitman Beta ist durch PCGH (http://www.pcgameshardware.de/Hitman-Spiel-6333/Specials/Benchmark-1186919/) getestet worden.
Wie war das nochmal? Beta kommt nur mit DX11, erst die Full mit DX12?

kruemelmonster
2016-02-23, 10:57:21
Rest-in-Pieces GTX 970 (http://www.computerbase.de/2016-02/grafikkarten-speicher-vram-vergleich-4gb-8gb/)

Mcdave
2016-02-23, 10:58:11
Hitman Beta ist durch PCGH (http://www.pcgameshardware.de/Hitman-Spiel-6333/Specials/Benchmark-1186919/) getestet worden.

Bei diesem Test tanzt eher die GTX 980 aus der Reihe; sie ist interessanterweise nur gerade ~10% vor der GTX 970, was angesichts der Spezifikationen eigentlich nicht sein kann.

iuno
2016-02-23, 11:04:48
Rest-in-Pieces GTX 970 (http://www.computerbase.de/2016-02/grafikkarten-speicher-vram-vergleich-4gb-8gb/)
RIP? Ich sehe nur einen Test wo die 970 besonders schlecht abschneidet und das ist COD. Der Rest ist doch eher normal fuer die Karte!?

Lurtz
2016-02-23, 11:06:09
Rest-in-Pieces GTX 970 (http://www.computerbase.de/2016-02/grafikkarten-speicher-vram-vergleich-4gb-8gb/)
Wie war das Dildo, mehr als 4GB braucht man die ganze Konsolengen nicht, weil nicht mehr auf eine Blu-ray passt?

kruemelmonster
2016-02-23, 11:14:21
RIP? Ich sehe nur einen Test wo die 970 besonders schlecht abschneidet und das ist COD. Der Rest ist doch eher normal fuer die Karte!?

In [Far Cry 4] gibt es in der zweieinhalb Minuten langen Testsequenz reproduzierbar immer mal wieder große Verzögerungen bei den Frametimes, die die GeForce GTX 980 nicht aufweist.

Die GeForce GTX 970 muss in [Call of Duty: Black Ops III] deutlich Federn lassen, der Titel verkommt zu einer unspielbaren Ruckelorgie.

Auch das speicherfressende Mittelerde: Mordors Schatten ist in 2.560 × 1.440 zu viel für die GeForce GTX 970. Die Frametimes haben in regelmäßigen Abständen einen Schluckauf.

Kill it with fire.

dildo4u
2016-02-23, 11:28:09
Wie war das Dildo, mehr als 4GB braucht man die ganze Konsolengen nicht, weil nicht mehr auf eine Blu-ray passt?
Das sind Test's in 1440p mit Konsole fps raten,bei Tomb Raider und Division musste schon in 1080p Details abschlaten um in die Nähe der 60fps zu kommen.
Wenn ich 1080p 30 zocken will kann ich auch meine PS4 anschalten,so lange ich mit der Maus zocke will ich mindestens die Refrechrate meines Monitor erreichen alles andere fühlt sich kacke an.

iuno
2016-02-23, 11:30:01
Und?
In FC4 hat die Karte 2 groessere Haenger, die sind etwa nicht so schlimm wie die beiden der 980 in AC.
In Mordor hat die 980 fast die selben peaks, nur eben kleiner, weil die Frametimes insgesamt auch niedriger sind, so what?
Wie gesagt
Der Rest ist doch eher normal fuer die Karte

Toll, jetzt hat CB aus den Diagrammen statische Bilder gemacht :rolleyes:

dildo4u
2016-02-23, 11:35:02
Das ist einfach nur ein Test um seine eigene Aussage zu bestätigen wer will mit solchen fps seine Shooter zocken?


http://www.computerbase.de/videos/2016-02/cod-black-ops-iii-r9-390x-und-r9-290x-im-vergleich/

Schnoesel
2016-02-23, 11:37:20
Wo ist das Problem bei einem Singleplayer mit 45FPS? Wer von euch hat den Crysis damals mit 120 FPS gezockt?

(del)
2016-02-23, 11:38:25
Wo ist das Problem bei einem Singleplayer mit 45FPS? Wer von euch hat den Crysis damals mit 120 FPS gezockt?
Kommt auf die Skills an :P

dildo4u
2016-02-23, 11:41:28
Nicht jeder hat ein Monitor der auf 45 fps synchronisiert,davon an das der Input lag steigt.60fps scheinen sogar für die Konsolen Casual's wichtig zu sein wenn man sieht wie erfolgreich Call of Duty ist,Halo 5 und die neuen Battlefield Teile sind auch alle auf 60fps hin getunt.

Battlefront ist dort ein gutes Beispiel läuft locked 60 auf der PS4.
https://youtu.be/VJpeOG9Iqn8

BlacKi
2016-02-23, 11:50:42
naja, ich hab jetzt 1,5 jahre meine 970 im system, und wenn ich die auflösung erhöhen will reicht mir jetzt eine 980 auch nichtmehr lange. spätestens nächstes jahr muss man wohl in einigen titeln am texturregler regeln. vl bei der 970 noch mehr, aber dafür war sie ja auch nur halb so teuer^^ bis auf einzelne titel gibt es keinen zeitpunkt andem die 970 tot ist und die 980 noch ein jahre länger durchhält.

Troyan
2016-02-23, 11:51:25
Und in Hitman gibt es laut PCGH keine Probleme bei der GTX970, wohingegen alle Karten mit weniger als 3,5GB in 1440p nicht nutzbar sind. :freak:

Aber auch schön zu sehen, wie PCGH kein negatives Wort über AMD in diesen Preview verliert. Die dürfen Entwickler bezahlen, um Spiele auf nVidia-Hardware grottig laufen zu lassen. ;D

dargo
2016-02-23, 11:52:49
Battlefront ist dort ein gutes Beispiel läuft locked 60 auf der PS4.
https://youtu.be/VJpeOG9Iqn8
Klar... wenn man die Auflösung und Details reduziert, warum sollte das nicht klappen? Die XBox rendert mit 720p, die PS4 mit 900p.

Und in Hitman gibt es laut PCGH keine Probleme bei der GTX970, wohingegen alle Karten mit weniger als 3,5GB in 1440p nicht nutzbar sind. :freak:

Aber auch schön zu sehen, wie PCGH kein negatives Wort über AMD in diesen Preview verliert. Die dürfen Entwickler bezahlen, um Spiele auf nVidia-Hardware grottig laufen zu lassen. ;D
:facepalm:

Guck dir einfach die Frametimes nach den paar Sekunden an.

PS: und bevor du gleich weiter trollst. Das ist eine Beta-Version, mit Beta Treibern. Auch die 980 hat da starke Probleme, im Gegensatz zu Fiji mit nur 4GB Speicher. Offenbar muss NV hier beim Speichermanagement noch einige Optimierungen fürs Spiel bringen. Ob das der 970 hilft wird sich zeigen.

Schnoesel
2016-02-23, 11:56:40
Aber auch schön zu sehen, wie PCGH kein negatives Wort über AMD in diesen Preview verliert. Die dürfen Entwickler bezahlen, um Spiele auf nVidia-Hardware grottig laufen zu lassen. ;D

Was kann den AMD dafür dass Nvidia ihre Treiber nicht im Griff hat? ;D

Trollen geht auch aus der Gegenrichtung

Lurtz
2016-02-23, 12:09:00
Das sind Test's in 1440p mit Konsole fps raten,bei Tomb Raider und Division musste schon in 1080p Details abschlaten um in die Nähe der 60fps zu kommen.
Wenn ich 1080p 30 zocken will kann ich auch meine PS4 anschalten,so lange ich mit der Maus zocke will ich mindestens die Refrechrate meines Monitor erreichen alles andere fühlt sich kacke an.
Die fps ändern nichts am Speicherbedarf.

blaidd
2016-02-23, 12:25:27
@Trollhahn:

Das das Spiel aus dem AMD-Programm kommt und die Performance gemessen an der Optik generell nicht so toll ist, steht im Text.

Ich hab außerdem Nvidia bereits kontaktiert, die Szene und das Problem beschrieben und entsprechende Messwerte zukommen lassen, damit die das bis zum Release fixen können - freiwillig uns selbstständig - total unfair gegenüber Nvidia, ich rote Socke!

Achill
2016-02-23, 12:28:46
@Trollhahn:

Das das Spiel aus dem AMD-Programm kommt und die Performance gemessen an der Optik generell nicht so toll ist, steht im Text.

Ich hab außerdem Nvidia bereits kontaktiert, die Szene und das Problem beschrieben und entsprechende Messwerte zukommen lassen, damit die das bis zum Release fixen können - freiwillig uns selbstständig - total unfair gegenüber Nvidia, ich rote Socke!

Endlich kommt es raus, so entstehen die Game-Ready-Treiber ... ;)

iuno
2016-02-23, 12:31:11
Echt unglaublich, :uban:

HOT
2016-02-23, 12:40:49
Je neuer und heftiger die Spiele werden, desto mehr stellt sich raus, dass nicht nur die GTX970 an ihre Grenzen kommt sondern auch die 500€ teure GTX980. Selbiges gilt natürlich auch für die Furys und Nanos, jedoch gibts bei denen eben das technische Limit. Kaufen würd ich mir so ne 4GB-Karte aber so oder so nicht mehr (hätt ich schon in 2015 nicht). Dass es keine 970/980 wahlweise mit 8GB gibt, so wie in Notebooks beispielsweise, hinterlässt schon einen bitteren Beigeschmack. Hätte man wenigstens die Wahl gehabt, säh das ganze anders aus.
sollten sich die 16GB bei Polaris 11 bewahrheiten und die 4GB nur bei Low-End-Karten bis unteres Mainstream herhalten werden die Spielehersteller sich auf die 6GB der 980Ti einschießen, Karten mit weniger Speicher haben dann gar nix mehr zu lachen, denen könnte es dann so ergehen wie der GTX770.

Raff
2016-02-23, 12:41:59
Endlich kommt es raus, so entstehen die Game-Ready-Treiber ... ;)

Genau. Game-ready heißt nur: Wir haben die PCGH-Benchmarkszene optimiert. :ugly:

MfG,
Raff

dargo
2016-02-23, 12:45:53
Dass es keine 970/980 wahlweise mit 8GB gibt, so wie in Notebooks beispielsweise, hinterlässt schon einen bitteren Beigeschmack. Hätte man wenigstens die Wahl gehabt, säh das ganze anders aus.
Das will man offenbar im Performance-Segment (größere Käuferschicht) nicht. Man muss ja einen Grund aufrecht erhalten für den Umstieg auf Pascal damit der Rubel wieder rollt. ;)

gbm31
2016-02-23, 12:54:35
Da ich haupsächlich in Rennspielen unterwegs bin:

Wie sieht die Performance von Project Cars mit einer 390 unter W10 mittlerweile aus?

Raff
2016-02-23, 12:58:56
Da ich haupsächlich in Rennspielen unterwegs bin:

Wie sieht die Performance von Project Cars mit einer 390 unter W10 mittlerweile aus?

Zwar kann ich dir nicht mit einem Direktvergleich dienen, aber: wesentlich besser als zum Release. Sowohl Windows 10 als auch folgende Treiber und Patches haben die Performance angehoben. Was ich Ende 2015 sah, lief tadellos – kein Vergleich zur zähen Grütze am Anfang.

MfG,
Raff

dargo
2016-02-23, 12:59:16
@gbm31
Schreib am besten LDNV über PN an, der spielt regelmäßig pCars mit seiner R9 390.

gbm31
2016-02-23, 13:01:19
THX

=Floi=
2016-02-23, 13:39:03
Je neuer und heftiger die Spiele werden, desto mehr stellt sich raus, dass nicht nur die GTX970 an ihre Grenzen kommt sondern auch die 500€ teure GTX980.

das ist eben auch nur ein mid range chip. war schon immer so, dass diese relativ zeitnah nicht mehr mithalten können. (9600GT, 460Ti, 560Ti etc.)
bei der 970er ist der chip auch noch gut beschnitten.

Achill
2016-02-23, 13:52:26
das ist eben auch nur ein mid range chip. war schon immer so, dass diese relativ zeitnah nicht mehr mithalten können. (9600GT, 460Ti, 560Ti etc.)
bei der 970er ist der chip auch noch gut beschnitten.

Ich finde 500€ und 'mid range chip' passt nicht, aber gut.

Zettabit
2016-02-23, 13:55:09
Je neuer und heftiger die Spiele werden, desto mehr stellt sich raus, dass nicht nur die GTX970 an ihre Grenzen kommt sondern auch die 500€ teure GTX980. Selbiges gilt natürlich auch für die Furys und Nanos, jedoch gibts bei denen eben das technische Limit. Kaufen würd ich mir so ne 4GB-Karte aber so oder so nicht mehr (hätt ich schon in 2015 nicht).
Deshalb gab es die Karten - anders als die Fury - auch schon 2014 zu kaufen ;D

Es macht auch wenig Sinn heute noch eine 980/970 zu kaufen. Tatsächlich sind die 6-9 Monate, die wir jetzt noch auf 16nm Produkte warten, einer der wenigen Zeiträume, wo sich warten mal wirklich lohnt.

Wer ne Grafikkarte für 2016 heute kaufen will, der kommt um ne 980Ti nicht herum.

HOT
2016-02-23, 15:08:23
Oder ne 390 für die Hälfte :freak:. Mal im Ernst, um eine 700€ Karte kommt man immer herum. Das ist nicht unbedingt ein guter Tipp. Dennoch scheint es diesmal so, dass man es am besten wirklich aussitzt dieses Mal.
970 -> bei hoher Speicherauslastung wirds katastrophal
390 -> sehr hohe Leistungsaufnahme und niedrige Tesselationsleistung, sonst ok
980/Nano/Fury -> zu teuer für 4GB (und auch sonst überteuert), sonsten super
390X -> brauchen wir nicht drüber reden, angesichts des geringen Abstandes und der nochmals gestiegenen Leistungsaufnahme zur 390 nicht empfehlenswert aus meiner Sicht
FuryX -> völlig inakzeptabel mit 4GB zu dem Preis
980ti -> sehr gutes Produkt aber ebenfalls einfach zu teuer

gbm31
2016-02-23, 15:55:41
Ja, blödes Dilemma.

Mit der 970 bin ich wohl gezwungen, etwas früher als geplant an den Qualieinstellungen zu drehen.
Mit der 390 werd ich aber wohl auch nicht so lange ohne Zurückzustecken auskommen wie die Speichermenge suggeriert, weil dann die Leistung fehlt.
Nvidia nochmal Geld hinterherwerfen für eine 980Ti, sorry, nach der 970 Nummer NoGo! Dann lieber AMD + neues Netzteil...

Vielleicht hoffe ich einfach auf einen schönen Sommer und warte ob Polaris wirklich taugt?

dargo
2016-02-23, 16:02:23
390 -> sehr hohe Leistungsaufnahme und niedrige Tesselationsleistung, sonst ok

Erklärst du mir bitte was an avg. 200W hoch ist?

Döner-Ente
2016-02-23, 16:11:32
Unabhängig von bestimmten Grakas frage ich mich gerade,wieso sich Entwickler in letzter Zeit immer öfter verhalten, als obs VRAM unbegrenzt für lau gibt.
Dass schöne Texturen und steigende Auflösungen da ihren Tribut fordern, klar...aber bei so manchen VRAM-Verbrater mit gar nicht mal sooo übertollen Texturen fragt man sich dann schon, wie CDPR bei Witcher 3 mit so wenig VRAM auskommt, wo andere Entwickler für vergleichbare Qualität 2-3x so viel VRAM brauchen....

Undertaker
2016-02-23, 16:13:15
Erklärst du mir bitte was an avg. 200W hoch ist?

Ist ein bisschen wenig, oder? Wenn ich mal eben so ein dutzend beliebige Tests überfliege, liegt der Gesamtsystemverbrauch im Schnitt locker 60 Watt über der GTX 970; bezogen auf die Karte allein also mindestens 50 Watt mehr.

Raff
2016-02-23, 16:15:51
Jo, ich würde bei Volllast auch eher mit 250 Watt planen. Mit lahmer CPU und Full-HD-Teillast sind die 200 Watt aber nicht weit hergeholt.

MfG,
Raff

dargo
2016-02-23, 16:17:49
Ist ein bisschen wenig, oder?
Nicht bei einer HiS.

aufkrawall
2016-02-23, 16:21:31
Jeder Chip (auch Maxwell) wird überproportional ineffizient wenn man den weit außerhalb vom Sweetspot betreibt, ist keine neue Erkenntnis.
Lenk nicht ab, es ging um die Relationen zu GM204, und ich hatte gleich eingewendet, dass man diesen auch mit dem PT noch weiter zähmen kann.
War ja klar, dass da sonst nichts mehr kommt...

Troyan
2016-02-23, 16:34:33
@Trollhahn:
Das das Spiel aus dem AMD-Programm kommt und die Performance gemessen an der Optik generell nicht so toll ist, steht im Text.

Nö, steht dort nicht, dass das Spiel deswegen auf nVidia-hardware schlechter läuft, weil es im AMD Programm ist. Wieso DU so etwas bei Gameworks-Spielen jedoch immer betont hast, wäre dagegen mal interessant zu wissen.

Ist eben doof, wenn man als nicht neutrale Publikation an solchen Sachen dann scheitert. ;D

Sieht jeder blinde, dass das Spiel im jetzigen Zustand noch schlechter ist als Batman:Arkham Knight.


Ich hab außerdem Nvidia bereits kontaktiert, die Szene und das Problem beschrieben und entsprechende Messwerte zukommen lassen, damit die das bis zum Release fixen können - freiwillig uns selbstständig - total unfair gegenüber Nvidia, ich rote Socke!

Die sollen deine Fantasiewerte fixen? :freak:

blaidd
2016-02-23, 16:38:32
Nö, steht dort nicht, dass das Spiel deswegen auf nVidia-hardware schlechter läuft, weil es im AMD Programm ist.
Beweis das mal.


"Läuft auf AMD-Hardware schlechter!" Such das mal...
http://www.pcgameshardware.de/The-Division-Spiel-37399/Specials/Benchmarks-1186853/
(http://www.pcgameshardware.de/The-Division-Spiel-37399/Specials/Benchmarks-1186853/)

EDIT: Es kommt übrigens auch immer ein bisschen auf die eigene Betrachtungsweise an, wo man eine neutrale Position sieht... für einen AfD-Wähler ist die relativ gemäßigte Kanzlerin natürlich total links.

Raff
2016-02-23, 16:42:36
Die sollen deine Fantasiewerte fixen? :freak:

Die "Fantasiewerte" entstanden auf zwei verschiedenen Systemen und sind von zwei Leuten unabhängig voneinander geprüft worden. Warum die Prüfung der Werte? Weil sie im ersten Moment kurios aussahen. Wenn aber beim zweiten Einbau der Karte mit korrekten Settings dasselbe herauskommt, ist das ein valider Wert – ob du das wahrhaben möchtest oder nicht.

Ich bin gespannt, ob das Spiel bis zum Release oder darüber hinaus noch auf 3,5 GiB zurechtoptimiert wird. Das ginge auch ganz bequem mithilfe der Entwickler: Beinhaltet das von PCGH getestete "Ultra"-Preset plötzlich eine geringere Schatten- oder Terxturauflösung, wäre wohl alles dufte. Hätte PCGH mit manuell maximierten Details gemessen (was nicht getan wurde), sähe alles noch etwas schlimmer aus.

MfG,
Raff

aufkrawall
2016-02-23, 16:44:00
Mir wärs mittlerweile mal ganz lieb, wenn ihr mit prerenderlimit 1 per Treiber testen würdet.
Das macht AMD auch und ihr stellt ja auch HQ-Filterung ein.

blaidd
2016-02-23, 16:48:21
Mir wärs mittlerweile mal ganz lieb, wenn ihr mit prerenderlimit 1 per Treiber testen würdet.
Das macht AMD auch und ihr stellt ja auch HQ-Filterung ein.

Mach ich schon. :)

dargo
2016-02-23, 16:49:57
Lenk nicht ab, es ging um die Relationen zu GM204, und ich hatte gleich eingewendet, dass man diesen auch mit dem PT noch weiter zähmen kann.
War ja klar, dass da sonst nichts mehr kommt...
Du kapierst es immer noch nicht oder? Was willst du die ganze Zeit mit deinem gesenkten PT? Das PT meiner Karte wird nicht angerührt. Das bleibt ständig bei 100%, also so wie der Hersteller die Karte ausliefert. Mit reduziertem PT bei Maxwell wird die Karte entsprechend langsamer, wie jede andere Karte mit variablen Taktraten auch. Natürlich steigt dann die Effizienz von Maxwell, keine Frage. Der Sweetspot bei der GTX970 liegt afaik bei 135W was Effizienz angeht. Hatte den Test mal bei tomshardware überflogen.

Die ganze mittlerweile anstrengende Diskussion ist aus diesem Test entstanden worauf ich mich aktuell wegen Beta-Status ungern beziehe.
http://www.pcgameshardware.de/The-Division-Spiel-37399/Specials/Benchmarks-1186853/

Dort ist die Powercolor 390 bereits minimal vor der stark übertakteten 970 von MSI, das ganze sogar schon in nur 1080p. Da bei der Powercolor ~1010Mhz stehen gehe ich davon aus, dass die Karte diesen Takt nicht durchgängig hält. Also ist das Ergebnis durchaus mit einer HiS 390 non X vergleichbar. Ich habe jetzt keinen Bock hier über lächerliche +/-20Mhz seitenlang mit dir zu diskutieren. Die MSI 970 verbraucht laut tomshardware 171W im Gaming Loop. Also 20-30W weniger als meine Karte. Ich lehne mich bereits so weit aus dem Fenster und behaupte, dass die HiS R9 390 in DX12/Vulkan (besonders beim AC-Einsatz) in etwa die gleiche Effizienz pro Frame liefern wird wie eine übertaktete GTX970. Wir werden es denke ich in diesem Jahr noch aus einzelnen Games erfahren. Und nein... der Stromverbrauch wird nicht linear bei Grenada zur gewonnenen Performance steigen.

aufkrawall
2016-02-23, 16:52:03
Mach ich schon. :)
Das ist zwar löblich, aber warum gebt ihr es dann nicht an? :)

@dargo: Weiter geht das cherrypicking...

dargo
2016-02-23, 16:55:32
Arbeite erstmal an deinem Textverständis!
Die ganze mittlerweile anstrengende Diskussion ist aus diesem Test entstanden worauf ich mich aktuell wegen Beta-Status ungern beziehe.

VooDoo7mx
2016-02-23, 16:55:54
Unabhängig von bestimmten Grakas frage ich mich gerade,wieso sich Entwickler in letzter Zeit immer öfter verhalten, als obs VRAM unbegrenzt für lau gibt.
Dass schöne Texturen und steigende Auflösungen da ihren Tribut fordern, klar...aber bei so manchen VRAM-Verbrater mit gar nicht mal sooo übertollen Texturen fragt man sich dann schon, wie CDPR bei Witcher 3 mit so wenig VRAM auskommt, wo andere Entwickler für vergleichbare Qualität 2-3x so viel VRAM brauchen....

Da gab es mal in den 3dcenter News eine Theorie dazu. Bei den neuen Konsolen ist der Speicherbereich ja nicht wie beim Heim PC aufgeteilt, CPU und GPU teilen sich alles.

Auf Grund der Faulheit vernünftiger Anpassung am PC wird so gut wie alles in V-Ram der Grafikkarte geballert wie bei den Konsolen.
Es gibt auch viele Titel die in UHD Auflösung trotz guter Texturen nicht mal volle 4Gib oder teilweise auch unter 3GiB belegen. Das sieht man bei Engines die hauptsächlich erst mal für PC programmiert wurden. Das kann men serh gut bei Witcher 3 oder Dirt Rally.
Bei Spielen die vorzugsweise auf Konsolen Target programmiert werden, wie Shadow of Mordor oder Batman Arkham Knight wird der V-RAM zugeballert.

Wenn die Spiele und das dazugehörige Streaming gut auf die PC Architektur mit geteilten Speicherbereichen, reichen selbst bei UHD locker 4 GiB V-RAM.

Undertaker
2016-02-23, 16:57:57
Nicht bei einer HiS.

Hattest du jetzt nicht dazugeschrieben. Für eine PowerColor Radeon R9 390 PCS+ sehe ich gerade Maximalwerte von 323 W (vs. 169 W für die GTX 970 im gleichen Test (https://www.techpowerup.com/reviews/Powercolor/R9_390_PCS_Plus/28.html)), das wäre dann das andere Extrem. 250 W sind wohl ein realistischerer Mittelwert.

(del)
2016-02-23, 17:02:11
Diese Woche kommt ja noch so eine Beta-Geschichte, der ich mich aber diesmal nicht verschließen kann :(

Ich wäre froh, wenn man endlich mal wieder mit fertiger Software und normalen Treibern testen könnte/würde und nicht ständig mit halbfertigem Zeug halbgare Progosen abgeben muss. Man sollte dieses ganze Beta-Geraffel einfach mal als einfach sehen, was es ist: die User machen die DrecksTestarbeit von unfertigem Code. Nicht mehr, aber auch nicht weniger. Wir haben deshalb auch auf einen Test verzichtet, der nach dem Release eh wieder anders ausgehen kann. Alles ödes Clickbaiting, solange man die Ergebnisse verbal nicht entsprechend relativiert. :)

Raff
2016-02-23, 17:07:07
Diese Woche kommt ja noch so eine Beta-Geschichte, der ich mich aber diesmal nicht verschließen kann :(

Ich wäre froh, wenn man endlich mal wieder mit fertiger Software und normalen Treibern testen könnte/würde und nicht ständig mit halbfertigem Zeug halbgare Progosen abgeben muss. Man sollte dieses ganze Beta-Geraffel einfach mal als einfach sehen, was es ist: die User machen die DrecksTestarbeit von unfertigem Code. Nicht mehr, aber auch nicht weniger. Wir haben deshalb auch auf einen Test verzichtet, der nach dem Release eh wieder anders ausgehen kann. Alles ödes Clickbaiting, solange man die Ergebnisse verbal nicht entsprechend relativiert. :)

Heutzutage sind ja leider die meisten "finalen" Spiele ähnlich unfertig. Steht "Beta" dran, können sich Publisher und Entwickler nur wesentlich besser rausreden. ;) Dennoch sind Betas bzw. WIP-Spiele sehr gute Indikatoren: Robuste Hardware und Software halten Stand, der Rest nicht.

MfG,
Raff

(del)
2016-02-23, 17:18:54
Wir hatten (und haben ;) )aber auch Fälle, wo selbst der Sprung von Beta zu Beta enorme Änderungen gebracht hat, gelle? Vor allem dann, wenn Brand A einen Treiber dazwischen schießen kann und Brand B nicht. Wobei, manche Spiele werden wohl nie fertig :P

Fallout 4 habe ich zweimal durch, das zweite Mal nur, weil ich den Weg bis zum Ziel anders wollte. Und jetzt erst wird fleißg gepatcht. *facepalm*

Zettabit
2016-02-23, 17:41:54
Oder ne 390 für die Hälfte :freak:.
Toll. Von der 970-Speicherproblematik wandert man direkt in die DX11-Overhead Hölle.

Auch nicht besser. Und dass AMD seinen DX11-Treiber fixt - daran glaube ich nicht mehr.

captain_drink
2016-02-23, 17:52:54
Ich lehne mich bereits so weit aus dem Fenster und behaupte, dass die HiS R9 390 in DX12/Vulkan (besonders beim AC-Einsatz) in etwa die gleiche Effizienz pro Frame liefern wird wie eine übertaktete GTX970.

Wohl eher das glatte Gegenteil. Höhere Auslastung, höhere Leistungsaufnahme.

dargo
2016-02-23, 18:22:41
Hattest du jetzt nicht dazugeschrieben. Für eine PowerColor Radeon R9 390 PCS+ sehe ich gerade Maximalwerte von 323 W (vs. 169 W für die GTX 970 im gleichen Test (https://www.techpowerup.com/reviews/Powercolor/R9_390_PCS_Plus/28.html)), das wäre dann das andere Extrem. 250 W sind wohl ein realistischerer Mittelwert.
1. Die maximalen 169W der GTX970 sind doch völlig absurd. Tomshardware misst locker das doppelte.
http://www.tomshardware.de/nvidia-geforce-gtx-970-gtx-980-roundup-vergleichstest,testberichte-241658-20.html

Die einzig für mich logische Erklärung dafür... Techpower verfügt nicht über ein entsprechendes Equipment um die Peaks bei Maxwell zu erfassen.

2. Peaks sind völlig irrelevant.

3. Der maximale Verbrauch der da bei Powercolor R9 390 im Furmark ermittelt wurde kann nicht stimmen. Es sei denn Powercolor erlaubt ein sehr hohes PT. Hier tappe ich etwas im Dunkeln da ich das PT der Powercolor nicht kenne. Ich habe gerade meine HiS mit Defaultsettings, auch Spannung im Furmark getestet. HWinfo spuckt mir max. 230W aus. Am avg. Verbrauch von ~200W ändert sich nichts. Die GPU bleibt bei den üblichen Temperaturen von ca. 70°C wie in Spielen, die Lüfterdrehzahl bleibt ebenfalls identisch. Das einzige was passiert... der GPU-Takt wird stärker gesenkt als in Spielen um das PT einzuhalten. Möglicherweise war der Treiber den Techpower damals verwendet hatte oder das Bios der Karte fehlerhaft. Das mit dem fehlerhaften Treiber durfte ich schon zwei mal selbst erleben. Ich hatte auch schon den Fall, dass mir Furmark einen Peak von 330W ausgespuckt hatte. Der Grund war schnell gefunden. Der Treiber hatte die GPU einige Sekunden am Anfang mit vollen 1020Mhz laufen lassen. Erst nach mehreren Sekunden funktionierte Powertune wieder richtig und die GPU taktete sich entsprechend runter wodurch natürlich auch der Stromverbrauch stark fiel.

Wohl eher das glatte Gegenteil. Höhere Auslastung, höhere Leistungsaufnahme.
Du hast entweder nicht den ganzen Text von mir gelesen oder diesen nicht richtig verstanden. Versuchs nochmal.

Edit:
@Undertaker

Ich sehe jetzt erst, dass bei Techpower und der GTX970 was schief gelaufen sein muss. Die Karte verbraucht bei denen beim Peak mehr als @Maximum. Möglicherweise wurden nur die beiden Werte vertauscht.

G3cko
2016-02-23, 18:29:07
Unabhängig von bestimmten Grakas frage ich mich gerade,wieso sich Entwickler in letzter Zeit immer öfter verhalten, als obs VRAM unbegrenzt für lau gibt.
Dass schöne Texturen und steigende Auflösungen da ihren Tribut fordern, klar...aber bei so manchen VRAM-Verbrater mit gar nicht mal sooo übertollen Texturen fragt man sich dann schon, wie CDPR bei Witcher 3 mit so wenig VRAM auskommt, wo andere Entwickler für vergleichbare Qualität 2-3x so viel VRAM brauchen....

Ernsthaft? Seit dem die konsolendaten feststehen war absehbar wie das ganze abläuft. 8cores. 8gb ram der als VRAM und ram verwendet wird. Tja was werden die Entwickler machen?
a) pc wird lead Plattform
b) Rücksicht nehmen auf die armen GTX970 Käufer
c) der pc Käufer ist es gewohnt aufzurüsten

Lustig, vor allem wenn man bedenkt, dass 2 gb für gk104 vollkommen ausreichend waren. Zumindest meinten das viele. Einschließlich hardwaremagazine. Hauptsache Strom gespart und den Wettbewerb verzerrt.

captain_drink
2016-02-23, 18:43:19
Du hast entweder nicht den ganzen Text von mir gelesen oder diesen nicht richtig verstanden. Versuchs nochmal.

Das ist nicht schwer zu verstehen.
Grenada wird momentan nicht optimal ausgelastet, mit einer LL-API hingegen steigen sowohl Leistung als auch Leistungsaufnahme, wobei letztere schneller steigt als die erstere. Die 970 wird bereits sehr gut ausgelastet und wird durch eine LL-API weder signifikant schneller noch stromhungriger. Eine Grenada entfernt sich also vom Sweetspot (der wohl bei ca. ~190W liegt), die 970 bleibt jedoch unverändert in der Nähe desselben. Folglich sinkt die Effizienz bei Grenada, während sie bei der 970 gleich bleibt. Die Sweetspots verschieben sich ja nicht plötzlich auf magische Weise, sondern bleiben konstant. Wie sollte also der von dir prophezeite Gleichstand eintreten?

dargo
2016-02-23, 19:00:02
Das ist nicht schwer zu verstehen.
Grenada wird momentan nicht optimal ausgelastet, mit einer LL-API hingegen steigen sowohl Leistung als auch Leistungsaufnahme, wobei letztere schneller steigt als die erstere.
Da hast du einen riesigen Denkfehler.

captain_drink
2016-02-23, 19:10:23
Was heißt denn "Sweet Spot"? Das ist der Punkt, an dem Leistungsaufnahme und Leistung im optimalen Verhältnis stehen.
Nennen wir den Punkt mal "s", dann erhält man folgenden Verlauf: x--s--y
Von s bis x fällt die Leistung stärker, als die Leistungsaufnahme sinkt. Von s zu y steigt die Leistungsaufnahme stärker, als die Leistung steigt.
Wenn s nun =190W ist, die typische Leistungsaufnahme unter DX11 aber =210W (Fantasiewert) ist, die Leistung durch eine LL-API aber steigt (folglich auch der Verbrauch), dann ist dieser neue Wert relativ näher zu y als zu s im Vergleich zu vorher.
Vielleicht kannst du jetzt den "riesigen Denkfehler" aufzeigen, anstatt dich in nebulösen Andeutungen zu ergehen?

dargo
2016-02-23, 19:22:11
Wir sprechen uns wenn es soweit ist.

captain_drink
2016-02-23, 20:10:53
Werden dann auch die Gesetze der Logik aufgehoben? Falls ja, dann sollte das die Chancen für die Wahrheit deiner Vermutung gewaltig erhöhen.

Undertaker
2016-02-23, 20:13:18
Ich sehe jetzt erst, dass bei Techpower und der GTX970 was schief gelaufen sein muss. Die Karte verbraucht bei denen beim Peak mehr als @Maximum. Möglicherweise wurden nur die beiden Werte vertauscht.

Eigentlich wollte ich das ohnehin nur als Cherry-Picking in der entgegengesetzten Richtung verstanden wissen. ;) Wir müssen uns nicht über diesen oder jenen Test und dessen Genauigkeit einzeln unterhalten; im Mittel ist doch klar erkennbar, dass die R9 390 definitiv deutlich mehr verbraucht als die GTX 970. (Erhebliche) Schwankungen in Abhängigkeit von den jeweils gewählten Modellen verstehen sich von selbst.

Wenn man der R9 390 den VRAM-Punkt gibt, muss man der GTX 970 auch die Effizienzkrone zugestehen.

Pirx
2016-02-23, 20:17:51
...

Wenn man der R9 390 den VRAM-Punkt gibt, muss man der GTX 970 auch die Effizienzkrone zugestehen.
Abwarten.
Effizient ist es außerdem, möglichst lange zu "halten" und da hat die 970 schlechte Voraussetzungen. Die Masse der Anwender könnte immerhin bewirken, daß die 970 weiterhin ihre Extrawurst bekommt.

dargo
2016-02-23, 20:54:50
Werden dann auch die Gesetze der Logik aufgehoben? Falls ja, dann sollte das die Chancen für die Wahrheit deiner Vermutung gewaltig erhöhen.
Da du eh keine Ruhe gibst ein vereinfachtes Beispiel anhand meiner CPU.

Hassi @4C/4T mit 3,7Ghz und 1,0459V in Prime95 bei 320k = 59W
Hassi @4C/8T mit 3,7Ghz und 1,0459V in Prime95 bei 320k = 66W

Mit HT sind es also 12% mehr Stromverbrauch. In Spielen konnte ich bisher max. +33% mehr Frames bei HT messen.

Wir müssen uns nicht über diesen oder jenen Test und dessen Genauigkeit einzeln unterhalten; im Mittel ist doch klar erkennbar, dass die R9 390 definitiv deutlich mehr verbraucht als die GTX 970.
Das wird nicht richtiger je öfter es wiederholt wird. Ich weiß, dass es einige 390-er gibt die weit übers Ziel hinaus schießen, zb. Asus, MSI. Es sind aber eben nicht alle so.

Der_Korken
2016-02-23, 21:25:05
Was heißt denn "Sweet Spot"? Das ist der Punkt, an dem Leistungsaufnahme und Leistung im optimalen Verhältnis stehen.
Nennen wir den Punkt mal "s", dann erhält man folgenden Verlauf: x--s--y
Von s bis x fällt die Leistung stärker, als die Leistungsaufnahme sinkt. Von s zu y steigt die Leistungsaufnahme stärker, als die Leistung steigt.

Ich glaube der Begriff "Leistung" ist in der Überlegung nicht klar genug definiert. Du beziehst dich darauf, dass der Verbrauch steigt, wenn ein Chip besser ausgelastet ist und somit mehr "leistet". Eine bessere Auslastung sieht je nach Chip völlig anders aus und man kann pauschal gar nicht sagen, wieviel % des max. Verbrauchs bei wieviel % Auslastung anfallen (quasi als Kennlinie). Mir wären keine Tests bekannt, wo sowas explizit getestet wurde, da die interne Auslastung (nicht das was einem Tools als Auslastung anzeigen) schwer zu bestimmen sein dürfte.

Wo es dagegen einen klaren Sweetspot gibt, ist die Spannung und die damit mögliche maximale Taktrate. Mit undervolting nimmt die Effizienz eines Chips idR immer zu, bis eine weitere Reduzierung der Spannung kaum noch was bringt, außer das Taktpotenzial einzuschränken. Nach oben hin braucht man irgendwann irre Spannungen um noch etwas Takt rauszukitzeln, was die Effizienz natürlich killt.

Dargos 390 läuft wahrscheinlich mit relativ geringer Spannung, da können 100mV und 50Mhz Takt schon irre viel ausmachen. Andersrum kriegt man mit genug Spannung auch eine 970 zum Saufen. Betreibt man beide Karten in halbwegs vernünftigen Settings, sollte die 970 schon einen spürbaren Effizienzvorsprung haben. Allerdings nicht Faktor 2, wie es in manchen Tests rüberkommt.

Undertaker
2016-02-23, 21:36:08
Abwarten.
Effizient ist es außerdem, möglichst lange zu "halten" und da hat die 970 schlechte Voraussetzungen. Die Masse der Anwender könnte immerhin bewirken, daß die 970 weiterhin ihre Extrawurst bekommt.

Und es gibt auch Spiele, in denen die 970 trotz VRAM-Problematik weniger mikroruckelt als die R9 390. Ich bin kein Fan von solchem Cherry-Picking.


Das wird nicht richtiger je öfter es wiederholt wird. Ich weiß, dass es einige 390-er gibt die weit übers Ziel hinaus schießen, zb. Asus, MSI. Es sind aber eben nicht alle so.

Gemittelt etwa 50/60 Watt (Karte/Gesamtsystem) sind für mich schon deutlich in dieser Verbrauchsklasse. Und genau das sagen die Reviews im Gesamtschnitt nun einmal etwa.

aufkrawall
2016-02-23, 21:45:14
Das wird nicht richtiger je öfter es wiederholt wird. Ich weiß, dass es einige 390-er gibt die weit übers Ziel hinaus schießen, zb. Asus, MSI. Es sind aber eben nicht alle so.
Es gibt keine Hawaii-Karte, die auch nur eine annähernd so niedrige TDP hätte wie eine vernünftige 970/980.
Natürlich ist GM204 wesentlich energieeffizienter als Hawaii (im Schnitt!), da gibt es überhaupt nichts dran zu rütteln.
Du redest dir einfach deine Karte schön.

Nur nochmal der Hinweis: Mit 1,4Ghz kommt eine 980 mit brauchbarer Asic-Quality ziemlich gut mit 220W maximales Powertarget hin.
Die 290X Tri-X New hat afair das niedrigste Powertune-Limit von allen Hawaii-Karten im Bios eingestellt, mit 250W. Die hatte ich ebenfalls mit brauchbarer Asic-Quality da, und die wurde bereits bei Trine 2 in der Realität leicht gedrosselt. Bei anderen energieintensiven Spielen wie Talos Principle oder Risen 3 sieht es nicht anders aus.
-> case closed.

Async Compute sollte die Effizienz etwas steigern können, das stimmt.

captain_drink
2016-02-23, 21:45:43
Da du eh keine Ruhe gibst ein vereinfachtes Beispiel anhand meiner CPU.

Hassi @4C/4T mit 3,7Ghz und 1,0459V in Prime95 bei 320k = 59W
Hassi @4C/8T mit 3,7Ghz und 1,0459V in Prime95 bei 320k = 66W

Mit HT sind es also 12% mehr Stromverbrauch. In Spielen konnte ich bisher max. +33% mehr Frames bei HT messen.

Wo ist der Sweetspot deines Haswells? Wir drehen uns im Kreis.

@Der_Korken: Leistung=FPS, mehr will ich gar nicht sagen.
Jenseits des Sweetspots steigt die Leistungsaufnahme überproportional im Verhältnis zur Leistung (in FPS), per definitionem. Für Effizienzsteigerungen mit einer LL-API müsste der Sweetspot über dem aktuellen Durchschnittsverbrauch liegen, was jedoch nicht der Fall ist.

dargo
2016-02-23, 21:48:49
Gemittelt etwa 50/60 Watt (Karte/Gesamtsystem) sind für mich schon deutlich in dieser Verbrauchsklasse. Und genau das sagen die Reviews im Gesamtschnitt nun einmal etwa.
Und was interessiert einen der Durchschnitt wenn einzelne Kandidaten weit übers Ziel hinausschießen und eben diesen verfälschen? Ich kann mich nochmal wiederholen... es gibt auch wesentlich sparsamere 390-er. Die HiS ist nach meinen Informationen bisher die sparsamste und das wurde auch von der c´t bestätigt. Die haben bei der HiS knapp über 200W gemessen, eine Sapphire 390 lag bei denen bei 250W. Den Link bleibe ich dir schuldig, den suche ich schon die ganze Zeit.

Wo ist der Sweetspot deines Haswells? Wir drehen uns im Kreis.

Die Diskussion ist hiermit für mich beendet. Alles weitere erfährst du wenn es soweit ist, sofern ich das Thema nicht bis dahin vergesse. Kannst mich gerne auch daran erinnern.

Megamember
2016-02-23, 22:25:18
DA ist mir ne 970@1400 aber lieber als ne 390 die im 200W Schwitzkasten bei ~900MHZ liegt

Screemer
2016-02-23, 22:29:55
Ihr redet doch aneinander vorbei. Dargo ist der Auffassung, dass sich mit den llapis die Auslastung der AMD kartwn ohne nennenswerte Zunahme bei der Leistungsaufnahme steigern lässt. Drink will einfach darauf hinaus, dass das den sweetspot der Karten nicht verschiebt. Dieser ist per Definition dann gegeben, wenn der prozentuale anstieg der Leistungsaufnahme den des leistungsgewinns übersteigt. Das eine widerspricht aber nicht dem anderen.

@megamember: wenn ich mir dargos Karte ansehe, die bei <200w gut roundabout 980-1040mhz macht und dazu 8gb noncripled vram, läge die Wahl bei mir definitiv bei der his.

Megamember
2016-02-23, 22:36:33
@megamember: wenn ich mir dargos Karte ansehe, die bei <200w gut roundabout 980-1040mhz macht .....

In hohen Auflösungen ohne vsync? Im Leben nicht.

aufkrawall
2016-02-23, 22:39:39
Könnte bei einigen Spielen auf <900 gehen...

Screemer
2016-02-23, 22:42:58
F2015 @1440p

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=54699&d=1454705444

Dürfte allerdings hart im CPU limit sein. Haswell@2,5ghz.

Vielleicht kann dargo ja selber was dazu beisteuern.

Achill
2016-02-23, 23:13:33
Hattest du jetzt nicht dazugeschrieben. Für eine PowerColor Radeon R9 390 PCS+ sehe ich gerade Maximalwerte von 323 W (vs. 169 W für die GTX 970 im gleichen Test (https://www.techpowerup.com/reviews/Powercolor/R9_390_PCS_Plus/28.html)), das wäre dann das andere Extrem. 250 W sind wohl ein realistischerer Mittelwert.

Man sollte hier beachten, dass dies die max. Peaks in den Anwendungen/Tests sind - wie lange diese wirklich anliegen und was das wirkliche Avg. ist, darauf wird nicht eingegangen:


[...]
Peak: Metro: Last Light at 1920x1080, representing a typical gaming power draw. Highest single reading during the test.
Maximum: Furmark Stability Test at 1280x1024, 0xAA. This results in a very high no-game power-consumption that can typically be reached only with stress-testing applications. We report the highest single reading after a short startup period. Initial bursts during startup are not included, as they are too short to be relevant.
[...]


Was man daraus ableiten kann ist die nötigte Dimension für das Netzteil. Man kann aber eben keine Aussagen machen, wie viel die Karten Avg. verbrauchen noch eine Aussage zur Effizenz, weil man:
1. Nicht die FPS bei den Tests mit genannt bekommt - wie kann ich hier eine Relation von Watt zu FPS herstellen?
2. Da die Standard-GTX Karten wie immer in der Tabelle stehen

Solange man nicht weiß, über welchen Zeitraum der Verbrauch wirklich auftrat noch wie viele FPS dargestellt wurden, ist die einzige machbare Aussage:
Die Standard GTX 970/980/980TI hat kleiner Peaks (benötigen weniger Leistung) als eine PowerColor Radeon R9 390 PCS+.

captain_drink
2016-02-23, 23:18:29
Ihr redet doch aneinander vorbei. Dargo ist der Auffassung, dass sich mit den llapis die Auslastung der AMD kartwn ohne nennenswerte Zunahme bei der Leistungsaufnahme steigern lässt.

Das geht ja auch, aber nur unterhalb des Sweetspots.
Oberhalb muss (per definitionem) die zusätzliche Leistungsaufnahme die zusätzliche Leistung prozentual übersteigen.
Und da Grenada bereits ohne LL-API oberhalb des Sweetspots arbeitet, kann eine Leistungssteigerung keine Effizienzsteigerung sein, mithin die Effizienz der 970 nicht erreicht werden.
(Anders wäre das übrigens, wenn "bessere Auslastung" bedeuten würde, dass dieselbe Leistung wie ohne LL-API bei niedrigerer Leistungsaufnahme erreicht werden würde. So funktioniert das aber nicht.)

Achill
2016-02-23, 23:19:49
Das ist nicht schwer zu verstehen.
Grenada wird momentan nicht optimal ausgelastet, mit einer LL-API hingegen steigen sowohl Leistung als auch Leistungsaufnahme, wobei letztere schneller steigt als die erstere. Die 970 wird bereits sehr gut ausgelastet und wird durch eine LL-API weder signifikant schneller noch stromhungriger. Eine Grenada entfernt sich also vom Sweetspot (der wohl bei ca. ~190W liegt), die 970 bleibt jedoch unverändert in der Nähe desselben. Folglich sinkt die Effizienz bei Grenada, während sie bei der 970 gleich bleibt. Die Sweetspots verschieben sich ja nicht plötzlich auf magische Weise, sondern bleiben konstant. Wie sollte also der von dir prophezeite Gleichstand eintreten?

Was noch nicht geprüft (bewiesen) wurde ist die hier implizite Vermutung, dass bei nicht Auslastung Teile des Chips diese deutlich weniger Leistung benötigen - das kann sein muss aber auch nicht - wir werden es in den hoffentlich bald kommenden DX12/Vulkan-Spielen sehen. Prüfen könnte man es ggf. mit DX11+Mantel Spielen auf den gleichen System und der jeweiligen API.

Achill
2016-02-23, 23:23:10
Toll. Von der 970-Speicherproblematik wandert man direkt in die DX11-Overhead Hölle.

Auch nicht besser. Und dass AMD seinen DX11-Treiber fixt - daran glaube ich nicht mehr.

Ich möchte wirklich gern mal ein guten Test sehen / verlinkt bekommen, wo gezeigt wird, dass es eine sehr gute (nah zu lineare) Steigerung bei AMD-GPUs im Zusammenhang mit höheren CPU-Takt gibt - und bei einer Leistungsähnlichen GPU von NV nicht der Fall ist.

aufkrawall
2016-02-23, 23:29:51
Gibt doch ständig Videos von Digitalfoundry, die bei neuen Spielen schlechte Frametimes mit AMD-GPU zeigen. fps müssen dabei gar nicht mal schlecht sein.

Allerdings ist Hitman Beta jetzt eine Ausnahme in der anderen Richtung. Hoffe, da tut sich noch was. Wobei das nichts mit dem Overhead zu tun hat, wie die Frametimes der 980 Ti zeigen.

Screemer
2016-02-23, 23:29:52
Das geht ja auch, aber nur unterhalb des Sweetspots.
Oberhalb muss (per definitionem) die zusätzliche Leistungsaufnahme die zusätzliche Leistung prozentual übersteigen.
Und da Grenada bereits ohne LL-API oberhalb des Sweetspots arbeitet, kann eine Leistungssteigerung keine Effizienzsteigerung sein, mithin die Effizienz der 970 nicht erreicht werden.
(Anders wäre das übrigens, wenn "bessere Auslastung" bedeuten würde, dass dieselbe Leistung wie ohne LL-API bei niedrigerer Leistungsaufnahme erreicht werden würde. So funktioniert das aber nicht.)
was anderes hab ich ja auch nicht behauptet. siehe die von mir dargelegte definition von sweetspot. dieser kann sich natürlich durch bessere auslastung der karte auch verschieben. in dem fall dann natürlich nach oben und nicht nach unten.

Troyan
2016-02-23, 23:31:48
Die "Fantasiewerte" entstanden auf zwei verschiedenen Systemen und sind von zwei Leuten unabhängig voneinander geprüft worden. Warum die Prüfung der Werte? Weil sie im ersten Moment kurios aussahen. Wenn aber beim zweiten Einbau der Karte mit korrekten Settings dasselbe herauskommt, ist das ein valider Wert – ob du das wahrhaben möchtest oder nicht.

Ich bin gespannt, ob das Spiel bis zum Release oder darüber hinaus noch auf 3,5 GiB zurechtoptimiert wird. Das ginge auch ganz bequem mithilfe der Entwickler: Beinhaltet das von PCGH getestete "Ultra"-Preset plötzlich eine geringere Schatten- oder Terxturauflösung, wäre wohl alles dufte. Hätte PCGH mit manuell maximierten Details gemessen (was nicht getan wurde), sähe alles noch etwas schlimmer aus.

MfG,
Raff

Und hier spielt jemand mit einer GTX970 in 1440p und Ultra-Preset ohne Probleme: https://youtu.be/T_ewCLvATt4?t=1431

Der Speicher geht sogar über die 3,5GB Grenze und hängt an der Stelle dauernd bei 3,77GB.

Der muss eine Wunderkarte haben. ;D

captain_drink
2016-02-23, 23:44:51
Ich möchte wirklich gern mal ein guten Test sehen / verlinkt bekommen, wo gezeigt wird, dass es eine sehr gute (nah zu lineare) Steigerung bei AMD-GPUs im Zusammenhang mit höheren CPU-Takt gibt - und bei einer Leistungsähnlichen GPU von NV nicht der Fall ist.

Das kommt dem ziemlich nahe: http://www.computerbase.de/2016-01/rise-of-the-tomb-raider-benchmarks/5/

Achill
2016-02-23, 23:49:43
Und hier spielt jemand mit einer GTX970 in 1440p und Ultra-Preset ohne Probleme: https://youtu.be/T_ewCLvATt4?t=1431

Der Speicher geht sogar über die 3,5GB Grenze und hängt an der Stelle dauernd bei 3,77GB.

Der muss eine Wunderkarte haben. ;D

=> Gigabyte GTX 970 G1 Gaming Core 1524 Mem 3649

Troyan
2016-02-23, 23:52:38
I know. Spielt keine Rolle, da die Karte die selbe Speicherbestückung hat.

blaidd
2016-02-24, 00:05:34
Und hier spielt jemand mit einer GTX970 in 1440p und Ultra-Preset ohne Probleme: https://youtu.be/T_ewCLvATt4?t=1431

Der Speicher geht sogar über die 3,5GB Grenze und hängt an der Stelle dauernd bei 3,77GB.

Der muss eine Wunderkarte haben. ;D


Hach, die gute alte Wenn-ich-auf-den-Boden-schiele-hab-ich-total-hohe-Fps-Methode und ich dachte schon, die wäre aus der Mode gekommen. Schaut er mal aus Versehen in die Ferne, sieht's schon ein bisschen anders aus, selbst wenn die Weitsicht grad gar nicht mal so toll ist...

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=54909&stc=1&d=1456268673


Danke, das bestätigt die Messung tatsächlich mehr als dass es sie widerlegt. Rechnet man noch den Boost runter auf ~1.316 MHz und kombiniert das Ganze dann mit unserer ziemlich anspruchsvollen Benchmarkszene, kommt das Ergebnis ganz gut hin.

aufkrawall
2016-02-24, 00:09:30
Gibts kein Video zu eurer Benchmark-Szene?

Achill
2016-02-24, 00:23:16
Das kommt dem ziemlich nahe: http://www.computerbase.de/2016-01/rise-of-the-tomb-raider-benchmarks/5/

Ich finde dort ja eben nicht, gäbe es ein CPU Problem, dann würde es bei der FuryX nicht so aussehen:
- i7-4770K @ 3,5 GHz + 4K (+ HTT ) => 71,5 fps
- i7-4770K @ 4,4 GHz + 4K + HTT => 72 fps

Auch bei den niedrigeren Kernen/Taktraten muss man sich vergegenwärtigen (sehr stark vereinfacht):
1. Jeder GPU-Type hat eine min. Latenz die selbst unter opt. Bedingungen für das Rendern einer bestimmten Szene benötigt wird.
2. Die CPU kann nicht beliebig viele Frame voraus berechnen/vorbereiten.
=> Je näher man dem jeweiligen GPU-Limit ist, desto eher muss die CPU auf die GPU warten - sehen wir bei der FuryX.
=> Je schneller eine GPU ist (weiter weg vom GPU Limit, kleine Latenz) desto eher kann die CPU den nächsten Befehl / die nächste Frame bearbeiten und damit kann es auch mehr FPS bei gleichen Takt im Vergleich zur Konkurrenz geben: 3,5GHz+2K+TI=81fps vs 3,5GHz+2K+FuryX=68fps

Prüfen kann man dies (bei 3,5GHz+2K):
- Eine 980 mit aufnimmt, diese sollte keine 81fps liefern.
- Bei der FuryX z.B. das AF reduziert/deaktiviert um die Latenz zu reduzieren, gibt es keinen "Overhead" dann steigen die FPS in Richtung TI, gibt es etwas im Treiber (und nicht eine Limitierung durch die HW), dann müssten die FPS gleich bleiben.
- Das AF bei der TI reduziert, hier sollte es keine deutliche Änderung bei den FPS geben - unter der Annahme wir sind bei 3,5GHz+2K zu 100% im CPU limit.

blaidd
2016-02-24, 00:30:44
Gibts kein Video zu eurer Benchmark-Szene?

Noch nicht für die Beta, nein - wir haben auch bis in den frühen Nachmittag evaluiert, da Benchmarks wegen der hohen Dynamik so kompliziert sind und haben schlussendlich doch kapituliert... Um die Uhrzeit wird's unter Umständen auch problematisch für unsere Videoabteilung, falls das Video noch bis zum nächsten Morgen fertig werden soll.

Wir hätten natürlich einfach in Innenräumen benchen können, aber dann wäre nur wieder irgendjemand dahergetrollt gekommen und hätte uns unterstellt, dass wir AMD-lastig benchen, weil die Radeons in Innenräumen tendenzielle Vorteile haben.

Aber hier ist ein Shot (den ich im Übrigen mit der Anleitung zum Reproduzieren der Szene ebenfalls mit den Ergebnissen an Nvidia weitergegeben hab...) ich zitiere mich mal selbst aus der Mail:

Ein Savegame kann ich nicht finden, ich schätze The Division speichert die Spielerdaten auf einem Server, auch um Cheaten an den Daten möglichst auszuschließen.

Ich hänge dir aber mal ein Bild von unsere Benchmark-Stelle an, die ist direkt zu Beginn beim Betreten der Stadt.

Was mir auch aufgefallen ist: Offenbar hinterlegt The Division eine Art Backbuffer im Speicher der GPU, beim Alt+Tab-Wechsel daheim bekam ich häufig ein Bild einer viel früheren Szene zu sehen. Je nachdem, wie viel Platz das da in Anspruch nimmt, könnte sich das eventuell negativ auf die Performance auswirken.

Im Anhang der Start unserer Messung (hier in 1440p, Ultra-Details mit GTX 970 – zur Validierung von Raffs Ergebnissen) – Wir sprinten geradeaus, am Auto erst links, dann rechts. Aber das sollte für euch nicht unbedingt von Belang sein, die Limitierung fällt schon direkt am Start auf.

https://farm2.staticflickr.com/1489/25222960465_2c965bf004_o_d.png

-/\-CruNcher-/\-
2016-02-24, 00:55:19
Heutzutage sind ja leider die meisten "finalen" Spiele ähnlich unfertig. Steht "Beta" dran, können sich Publisher und Entwickler nur wesentlich besser rausreden. ;) Dennoch sind Betas bzw. WIP-Spiele sehr gute Indikatoren: Robuste Hardware und Software halten Stand, der Rest nicht.

MfG,
Raff

Das der User dann aber tiefer in die Tasche greifen muss und die Zeche dieser unfähigkeit oder Kostenreduzierung auf seiten des Entwicklers zahlt findest du gut, die teurere Hardware hält ja stand soll der User es ausbaden das wir unsere Kosten reduzieren,toll ;)

Dabei solltest gerade du doch diese Thematik auch etwas besser verstehen, möchte nicht wissen wo bei euch überall gekürtzt wird ;)

Selbst Computerbase leistet sich jetzt ein FCAT System und ihr tuckelt immernoch mit FRAPS rum, die Resourcen wird Computec doch noch aufbringen können ;)

aufkrawall
2016-02-24, 01:13:57
Hawaii wär für den Preis ja durchaus verlockend, wäre der dämliche Treiber-Overhead nicht.

Edit: @blaidd: Gut, dass ihr transparent reagiert!

dargo
2016-02-24, 06:51:07
DA ist mir ne 970@1400 aber lieber als ne 390 die im 200W Schwitzkasten bei ~900MHZ liegt
Schwachsinn.


@megamember: wenn ich mir dargos Karte ansehe, die bei <200w gut roundabout 980-1040mhz macht und dazu 8gb noncripled vram, läge die Wahl bei mir definitiv bei der his.
Kleine Korrektur. Max. 1020Mhz, was dem Standard vom Hersteller entspricht.

In hohen Auflösungen ohne vsync? Im Leben nicht.
Wetten doch? ;) In 1440p wenn du es ganz genau wissen willst was meine native Spielauflösung ist. Und ja ohne Vsync. Bzw. mit Vsync, aber unterhalb der max. Freesync Refreshrate. Das selbe also wie Vsync Off was den Stromverbrauch angeht.

Könnte bei einigen Spielen auf <900 gehen...
Quark.

F2015 @1440p

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=54699&d=1454705444

Dürfte allerdings hart im CPU limit sein. Haswell@2,5ghz.

Vielleicht kann dargo ja selber was dazu beisteuern.
Hier, bei 2,5Ghz gabs natürlich stärkeres CPU-Limit. Siehst du auch an der relativ niedrigen GPU-Temperatur. Normalerweise liegt sie bei 70° bzw. knapp drüber.

Das ist eher repräsentativ, 3,5Ghz Hassi und 3200x1800 Auflösung.
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=54653&d=1454400762

Allerdings mit -50mV. Mit Default Spannung kannst du ca. 10-15Mhz bei 100% PT abziehen.

N0Thing
2016-02-24, 07:57:54
Da du eh keine Ruhe gibst ein vereinfachtes Beispiel anhand meiner CPU.

Hassi @4C/4T mit 3,7Ghz und 1,0459V in Prime95 bei 320k = 59W
Hassi @4C/8T mit 3,7Ghz und 1,0459V in Prime95 bei 320k = 66W

Mit HT sind es also 12% mehr Stromverbrauch. In Spielen konnte ich bisher max. +33% mehr Frames bei HT messen.

Das ist nur dann ein schlüssiges Beispiel, wenn du zu jeder Performance-Messung auch den Stromverbrauch mitgemessen hast. Einmal Prime messen und das auf mehrere andere Situationen übertragen ("In Spielen...") hat gar keine Aussagekraft.

dargo
2016-02-24, 08:05:53
Das ist nur dann ein schlüssiges Beispiel, wenn du zu jeder Performance-Messung auch den Stromverbrauch mitgemessen hast. Einmal Prime messen und das auf mehrere andere Situationen übertragen ("In Spielen...") hat gar keine Aussagekraft.
Du hast aber schon mitbekommen, dass Prime95 (war übrigens auch mit AVX2) alle Cores/Threads zu 100% auslastet was bei Spielen selbst im vollständigen CPU-Limit nie der Fall ist? Also wird der Verbrauch in Spielen noch geringer mit 4C/8T ausfallen. Die Mehrleistung bleibt.

N0Thing
2016-02-24, 08:24:02
Es bleibt dabei, dass du Ergbnisse mischst, die keinen Bezug zueinander haben. Entweder mit HT on/off in Spielen benchen und messen, oder es sein lassen. Aber nicht Stromverbrauch von Anwendung A mit Leistung von Anwendungen X,Y,Z kombinieren. Da kommt man nur dahin, was schon früher im Thread angeprangert wurde, nämlich die Leistungsaufnahme einer GTX 970/980 auf Standardtakt mit der Performance von OC-Modellen zu kombinieren --> Keine Aussagekraft.

dargo
2016-02-24, 08:41:12
Es ging mir doch überhaupt nicht darum den exakten Stromverbrauch darzustellen. Ihr hängt euch an Kleinigkeiten auf die nicht von Bedeutung sind. Es ging dabei speziell um die Aussage von captain_drink. Von mir aus sieh es als das schlimmste Szenario in Bezug auf den Stromverbrauch da wie schon gesagt so hohe Auslastung bei 8 Threads in Spielen nie gegeben ist.

Du kannst davon ausgehen dass der Mehrverbrauch im Spiel irgendwo zwischen >0 und <12% liegt, bei 33% mehr Leistung. Ist auch nur logisch, schließlich werden die Einheiten bei 4C/4T mit dem gleichen Strom der gleichen Spannung versorgt wie bei 4C/8T. Nur die Auslastung der CPU ist im zweiten Fall höher.

Edit:
Ich kann dir auch ein anderes Beispiel nennen. Als NV den Treiberoverhead bei dem einem Treiber deutlich verringert hatte wurden da teilweise 61% (Shogun oder sowas?) mehr Leistung gemessen. Messe mal nach ob deine CPU da auch 61% mehr Strom verbraucht. ;)

Zettabit
2016-02-24, 08:54:13
Ich möchte wirklich gern mal ein guten Test sehen / verlinkt bekommen, wo gezeigt wird, dass es eine sehr gute (nah zu lineare) Steigerung bei AMD-GPUs im Zusammenhang mit höheren CPU-Takt gibt - und bei einer Leistungsähnlichen GPU von NV nicht der Fall ist.
Gibt doch massig Tests, die plötzliche Einbrüche bei AMD mit langsamen CPUs zeigen. Nebenbei: Es ist gerade Charakteristik eines Bottlenecks wie dem DX11-Overhead, dass er ja nicht linear skaliert, sondern plötzlich stark einbricht.

Raff
2016-02-24, 09:16:02
Selbst Computerbase leistet sich jetzt ein FCAT System und ihr tuckelt immernoch mit FRAPS rum, die Resourcen wird Computec doch noch aufbringen können ;)

PCGH nutzt vom ersten Moment an FCAT für spezielle Messungen. Das kommt nicht regelmäßig, sondern nur bei großen Specials zum Einsatz, weil der Aufwand in keinem vernünftigen Verhältnis zur gewonnenen Präzision steht. Fraps und Afterburner sind in schätzungsweise 90 % der Fälle aussagekräftig. Würden wir immer FCAT nehmen, gäbe es Online-Specials nicht zeitnah und nicht im gewohnten Umfang. Hier hast du deine Kürzung (= Effizienz). ;)

MfG,
Raff

BlacKi
2016-02-24, 09:21:24
Gibt doch massig Tests, die plötzliche Einbrüche bei AMD mit langsamen CPUs zeigen. Nebenbei: Es ist gerade Charakteristik eines Bottlenecks wie dem DX11-Overhead, dass er ja nicht linear skaliert, sondern plötzlich stark einbricht.
der overhead skaliert bei einer cpu ziemlich gut mit dem cpu takt!

er wollte einen test wo es genau um diesen effekt ging, nicht test die als nebeneffekt dx11 overhead ausspucken. daran kann man erkennen das es ihn gibt, aber nicht wo er beginnt, wie er im verhältniss zur konkurenz steht oder den spieler limitiert.
ganz großes thema, aber jeder der tests macht ignoriert das thema, und erwähnt es höchstens in einem nebensatz.

Schnoesel
2016-02-24, 10:54:44
Kann hier mal ein Mod aufräumen. Treiber Overhead und Energieverbrauch gehören hier nicht hin. Hier gehts um die die "Besonderheit" der GTX 970 und deren Folgen und die sieht man in jüngster Vergangenheit immer öfter:

Xcom2
Division
Hitman

...

Troyan
2016-02-24, 11:12:56
Hach, die gute alte Wenn-ich-auf-den-Boden-schiele-hab-ich-total-hohe-Fps-Methode und ich dachte schon, die wäre aus der Mode gekommen. Schaut er mal aus Versehen in die Ferne, sieht's schon ein bisschen anders aus, selbst wenn die Weitsicht grad gar nicht mal so toll ist...

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=54909&stc=1&d=1456268673


Danke, das bestätigt die Messung tatsächlich mehr als dass es sie widerlegt. Rechnet man noch den Boost runter auf ~1.316 MHz und kombiniert das Ganze dann mit unserer ziemlich anspruchsvollen Benchmarkszene, kommt das Ergebnis ganz gut hin.

Das Video beweist, dass es keine Probleme mit dem Speicher gibt. Und das eine GTX770 hier mit 2GB genauso schnell wäre, ist an Lächerlichkeit nicht zu überbieten. :rolleyes:

Aber gerne kannst du das Gegenteil beweisen:
Video mit den Frames zwischen einer GTX970 und GTX770.

-/\-CruNcher-/\-
2016-02-24, 11:21:00
Kann hier mal ein Mod aufräumen. Treiber Overhead und Energieverbrauch gehören hier nicht hin. Hier gehts um die die "Besonderheit" der GTX 970 und deren Folgen und die sieht man in jüngster Vergangenheit immer öfter:

Xcom2
Division
Hitman

...

Das gehört mehr dazu als du denkst den auch das Strom Management ist wichtig für die Frametimes die Dynamischen Taktveränderungen und deren Latenz spielen eine essentielle rolle und auch hier kann einiges selbst von AIB zui AIB varieren, wenn man es minitös ausseinandernimt ;)
Vor allem wenn wir uns in einer Edge Region wie der GTX 970 bewegen ist balance alles, wenn wir es dann auch noch minitös subjektiv betrachten was mit der Methodik von PCGH hier garnicht möglich unter Windows ist siehe Raff :)

Wir bewerten hier auch teils die Latenz von Nvidias eigener Lossless DC Compression, deren Effizienz und Impact vor allem in diesem berreich der GTX 970 sehr sichtbar wird ;)

Diese Karte ist sozusagen Nvidias Prototyp für Effizientes Preis/Leistungs Design mit dem sie AMD Frontal Angegriffen haben zum Release und wir werden das sicherlich in Version 2 auch mit einer Pascal Version sehen (weiter optimiert) :)

Zugegeben man hat vielleicht etwas zu sehr an der Edge selbt für die Zukunft hinein kalkuliert [DX12], dennoch ist es eine sehr spanende karte für Geeks auf jedenfall ;)

Und die Verkaufszahlen geben Nvidia dazu noch absolut recht mit dieser Entscheidung und Preis Lage zu release jedenfalls.

Der größte unterschied bissweilen Zeigt sich gegenüber der GTX 980 bis jetzt nur im eigenen GameWorks Code so wirklich extreme ;)

blaidd
2016-02-24, 11:48:22
Beweist es nicht - weil du nicht verstanden hast, dass die Bandbreite der GTX 970 limitiert. Du bekommst keine Stocker, sondern die gesamte Performance der GPU wird in den Keller gezogen. Ich pack dir mal die Frametimes der GTX 970 dazu. Die von der GTX 770 habe ich nicht, die hat Raff gebencht. Eine GTX 960 oder R9 380 könnte ich dir anbieten, aber ich bezweifele mal, dass die dir weiterhelfen. Denn da gibt's offenbar einne gewissen Hang zur Uneinsichtigkeit, die höherem Verständnis im Wege steht. Stattdessen liest man von dir ständig irgendwelche "Lügenpresse"-Kommentare...

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=54910&stc=1&d=1456310862

Falls die GTX 970 in der Release-Version aber genauso limitiert, obwohl ich Nvidia die Daten zukommen lassen habe und sie noch ein wenig Zeit haben, die Treiber anzupassen, werde ich das extra für dich einmal haarklein dokumentieren. Selbst wenn das natürlich auch nichts bringen würde, weil ich kein Psychologe bin und Verdrängungsmechanismen wohl nicht lösen werden könne.

Ich find's im Übrigen auch lächerlich, dass eine GTX 770/2G in diesem Szenario fast genau so schnell ist, aber da solltest du dich vielleicht mal bei Nvidia beschweren. Die meisten anderen hier sind ja bereits auf den Trichter gekommen, nur du weigerst dich beharrlich

Troyan
2016-02-24, 12:19:46
Die Bandbreite limitiert also... Deswegen ist eine GTX960 mit 128bit auch
a)so schnell wie eine GTX770 mit der doppelten Bandbreite
b)so schnell wie eine GTX970 mit 75% der Bandbreite.

Immerhin ist es nun nicht mehr die Speichermenge. ;D

Deine Fantasiewerte sind doch nicht ausschlaggebend. Ohne einen Videovergleich mit der Anzeige der Einstellung und Frames kannst du hier alles posten. Das ist kein Argument und kein Beleg für deine Werte.

Schnoesel
2016-02-24, 12:22:59
Raffst du es eigentlich nicht dass 512 MB VRAM der GTX 970 ultralahm angebunden sind und ihr genau das zum Verhängnis wird? Wie viel zahlt dir Nvidia für den Scheiß den du hier von dir gibst? Im schlimmsten Fall bleibt dir von der Bandbreite nämlich fast nix mehr übrig.

M4xw0lf
2016-02-24, 12:24:59
[x] ban Trollyan. Führt doch zu nichts hier.

blaidd
2016-02-24, 12:29:40
[x] ban Trollyan. Führt doch zu nichts hier.

Ach, lass ihn doch - ich find's eigentlich ganz spaßig :wink:

captain_drink
2016-02-24, 13:07:58
Edit:
Ich kann dir auch ein anderes Beispiel nennen. Als NV den Treiberoverhead bei dem einem Treiber deutlich verringert hatte wurden da teilweise 61% (Shogun oder sowas?) mehr Leistung gemessen. Messe mal nach ob deine CPU da auch 61% mehr Strom verbraucht. ;)

Sofern man sich unterhalb des Sweetspots befindet, ist das ja auch keine Überraschung. Deine Beispiele bestätigen meine Argumentation, anstatt sie zu widerlegen.

The_Invisible
2016-02-24, 13:51:01
zu 1. der Vergleich zur Konkurrenz: bezogen auf das Referenzdesign hat NV oft mehr Speicher (sogar in der kleineren Version) als ATI geboten: 768/640 MB 8800 vs 512 MB HD2900, 1024/896 MB GTX 200 vs 512 MB HD 4800, 1536/1280 MB GTX 400 vs 1024 MB HD5800
Die 600er Serie dagegen hatte weniger Speicher als die HD7900er, genau diese Situation wollte NV wohl um Teufel komm raus bei Maxwell vermeiden. Und der Teufel kam auch raus...

zu 2. das käme einem Schuldeingeständnis oder zumindest dem Anerkennen des Problems gleich -> wird niemals passieren.
Die Karte hat sich wie geschnitten Brot verkauft und dieses Jahr steht Pascal an, da wird jetzt niemand mehr alte Speicherkrüppel-Leichen aus dem Keller holen.

Ich verstehe es trotzdem nicht. Man musste ja damit rechnen, dass ein paar "Freaks" dem auf die Schliche kommen und die Probleme überführen. Mit nur 3,5GB wäre der Preis ja trotzdem noch angemessen gewesen und man hätte sich viel erspart, auch eventuelle Treiberoptimierungen. Außerdem, so ein versteckter Treiber/BIOS-Schalter, der als Testing deklariert wird ist ja noch lange kein Zugeständnis ;D

Ansonsten: Bin da wohl eher unempfindlich was Frametimes und so angeht. Habe auch Rise of Tomb Raider in 1440p@max durchgespielt, hatte nie Probleme. Wenn ich dann so Vergleichsvideos anschaue merke ich eigentlich auch keinen Unterschied. Darum teste ich diese "Problemspiele" auch gerne selbst.

Aber ist schon brutal was heute an VRAM verballert wird. Wenn ich mir da W3 im Vergleich anschaue denke ich mir oft, was die anderen falsch machen. Ich hoffe doch mal sehr das pascal performance gpus minimum 8GB haben.

aufkrawall
2016-02-24, 14:17:49
Quark.

Was war denn das energiehungrigste Spiel, das du bei einem PT-Limit von 200W getestet hast? Ohne Undervolting, versteht sich.

Megamember
2016-02-24, 14:30:58
Würde die 390 gerne mal in diesen settings in GTA V sehen. Wie man sieht ist der Speicherverbrauch immer über 3,5GB, was laut vieler AMD boys ja alles unspielbar und rucklig werden lässt:

WQHD, alles max ausser die AA Einstellungen aus (settings 2 Posts vorher bzw. im Video bei 5:20):

http://www.computerbase.de/forum/showthread.php?t=1557990&page=3&p=18470812#post18470812

Schnoesel
2016-02-24, 14:36:05
Also für mich ist das alles andere als flüssig gerade bei Kamerschwenks merkt man doch die Ruckler. Kann aber an der Komprimierung, Youtube whatever liegen. Außerdem heißt belegt nicht gleich brauchen. Die GTX 970 kann nämlich beide Speichersektoren nicht gleichzeitig nutzen.

aufkrawall
2016-02-24, 14:43:21
Wie soll das Video irgendetwas dahingehend zeigen können, wenn es mit 30fps aufgenommen wurde oder so auf YT gelandet ist?

Schnoesel
2016-02-24, 14:45:10
Sag ich ja das Video belegt gar nix außer dass es nicht flüssig ist an was auch immer das liegen mag. Wie man das als Beleg eines flüssigen Spielerlebnisses werten kann ist mir ein Rätsel.

Achill
2016-02-24, 14:46:14
Würde die 390 gerne mal in diesen settings in GTA V sehen. Wie man sieht ist der Speicherverbrauch immer über 3,5GB, was laut vieler AMD boys ja alles unspielbar und rucklig werden lässt:

WQHD, alles max ausser die AA Einstellungen aus (settings 2 Posts vorher bzw. im Video bei 5:20):

http://www.computerbase.de/forum/showthread.php?t=1557990&page=3&p=18470812#post18470812

Hmm. Ich finde es gibt in einen sehr gleichmäßigen Abstand von ca. 1.5s eine Art Doppel-Ruckler.
Evtl. ist das auch normal für GTA V aber mich würde es nerven.

---
Edit: Das zweite Video aus dem Forum hat die gleiche Eigenart, spätestens wenn die Perspektive geändert wird bemerkt man es deutlich (~1:37m): https://youtu.be/T2Ex4sBMYU4

dargo
2016-02-24, 15:11:29
Was war denn das energiehungrigste Spiel, das du bei einem PT-Limit von 200W getestet hast? Ohne Undervolting, versteht sich.
Witcher 3. Mit 100% PT und Defaultspannung von +25mV liegt der avg. Takt bei ~930Mhz. Mit meinen -50mV ein avg. Takt von ~985Mhz. Man kann natürlich mit dem PT auch etwas rumspielen wenn man mehr Takt will. Aber wozu? Für die 2fps mehr soll ich dann 25-30W mehr verbraten? :ulol: Wobei mich der Stromverbrauch eh relativ wenig interessiert. Wichtig ist mir nur, dass die Karte schön leise bleibt und dabei noch nicht zu heiß wird. Beides ist mit 100% PT gegeben. Maximal 70-72°C GPU bei ~1440RPM Lüfter. Die VRMs fühlen sich auch dabei puddelwohl. Will ich bsw. die 1020Mhz durchgängig in Witcher 3 mit meinem Undervolting haben müsste ich 115% PT nehmen. Folglich wird die GPU etwas wärmer oder ich muss die Lüfter für gleiche Temps etwas schneller drehen lassen. Um die 1600-1700RPM müssten reichen. Das ist es mir aber nicht wert.

iuno
2016-02-24, 15:16:43
Defaultspannung von +25mV
:confused:
Was meinst du damit? Wenn standardmaessig 1,275 Volt anliegen ist das nicht gleichzusetzen mit "+25 mV". Wenn du auf 1,2 runtergehst sind es dann -75 mV.
Der Chip laeuft ja standardmaessig nicht overvoltet sondern normal. Dass die Spannungen da unterschiedlich sind liegt an der Guete des individuellen Chips

Megamember
2016-02-24, 15:22:25
Hmm. Ich finde es gibt in einen sehr gleichmäßigen Abstand von ca. 1.5s eine Art Doppel-Ruckler.
Evtl. ist das auch normal für GTA V aber mich würde es nerven.

---
Edit: Das zweite Video aus dem Forum hat die gleiche Eigenart, spätestens wenn die Perspektive geändert wird bemerkt man es deutlich (~1:37m): https://youtu.be/T2Ex4sBMYU4

Das liegt an youtube selbst oder an seinem Aufnahmeprogramm. Habs eben selbst mal ausprobiert und auch bei Kameraschwenks keine Ruckler. Wollte mit fraps eben mal ein kleines Video erstellen aber sobald ich Aufnahme drücke gehen die fps runter und es hakt, irgendwas mach ich falsch.

dargo
2016-02-24, 15:23:55
@iuno

Der Afterburner spuckt mir @Default +25mV raus. Ich schätze mal das ist nur ein Sicherheitspuffer von HiS für die zusätzlichen 20Mhz OC.

Würde die 390 gerne mal in diesen settings in GTA V sehen. Wie man sieht ist der Speicherverbrauch immer über 3,5GB, was laut vieler AMD boys ja alles unspielbar und rucklig werden lässt:

WQHD, alles max ausser die AA Einstellungen aus (settings 2 Posts vorher bzw. im Video bei 5:20):

http://www.computerbase.de/forum/showthread.php?t=1557990&page=3&p=18470812#post18470812
Was soll dieses Video jetzt beweisen? Ich sehe im Video ein dauerhaftes Ruckeln. Und ja... ich habe meinen Bildschirm auf 60Hz gestellt. Ein kleiner Tipp von mir für ein ruckelfreies Video.

1. Dein System muss durchgehend inkl. Videoaufnahme die 60fps halten können.
2. Die Framerate muss während der Aufnahme auf 60fps gelockt sein.

Alles andere kannst du vergessen.

Das liegt an youtube selbst oder an seinem Aufnahmeprogramm. Habs eben selbst mal ausprobiert und auch bei Kameraschwenks keine Ruckler. Wollte mit fraps eben mal ein kleines Video erstellen aber sobald ich Aufnahme drücke gehen die fps runter und es hakt, irgendwas mach ich falsch.
Du machst gar nichts falsch. Schon für eine Aufnahme in 1080p brauchst du ca. 20-25% mehr Leistung um die 60fps halten zu können. Bei 1440p @60fps sind die Anforderungen an dein System noch wesentlich höher. Bin mir jetzt nicht 100% sicher, aber bei 1440p @60fps limitiert eventuell auch schon deine HDD, müsste man ausrechnen was da an Daten pro Sekunde anfällt. Oder nimmst du auf SSD auf?

aufkrawall
2016-02-24, 15:42:02
Witcher 3. Mit 100% PT und Defaultspannung von +25mV liegt der avg. Takt bei ~930Mhz. Mit meinen -50mV ein avg. Takt von ~985Mhz. Man kann natürlich mit dem PT auch etwas rumspielen wenn man mehr Takt will. Aber wozu? Für die 2fps mehr soll ich dann 25-30W mehr verbraten? :ulol: Wobei mich der Stromverbrauch eh relativ wenig interessiert. Wichtig ist mir nur, dass die Karte schön leise bleibt und dabei noch nicht zu heiß wird. Beides ist mit 100% PT gegeben. Maximal 70-72°C GPU bei ~1440RPM Lüfter. Die VRMs fühlen sich auch dabei puddelwohl. Will ich bsw. die 1020Mhz durchgängig in Witcher 3 mit meinem Undervolting haben müsste ich 115% PT nehmen. Folglich wird die GPU etwas wärmer oder ich muss die Lüfter für gleiche Temps etwas schneller drehen lassen. Um die 1600-1700RPM müssten reichen. Das ist es mir aber nicht wert.
Witcher 3 ist zwar stromhungrig, aber auch noch kein Worst Case.

Und ja, mir ist der Verbrauch eigentlich auch egal. Deshalb stecke ich die Luft nach oben, die GM204 hat, ja auch nicht in den niedrigsten Verbrauch, sondern in Takt. Mit gescheiter Kühlung wird das auch nicht nennenswert ineffizienter.
Was glaubst du wohl, wie sehr man den Chip undervolten könnte, wenn 20% OC gegenüber dem Referenzdesign drin sind?
Du suchst dir einfach den bestmöglichen Vergleich für Hawaii aus und erklärst den für allgemeingültig.
Jetzt kommst du mit -50mV um die Ecke, rly?

Wenn man undervoltete GM204s und Hawaiis vergleichen würde, käme man auch wieder bei mindestens 50% Effizienzvorteil (im Schnitt, no cherry picking plz...) für GM204 raus.

iuno
2016-02-24, 15:51:02
Was glaubst du wohl, wie sehr man den Chip undervolten könnte, wenn 20% OC gegenüber dem Referenzdesign drin sind?
Das ist nicht so einfach, Igor hatte das glaube ich mal angedeutet. Teste es doch mal ;)
Regelt Maxwell nicht selbst auch die Spannung im Boost-Bereich weiter hoch/runter?

Bei Hawaii ist das Verhalten ja auch nicht trivial. UV geht meistens gut, OC trotzdem gar nicht.

Schnoesel
2016-02-24, 15:52:08
Wenn man undervoltete GM204s und Hawaiis vergleichen würde, käme man auch wieder bei mindestens 50% Effizienzvorteil (im Schnitt, no cherry picking plz...) für GM204 raus.

Mir war als könne man GM 204 nicht undervolten

"Wer sich jetzt ärgert und Gleiches auch von der GeForce-Karte verlangt, wird leider enttäuscht zurückgelassen. Eine Spannungsabsenkung ist derzeit nicht vorgesehen, denn dies geschieht nur intern über die Absenkung des Power Targets. Da Boost ein sehr fragiles Mikrosystem ist, ist jede Absenkung auch mit den Einschränkungen beim tatsächlich erreichbaren Boost-Takt verbunden, was zum Teil erhebliche Performance-Einbußen mit sich bringt."

http://www.tomshardware.de/radeon-r9-fury-spannungsabsenkung-afterburner-untervolting-effizienzsteigerung,testberichte-242015.html

Und was bitte hat das hier verloren?

aufkrawall
2016-02-24, 15:57:21
Mir war als könne man GM 204 nicht undervolten

Geht nur per Bios, wenn mans unbedingt will.
Die Karten bleiben aber auch mit OC so leise, dass das überhaupt keinen Sinn macht. Ich fahre mit 1,4Ghz unter Last Drehzahlen, die dargo im Idle hat.

iuno
2016-02-24, 16:07:18
uv ist nicht nuer fuer die Lautstaerke gut. Wenn deutlich zu viel Spannung gegeben wird, hat das auch negativen Einfluss auf den Verbrauch und durch das power management daher auch unmittelbar auf die Leistung. Daher kann man ja uv teils hoehere Taktraten fahren, wenn das PT greift. Das faellt vor allem bei der Nano auf. Aber auch eine 290 laesst sich so z.B. auf 1 GHz halten, ohne das PT zu erhoehen
Ob das bei Maxwell auch so zutrifft weiss ich wie gesagt nicht. Da regelt der boost alleine ja schon mehr und sorgt mehr oder weniger ja dafuer, dass die Spannung, die anliegt dann auch mit Takt 'ausgenutzt' wird?!

dargo
2016-02-24, 16:17:41
Du suchst dir einfach den bestmöglichen Vergleich für Hawaii aus und erklärst den für allgemeingültig.
Jetzt kommst du mit -50mV um die Ecke, rly?

Du verdrehst mal wieder völlig die Tatsachen. Ich habe nirgendwo gesagt man muss die GPU undervolten. Ich habe nur aufgezeigt, dass ich sie für alle meine Spiele mit -50mV betreibe weil es damit keine Grafikfehler oder sonstige Probleme gibt. Manche Spiele (aktuelle, keine alten Schinken) laufen auch mit -100mV problemlos wo dann die 1020Mhz bei 100% PT durchgängig gehalten werden. Da es mir aber zu blöd ist mehrere Profile anzulegen nehme ich halt die -50mV für alle Spiele. Wenn wir jetzt mal das Worst Case bei mir nehmen, Witcher 3 mit 100% PT und der Default Spannung... dort liegt der avg. Takt bei 930Mhz.

GPU-limitierte Szene.
100% PT, +25mV = avg. ~930Mhz mit 52,5fps
122% PT, +25mV = 1020Mhz mit 57,1fps

Für 9% Mehrleistung werden ca. 44W (hochgerechnet, nicht gemessen) mehr verballert, was auch in 1780RPM Lüfter bei 78°C GPU resultiert. Um die GPU bei meinen üblichen Temps. von 70-72°C zu halten müssten die Lüfter schon deutlich über 2000RPM, ja beinah 3000RPM drehen. Ich hoffe auch dir wird klar wie hirnrissig sowas ist. Besonders wenn man mit einem Freesync Monitor unterwegs ist. ;) Solche Spielchen kann man gerne mit ner Wakü betreiben wenn man unbedingt möchte. Mit Luftkühlung ist sowas einfach nur bescheuert.

Und nochmal... ich sage nicht, dass alle 390-er sparsam sind. Gerade diejenigen die da 1050+Mhz anpeilen und diese auch auf Teufel komm raus halten wollen (wesentlich höheres Default-PT nötig) verbraten natürlich entsprechend viel Strom.

Geht nur per Bios, wenn mans unbedingt will.
Die Karten bleiben aber auch mit OC so leise, dass das überhaupt keinen Sinn macht. Ich fahre mit 1,4Ghz unter Last Drehzahlen, die dargo im Idle hat.
Vorsicht! Deine Lüfter haben auch größeren Durchmesser. ;) Ich kenne die Lüfter von der MSI GTX970 sehr gut. Wenn meine Lüfter mit 1400RPM drehen ist das von der Lautstärke her vergleichbar mit den Lüftern der MSI mit ca. 1100RPM. ;)

PS: deine GPU ist bei deinen Drehzahlen auch ein paar °C wärmer als meine wenn ich dein Diagramm richtig in Erinnerung habe. 75 oder 76°C?

aufkrawall
2016-02-24, 16:33:37
Du verdrehst mal wieder völlig die Tatsachen. Ich habe nirgendwo gesagt man muss die GPU undervolten. Ich habe nur aufgezeigt, dass ich sie für alle meine Spiele mit -50mV betreibe weil es damit keine Grafikfehler oder sonstige Probleme gibt. Manche Spiele (aktuelle, keine alten Schinken) laufen auch mit -100mV problemlos wo dann die 1020Mhz bei 100% PT durchgängig gehalten werden. Da es mir aber zu blöd ist mehrere Profile anzulegen nehme ich halt die -50mV für alle Spiele. Wenn wir jetzt mal das Worst Case bei mir nehmen, Witcher 3 mit 100% PT und der Default Spannung... dort liegt der avg. Takt bei 930Mhz.

Jetzt argumentierst du schon, dass man die GPU für einzelne Spiele mit für den Takt bei anderen Spielen überhaupt nicht mehr ausreichender Spannung betreiben könnte?
Ne, also das wird mir jetzt zu doof. Ich sag dazu nichts weiter...


GPU-limitierte Szene.
100% PT, +25mV = avg. ~930Mhz mit 52,5fps
122% PT, +25mV = 1020Mhz mit 57,1fps

Woher weiß man ohne genau Messung der Karte allein, wie viel W 100% PT sind?
Falls das die TDP-Angabe bei TPU ist, sind das stolze 275W:
https://www.techpowerup.com/gpudb/b3415/his-r9-390-iceq-x2-oc.html
-20% PT wären dann auch immer noch 220W.

dargo
2016-02-24, 16:50:00
Jetzt argumentierst du schon, dass man die GPU für einzelne Spiele mit für den Takt bei anderen Spielen überhaupt nicht mehr ausreichender Spannung betreiben könnte?
Ne, also das wird mir jetzt zu doof. Ich sag dazu nichts weiter...

Was hast du daran nicht verstanden, dass ich aus "Faulheit" für alle Spiele die höhere Spannung (-50mV anstatt teilweise möglichen -100mV) nehme? Ich bin mir bei deiner Argumentationskette mittlerweile auch nicht sicher ob du die Funktionsweise von Powertune verstanden hast. Ansonsten verstehe ich teilweise deine Fragen wirklich nicht. :)


Woher weiß man ohne genau Messung der Karte allein, wie viel W 100% PT sind?
Falls das die TDP-Angabe bei TPU ist, sind das stolze 275W:
https://www.techpowerup.com/gpudb/b3415/his-r9-390-iceq-x2-oc.html
-20% PT wären dann auch immer noch 220W.
Die c´t misst bei meiner Karte knapp über 200W (bin mir nicht sicher ob das 208 oder 211W waren, suche immer noch den Link hier im Forum). Bios sagt 208W PT, HWiNFO sagt avg. 200W. Was brauchst du denn noch? Glaubst du ernsthaft ich könnte mit zwei 85mm Lüftern bei 1440RPM und 70-72°C GPU 275W abführen? Dann bist du ganz schön naiv. :tongue:

PS: die Angaben von Techpower sind völliger Unsinn. Das hat man einfach von der AMD-Folie übernommen.

http://cdn.wccftech.com/wp-content/uploads/2015/06/AMD-Radeon-R9-390-Specifications-635x357.jpg

Das wird höchstwahrscheinlich die von AMD vorgeschlagende Board Power sein.

iuno
2016-02-24, 16:58:16
Bios sagt 208W PT

Hat/muss nichts zu sagen haben. Bei meiner Asus 290X steht da iirc auch 208 oder sowas, das PT liegt aber auf jeden Fall hoeher.
Bei den Gedankenspielchen muss man auch beachten, dass "+-20% Leistung" im Catalyst eben nicht "+-20% Watt" entsprechen.

Ist uebrigens der richtige Thread dafuer das zu behandeln :lol:

dargo
2016-02-24, 17:13:36
@iuno

Die ausgelesenen Bioswerte sind eh mit größter Vorsicht zu genießen. Ich hatte diesbezüglich eine interessante Unterhaltung mit Gipsel über PN. Bei einigen Karten liest der Hawaii-Bios-Reader Unsinn aus da einige Werte in der falschen Zeile landen.

Und ja... wir sind hier völlig OT damit. Bitte einen Mod die Unterhaltung auszulagern. :)

PS: das mit dem PT ist mir bewußt. ;) +20% PT heißt natürlich 20% mehr als Default-PT und nicht +20W.

aufkrawall
2016-02-24, 17:55:38
Da du offenbar keine powervirusartigen Spiele kennst:
Auf wie viel Mhz geht deine GPU bei -10 oder-20% PT ohne Spannungsabsenkung runter, wenn du MSI Kombustor 2.5 WQHD Vollbild 1xAA DX11 Torus mit Post-FX startest?

Es sind hier mit der 980 bei 225W 1367Mhz von maximal möglichen 1420 bei 2Ghz Speichertakt. Das ist gar nicht mal so ein unrealistischer Fresser, bei Talos in 5k hab ich 1390Mhz.

fondness
2016-02-24, 18:45:42
Es stimmt auf jeden Fall, das HIS default mäßig ein sehr niedriges PT hat.

dargo
2016-02-24, 18:46:03
Was soll dieser beknackte Vergleich eigentlich bringen? Du misst deine 980 mit 225W und ich soll meine Karte mit 160W messen? :| Zumal mich irgendwelche Powerviren oder 5k überhaupt nicht interessieren. Meine Spielauflösung beträgt 1440p, der tiefste Takt wird bei Witcher 3 erreicht, da interessiert mich der Takt im Furmark so viel wie wenn in China ein Sack Reis umfällt.

aufkrawall
2016-02-24, 19:15:42
So kennt man das von dir: Wenn bis zu deinem Tellerrand alles in Ordnung ist, dann sei das auch darüber hinaus so...

dargo
2016-02-24, 19:57:01
Ich habe mal einen anderen Vorschlag. Wie wärs wenn wir den Takt ermitteln indem ich meiner Karte 225W gönne und du deiner 160W. Merkst du was? :tongue: Für Äpfel/Birnen Vergleiche habe ich wirklich keine Lust.

Achill
2016-02-24, 21:25:09
Da du offenbar keine powervirusartigen Spiele kennst:
Auf wie viel Mhz geht deine GPU bei -10 oder-20% PT ohne Spannungsabsenkung runter, wenn du MSI Kombustor 2.5 WQHD Vollbild 1xAA DX11 Torus mit Post-FX startest?

Es sind hier mit der 980 bei 225W 1367Mhz von maximal möglichen 1420 bei 2Ghz Speichertakt. Das ist gar nicht mal so ein unrealistischer Fresser, bei Talos in 5k hab ich 1390Mhz.

Mal ein paar Werte:
- System Idle: 88W
- Super_Pi (1 Core Last): 134W
- 1x290X (MSI Kombustor 2.5): 383W mit ~50fps bei (1020 MHz)
- 2x290X (MSI Kombustor 2.5): 606W mit ~100fps bei (1004 und 1030 MHz)

Der Takt schwankt zwischen 1002 und 1035 MHz.

Bei der Messung der benötigten Leistung sollte man noch bedenken, dass mein NT bei geringer Last eine schlechteren Wirkungsgrad hat und ich mit einen einfach Durchschnitts-Wattmeter (ca. 5s Intervall) (Stiftung Warentest: Sehr Gut) am Stecker des Rechners gemessen habe.

Edit: Den CFX Modus habe ich länger laufen lassen, weil anscheinend mit einen neuen Treiber die Taktraten unterschiedlich sein können, ohne das es Probleme gibt - ist mir neu und wollte das etwas beobachten. Die neue Karte hat immer den höheren Chiptakt von beiden.

---
Edit:
- PT war +/-0%
- Default Takt der Tri-X (1040/1300) jeweils

Die Bilder dazu:
- CFX off: http://i.imgur.com/6r0rQ8s.jpg
- CFX on: http://i.imgur.com/ZHucZ4q.jpg

aufkrawall
2016-02-24, 21:52:36
Ich habe mal einen anderen Vorschlag. Wie wärs wenn wir den Takt ermitteln indem ich meiner Karte 225W gönne und du deiner 160W. Merkst du was? :tongue: Für Äpfel/Birnen Vergleiche habe ich wirklich keine Lust.
Klar. Die 225W beziehen sich aber schon auf Torture, und nicht irgendeinen angeblichen Spiele-Verbrauch, der ohne weitere Angaben von irgendeinem Magazin aufgestellt wurde?

@Achill: Thx!

dargo
2016-02-24, 21:59:36
Klar. Die 225W beziehen sich aber schon auf Torture, und nicht irgendeinen angeblichen Spiele-Verbrauch, der ohne weitere Angaben von irgendeinem Magazin aufgestellt wurde?

Danke für die Bestätigung, dass du keine Ahnung von Powertune hast.

aufkrawall
2016-02-24, 22:00:49
Dann erleuchte mich bitte, Meister dargo! :umassa:

x-force
2016-02-25, 16:06:34
dargo hat sich doch schon damals, mit seiner "bei mir ruckelt engine x" schiene, ordentlich selbst hinters licht geführt :D

Megamember
2016-03-01, 23:45:02
Lol, ein Post aus einem anderen Forum fasst es gut zusammen ;):

Der die 970 is ne fette Karte. @stock so schnell wie Kepler Titan, aber immens effizienter, das auch mit 1500MHz gegenüber einer ebenfalls übertakteten 390. und das ganze mit Krüppelfuß, mal eben lässig gehumpelt
der Mad Max unter den aktuellen GraKas, kaputt, unbeliebt, aber geil. :D

Blediator16
2016-03-01, 23:55:05
Dieses Jahr wird dem guten Mad Max der zweite Fuß sicher auch noch abschimmeln :wink:

(del)
2016-03-02, 06:49:43
Wer den Längsten zu haben glaubt, zieht oft den Kürzeren. :P

Mit der GTX 970 ist es wie mit einem Jungesellenkleiderschrank. Legt man alles ordentlich rein und bescheidet sich mit der Klamottenstückzahl, ist das Leben doch völlig in Ordnung. Nur an die zwei obersten Fächer kommt man kaum ran und muss erst jedes Mal die Leiter holen - das wiederum dauert. Wer aber nur einen Schlüpper besitzt, eine Hose und drei T-Shirts, der wird das nie bemerken. :P

dllfreak2001
2016-03-06, 12:57:57
Ich bin echt erstaunt wie stark der Sprung von Full-HD auf 1440p die GTX970 schlaucht.

Bei UT4 halbiert sich die Framerate glatt.

aufkrawall
2016-03-08, 15:41:36
GTX 980 58% vor der 970 in WQHD bei The Division Final :cool: :
http://www.pcgameshardware.de/The-Division-Spiel-37399/Specials/PC-Benchmarks-1188384/
Und PCGH hatten afair Nvidia ja schon bei der beta auf ihr Ergebnis hingewiesen...

So viel dazu, dass Nvidia viel über den Treiber machen kann. Ich hatte es schon mal gesagt:
Es gibt wahrscheinlich eine Art allgemeine Heuristik, dass der Treiber die krüppeligen 0,5GB möglichst nicht nutzt, was aber eingeschränkt ist. Hauptsächlich muss sich der Spieleentwickler drum kümmern.

dildo4u
2016-03-08, 15:45:40
Ultra ist nicht mal in 1080p spielbar das Game fühlt sich unter 50fps einfach grottig an,die 970 killt die 390 in 1080p sieht soweit alles gut aus.

Target ist laut Nvidia 1080p High 60fps mit der 970,die 980 Ti reicht für 1440p aber auch nur @High.

http://www.geforce.com/whats-new/articles/tom-clancys-the-division-geforce-gtx-970-recommended

M4xw0lf
2016-03-08, 15:46:41
GTX 980 58% vor der 970 in WQHD bei The Division Final :cool: :
http://www.pcgameshardware.de/The-Division-Spiel-37399/Specials/PC-Benchmarks-1188384/
Und PCGH hatten afair Nvidia ja schon bei der beta auf ihr Ergebnis hingewiesen...

So viel dazu, dass Nvidia viel über den Treiber machen kann. Ich hatte es schon mal gesagt:
Es gibt wahrscheinlich eine Art allgemeine Heuristik, dass der Treiber die krüppeligen 0,5GB möglichst nicht nutzt, was aber eingeschränkt ist. Hauptsächlich muss sich der Spieleentwickler drum kümmern.
Sogar die 380X liegt in WQHD 20% vorne (gegenüber der OC-970 mit >1300 MHz, wohlgemerkt) :freak:

aufkrawall
2016-03-08, 15:47:04
Ultra ist nicht mal in 1080p spielbar das Game fühlt sich unter 50fps einfach grottig an,die 970 killt die 390 in 1080p sieht soweit alles gut aus.
So ein Blödsinn, ich konnte die Beta problemlos mit der 980 in WQHD mit max Details ohne Gameworks spielen.
Vielleicht fühlt es sich ja nur auf der 970 grottig an? :upara:

iuno
2016-03-08, 15:50:15
Oder NV laesst es jetzt eben langsam schleifen, damit sie bald mehr Pascal verkaufen :P
ernsthaft, es war ja klar dass man etwas im Treiber machen aber den Kollaps eben nicht komplett verhindern kann. Wenn die 4 GiB halt voll sind sind sie voll und wenn Daten die hinten stehen gebraucht werden, werden sie gebraucht. Wenn der Speicher voll ist ist halt auch nicht mehr viel mit umsortieren.

Eigentlich sollte sich jeder Entwickler mit gesundem Verstand weigern, auf so einen bs Ruecksicht nehmen, alleine schon damit es nie wieder passiert. Mich wuerde mal interessieren wie viel Geld geflossen ist um dahingehend zu "optimieren"

aufkrawall
2016-03-08, 15:51:14
Vielleichst ist diese "Heuristik" (ich nenn es mal weiter so) auch einfach nicht mit WDDM 2.0 kompatibel. Dann würde man jetzt schon den "DX12-Effekt" bei DX11 sehen.

Troyan
2016-03-08, 16:03:20
Es wurde schon immer bei 3,5GB abgeschottet und erst danach hat die Heuristik gearbeitet.

aufkrawall
2016-03-08, 16:05:10
Ohne WDDM 2.0 verfiel es aber nicht in den "Langsam-Modus", den du ja selber von deiner 980 Ti aus den ersten paar Sekunden bei Tomb Raider nach dem Laden mit Very High Texturen kennst.

N0Thing
2016-03-08, 16:09:39
Ultra ist nicht mal in 1080p spielbar das Game fühlt sich unter 50fps einfach grottig an

Die Beta lief auch mit weniger als 50fps sehr angenehm im Vergleich zu vielen anderen Spielen mit anderen Engines. Kann mir nicht vorstellen, dass sich das mit der finalen Version verändert hat.

von Richthofen
2016-03-08, 21:29:41
Ultra ist nicht mal in 1080p spielbar das Game fühlt sich unter 50fps einfach grottig an,die 970 killt die 390 in 1080p sieht soweit alles gut aus.

Gekillt mit ganzen 5%.
Die Benches bei PCGH, Guru3D, GameGPU und Gamestar streuen ziemlich stark.
Bei Letzterer "killt" die 380X dann eine 970: http://www.gamestar.de/hardware/praxis/technik-check/3269013/the_division_pc_technik.html

dargo
2016-03-08, 21:56:22
Lol... und dann noch die MSI Gaming 4G. :ulol:

gnomi
2016-03-08, 22:26:42
Die testen mit variierenden Tageszeiten und auch abweichenden Einstellungen.
Da ist PCGH imho um einiges gewissenhafter. =)

Schaffe89
2016-03-08, 23:42:35
Die GTX 970 wird wirklich immer "lower", genauso wie vorhergesagt.
Bei PCGH fällt sie in WHQD und 1440x3440 weit zurück, hinter eine uralte 280x.
Und sagt blos nicht es sei nicht spielbar, man kann an den Settings drehen ohne die Texturen anzurühren.

von Richthofen
2016-03-08, 23:49:55
Die testen mit variierenden Tageszeiten und auch abweichenden Einstellungen.
Da ist PCGH imho um einiges gewissenhafter. =)

Stimmt, gut das es im Test erwähnt wird.
Beim Guru wird der Ingame-Bench genutzt.
Keine Ahnung wie die Russen testen - ohne Kenntnisse der Sprache kann man nur Balken ablesen.

Jedenfalls sieht man aktuell nur in den PCGH-Benches den starken Abfall der 970 ab der WQHD-Auflösung.

Troyan
2016-03-08, 23:51:55
Guru3d hat Einstellungen geändert, ist also kein Ultra. Und GameGPU testet in der Kanalisation.
Computerbase hat das Preset "Hoch" verwendet.

Und es macht bei Ultra kein Sinn Karten mit unterschiedlicher Speicherbestückung zu testen, da das Spiel automatisch Details und Texturqualität senkt...

Raff
2016-03-08, 23:58:21
Man sieht aber Tendenzen. Das Spiel ist auf 4 GiB ausgelegt und das wird der GTX 970 zum Verhängnis.

MfG,
Raff

Blediator16
2016-03-09, 00:09:31
Der zweite Zeh fängt bereits an zu schimmeln...:freak:

Raff
2016-03-09, 00:24:36
Payne to the Max. ;)

MfG,
Raff

Palpatin
2016-03-09, 01:21:15
Zeigt ganz gut das die 970 mit nur 3,5GB deutlich besser dran wäre, in 1080p noch gleich auf mit der 780ti und in 1440p wird sie dann um 40% von der 3GB Karte überholt :eek:.

dargo
2016-03-09, 07:00:06
Zeigt ganz gut das die 970 mit nur 3,5GB deutlich besser dran wäre, in 1080p noch gleich auf mit der 780ti und in 1440p wird sie dann um 40% von der 3GB Karte überholt :eek:.
Ein weiteres gutes Beispiel welches zeigt, dass die 970 keine normale 3,5GB Karte ist. So mancher hat das bis heute nicht verstanden, damit meine ich natürlich nicht dich. :)

derF
2016-03-09, 08:49:49
Ein weiteres gutes Beispiel welches zeigt, dass die 970 keine normale 3,5GB Karte ist. So mancher hat das bis heute nicht verstanden, damit meine ich natürlich nicht dich. :)
Leider ubel, dass der fehlende Support schon eintritt bevor die Nachfolger rauskommen. Naja, war abzusehen, [..].

MartinRiggs
2016-03-09, 10:50:39
Zeigt ganz gut das die 970 mit nur 3,5GB deutlich besser dran wäre, in 1080p noch gleich auf mit der 780ti und in 1440p wird sie dann um 40% von der 3GB Karte überholt :eek:.

Manche haben damals die 780TI sogar gegen die tolle effiziente GTX970 getauscht.
Naja Effizient ist sie ja, nur schnell nicht mehr in neuen Games :lol:

dildo4u
2016-03-09, 11:56:58
CB testet übrigens mit High unter 1440p siehe da kein Abkacken der 970,wobei ich wie gesagt mit CB übereinstimme gut spielbar ist es erst mit 55fps.

http://www.computerbase.de/2016-03/the-division-benchmark/2/#diagramm-the-division-2560-1440

Wie Nvdia gesagt hat 970 für 1080p High und die 980 TTi für 1440p High.Ich sehe hier wieder massig Kommentare von Leuten die das Game gar nicht zocken aber schön ihre Senf dazu abgeben.

Zeigt ganz gut das die 970 mit nur 3,5GB deutlich besser dran wäre, in 1080p noch gleich auf mit der 780ti und in 1440p wird sie dann um 40% von der 3GB Karte überholt :eek:.

Die GTX 970 wird wirklich immer "lower", genauso wie vorhergesagt.
Bei PCGH fällt sie in WHQD und 1440x3440 weit zurück, hinter eine uralte 280x.
Und sagt blos nicht es sei nicht spielbar, man kann an den Settings drehen ohne die Texturen anzurühren.


Und warum die 780 TI und 280X unter 1440p besser läuft hängt vermutlich damit zusammen

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10966265&postcount=7

Schätze mal in 1440p braucht man minium 4GB für volle Details.

Schnoesel
2016-03-09, 13:03:29
Genau das wäre bei der GTX 970 auch nötig aber wenn die Karte 4GB meldet wird sie auch wie eine solche behandelt. Wie man das auch noch positiv sehen kann bleibt allein dein Geheimnis. Fakt ist die GTX 970 bekommt schon wieder durch Ihre krumme Anbindung Probleme. 1440p und damit DSR ist mit der GTX 970 obsolet.

dildo4u
2016-03-09, 13:09:07
Das Game setzt auf Headshots da man so deutlich mehr Schaden anrichtet,das macht mit fps unter 50 einfach kein Spaß.Fällt natürlich nich auf wenn man auf normal zockt,da bekommt man keine Probleme.Selbst mit einer 980 ti würde ich nicht 1440p ultra zocken sonder nur high,Ultra scheint ein Setting für zukünftige Karten zu sein und bei dem Preset sind noch nicht mal HBAO+ und die neuen NV Schatten aktiv.

Megamember
2016-03-09, 13:10:32
1440p und damit DSR ist mit der GTX 970 obsolet.

Ja in wenigen Spielen und wenn man zu dumm ist Optionsregler zu bedienen.

dildo4u
2016-03-09, 13:12:27
Das Game setzt auf Headshots da man so deutlich mehr Schaden anrichtet,das macht mit fps unter 50 einfach kein Spaß.Fällt natürlich nich auf wenn man auf normal zockt,da bekommt man keine Probleme.Selbst mit einer 980 ti würde ich nicht 1440p ultra zocken sonder nur high,Ultra scheint ein Setting für zukünftige Karten zu sein und bei dem Preset sind noch nicht mal HBAO+ und die neuen NV Schatten aktiv.

Und ich ziehe mir das nicht aus den Fingern um mein Argument zu unterstützen.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10965611&postcount=1384

Schaffe89
2016-03-09, 13:14:46
CB testet übrigens mit High unter 1440p siehe da kein Abkacken der 970,wobei ich wie gesagt mit CB übereinstimme gut spielbar ist es erst mit 55fps.

Dass dir dieses selektive Gebrabbel nicht von vorneherein zu blöd ist.
Da wird die GTX 970 bei Gamestar in Full HD von der 380x geschlagen, in WHQD bei PCGH von der 280x und 380x.

Und da siehst du natürlich keine Probleme, wenn die Karte in der Hälfte der BEnchmarks eine Leistung zeigt, die absolut lächerlich für deren Preis ist.;D
Ich frage mich wirklich wann die GTX 970 Käufer mal die Schnautze voll haben, das war jetzt in letzter Zeit das sechste oder siebte mal mit einer unerirdischen Leistung aufgrund des Speicherbetruges.

Ich sehe hier wieder massig Kommentare von Leuten die das Game gar nicht zocken aber schön ihre Senf dazu abgeben.

Achso, man muss natürlich ein Spiel spielen um sich über die BEnchmarks von unabhängigen Redaktionen zu unterhalten.
Oder spielen diese das Spiel etwa heimlich in der MIttagspause?:redface:

Das Game setzt auf Headshots da man so deutlich mehr Schaden anrichtet,das macht mit fps unter 50 einfach kein Spaß.

Und wenn das nächste Spiel kommt, wo die GTX 970 70 FPS stemmt in WHQD, dann müssen plötzlich 100 FPS her damit es flüssig läuft.
Du windest dich wie ein Aal.

Das Spiel läuft hier auf der Nano mit 35 bis 40 FPS in 4K und Freesync auf HIgh und das empfinde ich durchaus als recht flüssig.

dildo4u
2016-03-09, 13:18:37
Siehe den Post über dir ich denk mir das nicht aus um das Argument hier zu gewinnen,ich hab das Game einmal kurz auf PS4 gezockt und es war ekelig mit so niedrigen fps.

Palpatin
2016-03-09, 14:02:23
Und ich ziehe mir das nicht aus den Fingern um mein Argument zu unterstützen.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10965611&postcount=1384
Die Antwort auf den Post:
Hm, also ich habe hier und da Ejnbrüche bis auf 45fps runter. Da gibt es weder ruckeln noch Tearing. Man könnte auch sagen, in diesem PUnkt überascht mich das Spiel sehr positiv! Es fühlt sich mit 45fps immer nich sehr smoon an. Super Engine.
Also wie immer alles Subjektiv, kann mir auch nicht vorstellen das es mit ~45fps g-synct schlecht läuft, immerhin 50% mehr als auf den Konsolen.

dildo4u
2016-03-09, 14:18:51
Freesync eliminiert ja nicht den Input Lag von Maus/Tastatur zum Game.Die meisten Shooter sind Heute selbst auf Konsole 60fps,(Halo5,Battlefront,Call of Duty,Battlefield)da selbst die Casual's mit Gamepad die Vorteile spüren.
Alles unter 60 ist einfach nicht ideal für ein Shooter nur hat das Game für die Konsolen eine zu hohe Hardware Anforderung,da reicht es nicht auf 900p zu gehen,da auch die Jaguar CPU die fps limitiert.

aufkrawall
2016-03-09, 14:22:38
Shooter muss nicht unbedingt UT sein.
Hatte mit 35fps bei The Division keine Probleme damit, Headshots zu verteilen. Bei Dying Light hab ich damit noch bei 50fps Probleme...

dargo
2016-03-09, 14:38:24
Ich habe zwar noch nicht die Full, aber die Beta von "The Division" hatte sich hier mit Freesync und min. 45fps sehr gut bereits mit der Maus angefühlt (liegt vielleicht an der Perspektive). Eigentlich brauche ich oft eher ~50fps. Unter 40fps war mir die Beta aber auch schon etwas zu zäh.

The_Invisible
2016-03-09, 14:42:48
Genau das wäre bei der GTX 970 auch nötig aber wenn die Karte 4GB meldet wird sie auch wie eine solche behandelt. Wie man das auch noch positiv sehen kann bleibt allein dein Geheimnis. Fakt ist die GTX 970 bekommt schon wieder durch Ihre krumme Anbindung Probleme. 1440p und damit DSR ist mit der GTX 970 obsolet.

Den verfügbaren Speicher müsste man ja softwaremäßig (BIOS/Treiber) überschreiben können das nur 3,5GB gemeldet werden. Ist halt noch die Frage wie der Speicher adressiert wird bei dem speziellen 970er Design, also ob dann nicht doch noch der langsame Speicherbereich angerührt wird.

Sonst gibts wohl jeden Mod und Schei*, aber hier hört man nix davon. Kann sich nicht mal ein 3D-Guru melden ob hier was getan werden könnte?!?

iuno
2016-03-09, 15:06:35
Das haetten sie wohl von Anfang an so machen koennen, aber das ist halt nicht Nvidia. Da war wohl der prognostizierte Schaden zu hoch und man hat stattdessen einfach gesagt "it's a feature", die Kunden muessen DANKBAR dafuer sein, dass man das so gemacht hat. Klar, wenn vom Spiel nur 3,5 GiB gebraucht werden und 'hinten' dann noch ein paar MiB z.B. vom dwm stehen, die man halt waehrenddessen nicht braucht, ist da ja schoen und gut. Nur kann man sich darauf halt natuerlich nicht verlassen.

Megamember
2016-03-09, 15:17:45
Da der Speicher wohl auch mit den Recheneinheiten verbunden ist wirds nicht so einfach sein ihn einfach "abzuschneiden". Evt. müsste man dann einen Block direkt mitabschalten.

Deathcrush
2016-03-09, 15:21:10
Das Game setzt auf Headshots da man so deutlich mehr Schaden anrichtet,das macht mit fps unter 50 einfach kein Spaß.

Das ist doch bei jedem Shooter so! Spielst du dann exklusive PS4 Spiele auch nicht mehr, weil es ekelig ist? Ich denke da z.B. an Uncharted 4.

iuno
2016-03-09, 15:25:23
Das kommt wohl auf die Crossabr an, die zwischen den Recheneinheiten und dem Cache haengt. Aber die SMMs sind ja noch staerker beschnitten, also glaube ich nicht, dass die Abschaltung aufwendiger waere als die komische Situation mit den Partitionen und dem Routing ueber den Cache weil ja auch der Teil des Caches fehlt, der fuer den "kaputten" Speichercontroller vorgesehen ist.

Robspassion
2016-03-09, 15:35:34
Alles unter 60 ist einfach nicht ideal für ein Shooter nur hat das Game für die Konsolen eine zu hohe Hardware Anforderung,da reicht es nicht auf 900p zu gehen,da auch die Jaguar CPU die fps limitiert.

Ich finde auch 60 FPS als nicht besonders angenehm am PC insbesondere bei The Division. Ab 80 FPS wirds besser. Ist halt alles subjektiv.

BlacKi
2016-03-09, 15:37:19
Das ist doch bei jedem Shooter so! Spielst du dann exklusive PS4 Spiele auch nicht mehr, weil es ekelig ist? Ich denke da z.B. an Uncharted 4.
ich hatte sogar auf die 60fps in wolfenstein keine lust weil ekelig. und mit 120fps lief das spiel doppelt so schnell...

Ich finde auch 60 FPS als nicht besonders angenehm am PC insbesondere bei The Division. Ab 80 FPS wirds besser. Ist halt alles subjektiv.
dito, ich hab anfangs die 60-70 angepeilt, aber 80+ spielt sich einfach angenehmer.

Deathcrush
2016-03-09, 15:43:26
ich hatte sogar auf die 60fps in wolfenstein keine lust weil ekelig. und mit 120fps lief das spiel doppelt so schnell...


Das mag ja alles sein, es geht mir aber nur um Dildos spezielle Aussage Shooter vs 30FPS. Konsolenexklusive Spiele auf der PS3/4 feiert er (trotz 30fps oder auch weniger) und dann sind 30FPS auf einmal wieder nicht gut genug, in dem Fall sogar 45FPS.

dildo4u
2016-03-09, 15:52:53
Äpfel und Birnen Division hat ne PvP MP Komponente in den Dark Zones was 60fps noch wichtiger macht als bei einem reinen SP Game.Genau aus dem Grund ist der MP in Uncharted 4 60fps,da es einfach frustrierend ist wenn man gegen andere Leute zockt und das Game sich nicht vernünftig steuern lässt.Da hat man das Gefühl man verliert eher wegem dem Game als dem eigenen Skill.

TobiWahnKenobi
2016-03-09, 16:49:38
ich möchte mal einwerfen, dass ich für syncbare high-detail-frameraten in aktuellen spielen auf dem windows-PC eine hochgetaktete Ti oder TX benötige. wohl gemerkt mit 1440p.

bei einer karte, die nur einen bruchteil derer kostet und leistet würde ich diesen anspruch nicht erheben.

spiele, die ich auf PC und PS4 besitze (das sind nicht wenige: GTAV, BF, Battlefront, FC4, primal, tombraider usw), spielen sich mit 30fps @PC deutlich beschissener als auf der konsole.. subjektiv, ja. aber das ist das ganze gerede über frameraten und bildschirme. selbst unter den 60Hz geräten gibt es schnelle und langsame. gute und schlechte und nicht für jeden, ist das TFT der weisheit letzter schluss. mir ist das idR. zu klein (diagonale) und zu nerdig (der typ da hinten am schreibtisch). :)


(..)

mfg
tobi

Raff
2016-03-09, 16:54:30
Geforce GTX 970 vs. The Division: Performance-Probleme aufgeklärt, Tuning-Tipps im Video (http://www.pcgameshardware.de/The-Division-Spiel-37399/Videos/Video-GTX-970-in-The-Division-1188691/)

Öl für oder doch Wasser gegen das Feuer? ;)

MfG,
Raff

aufkrawall
2016-03-09, 17:04:33
So etwas hatte ich schon vor über einem Jahr bei Hitman festgestellt und ich würde davon ausgehen, dass man für saubere Benchmarks ein Spiel nach Auflösungs- oder Detailstufenwechsel immer neustartet, weil es nie ausgeschlossen ist, dass ohne irgendwas schief läuft.
Beispiel: Bei BF4 kann man alle Einstellungen ohne Neustart-Aufforderung ändern, die Änderung der Textureinstellung schlägt aber erst durch einen Neustart richtig durch.

Bitte in Zukunft bei so etwas sauberer vorgehen!

Kartenlehrling
2016-03-09, 17:23:17
Kann man im Bios nicht eintragen das die Karte nur die 3,5gb nutzt und auch nur erkennt.
Verzeit mir wenn es auf den 285 Seiten schon beantworte wurde.

Isen
2016-03-09, 17:45:03
Ne...

dildo4u
2016-03-09, 18:01:12
Geforce GTX 970 vs. The Division: Performance-Probleme aufgeklärt, Tuning-Tipps im Video (http://www.pcgameshardware.de/The-Division-Spiel-37399/Videos/Video-GTX-970-in-The-Division-1188691/)

Öl für oder doch Wasser gegen das Feuer? ;)

MfG,
Raff
Danke für das Video.Ist halt ein Problem wenn man zu schnell ein Fazit zieht, vorallem wenn das Game eigenständig je nach Vram Menge Details anpasst also man nicht mehr die volle Kontrolle hat.

DerKleineCrisu
2016-03-09, 18:10:20
Danke für das Video.Ist halt ein Problem wenn man zu schnell ein Fazit zieht, vorallem wenn das Game Details selber je nach Vram Menge anpasst also man nicht mehr die volle Kontrolle hat.

Warum vorschnell ?. In dem Video sagen sie ja selber das es ein 970er Problem
ist und mit keiner anderen 4GB Graka das hatten, eben wegen dieser " Userfreundlichen " Speicheranbindung ist.

Wenn diese" Userfreundliche" Speicheranbindung nicht wäre, wäre eben
dieses Problem nicht da.

Grüße

dildo4u
2016-03-09, 18:23:14
Was soll daran gut sein wenn das Game beim Auflösungswechsel den Vram nicht entleert,vielleicht trifft es in höheren Auflösungen 4GB Karten auch nur fällt es dort nicht auf da die GPU schon zu viel zu tun hat.

iuno
2016-03-09, 18:25:01
Es ist aber vielleicht nicht so akut wie zunaechst gedacht.

Aber niemand hat Bock das Spiel zwischendrin neu zu starten. Wenn man laenger spielt und sich der Speicher fuellt, wird man wohl Gefahr laufen, wieder auf dieses Niveau zurueckfallen. Daher muss man einfach weiter runterschrauben

gbm31
2016-03-09, 18:43:15
Tritt das berüchtigte und gross propagierte Stocken auf oder sind die FPS einfach niedrig?

captain_drink
2016-03-09, 18:49:50
Letzteres. Stocken gibt es mit WDDM 2.0 in solchen Fällen so gut wie gar nicht mehr.

Disco_STFU
2016-03-09, 19:04:20
Geforce GTX 970 vs. The Division: Performance-Probleme aufgeklärt, Tuning-Tipps im Video (http://www.pcgameshardware.de/The-Division-Spiel-37399/Videos/Video-GTX-970-in-The-Division-1188691/)

Öl für oder doch Wasser gegen das Feuer? ;)

MfG,
Raff

Dann wäre es aber nur fair, wenn ihr das bei allen Karten nochmal so macht und das Spiel in der höheren Auflösung neustartet.

Raff
2016-03-09, 19:07:43
Dann wäre es aber nur fair, wenn ihr das bei allen Karten nochmal so macht und das Spiel in der höheren Auflösung neustartet.

Nö, die anderen Karten benötigen dieses "special treatment" ja nicht, wie im Video ausgeführt. Apropos, es gibt noch einen kleinen Artikel zum Video: http://www.pcgameshardware.de/Geforce-GTX-970-Grafikkarte-259503/Tests/GTX-970-Division-Benchmark-1188697/

MfG,
Raff

blaidd
2016-03-09, 19:29:58
Danke für das Video.Ist halt ein Problem wenn man zu schnell ein Fazit zieht, vorallem wenn das Game eigenständig je nach Vram Menge Details anpasst also man nicht mehr die volle Kontrolle hat.

Btw: Betreffend der gering erscheinenden Speicherbelegung...

Behind the scenes, Snowdrop aims to utilize 75% of your dedicated video memory (VRAM), leaving space for other GPU-accelerated, memory-consuming apps that may be running the background. Within this 75% block of memory, which may be exceeded, memory is earmarked for any settings you've enabled that use VRAM, and the rest divvied up between geometry, other necessary game elements, and textures required right this second. Any remaining memory is filled with additional textures for nearby areas, reducing the chance of pop-in and visible streaming as players travel through the world.

75 % von 3.584 MiByte sind 2.688 MiByte. Mehr gibt's mit der GTX 970 also offenbar auch nicht - das bedeutet also zudem eventuell auch schlechteres Streaming, inklusive verstärktem Pop-Up.

aufkrawall
2016-03-09, 19:31:49
Ist das neu mit der Final?

blaidd
2016-03-09, 19:34:35
Kann sein (einen so tiefen Einblick bekomme ich normalerweise nicht vom Hersteller/Publisher freiwillig mitgeteilt) mir ist bislang in den Betas nur aufgefallen, dass der VRAM nie ganz gefüllt wird, blieb immer ein bisschen Luft, obwohl es schon mit 4 GiByte und 1440p zu kleinen Streaming-Fuckups kam...

aufkrawall
2016-03-09, 19:35:55
Bei mir waren in der Beta auch mal kurz 3,9GB voll und es gab garantiert kein Streaming Fuck Up, außer vielleicht kurz nach dem Laden eines neuen Levels (was wahrscheinlich auch mit einer Titan X passieren kann).
Ich sag nur Vorsicht vor dem borderless windowed Modus, der hatte sich manchmal von selbst aktiviert...
In dem hat nämlich der DWM VRAM für sich reserviert, der dann frei bleiben kann.

BlacKi
2016-03-09, 21:17:32
Nö, die anderen Karten benötigen dieses "special treatment" ja nicht, wie im Video ausgeführt. Apropos, es gibt noch einen kleinen Artikel zum Video: http://www.pcgameshardware.de/Geforce-GTX-970-Grafikkarte-259503/Tests/GTX-970-Division-Benchmark-1188697/

MfG,
Raff
wie ist das überhaupt aufgefallen? gab es user die sich gemeldet haben oder ist es bei euch intern aufgefallen?

Schaffe89
2016-03-09, 21:28:58
Wie lange habt ihr denn das Spiel gespielt und laufen lassen?
Nebenbei ist mir schon oft aufgefallen dass bei GRafikkarten ein Spielneustart erstmal mehr FPS in einer anderen Auflösung bringt und das NIveau später wieder absackt, so nach 20 bis 30 Minuten Spielzeit, dürfte damals noch ne 6870 gewesen sein.

Der_Korken
2016-03-09, 21:30:04
Es wäre vielleicht gut, das ganze einfach mit irgendeiner anderen 4GB-Karte (z.B. der GTX980) nochmal zu checken. Muss nicht genau gemessen werden, aber wenn die fps nach Neustart auf einer anderen Karte plötzlich um sagen 5-10% nach oben gehen, dann wäre ein erneuter Test für 1440p nur fair.

Megamember
2016-04-11, 20:06:09
Weiss jemand ob der Arctic Cooling Twin Turbo 3 auf eine Referenzplatine der 970 passt ohne mit dem hohen vrm Kühler zu kollidieren? Ich find ums verrecken keinen einzigen Erfahrungsbericht dazu bzw. widersprüchliche Aussagen. Ich würde den gerne weiterverwenden.:

https://forum.aquacomputer.de/index.php?page=Attachment&attachmentID=4896&h=596c1d0598201d5ffae8d95a620773361f7a29f5

MartinRiggs
2016-04-11, 20:17:59
Warum probierst du es nicht aus wenn du den Kühler doch eh schon hast :confused:

DerKleineCrisu
2016-04-11, 20:32:53
jetzt wird es glaube ich ernst die neue ( ersatz ) 970er soll ja " bald " das licht der
Welt erblicken.

Dann wird man sehen wie lange Nvidia die Graka Supporten wird.

Megamember
2016-04-11, 21:02:22
Warum probierst du es nicht aus wenn du den Kühler doch eh schon hast :confused:

Nee ich hab ihn noch nicht, würde den vrm Kühler gerne weiterverwenden.

LDNV
2016-04-12, 09:48:38
Weiss jemand ob der Arctic Cooling Twin Turbo 3 auf eine Referenzplatine der 970 passt ohne mit dem hohen vrm Kühler zu kollidieren? Ich find ums verrecken keinen einzigen Erfahrungsbericht dazu bzw. widersprüchliche Aussagen. Ich würde den gerne weiterverwenden.:



Mit dem TwinTurbo kann ich dir das nicht sagen.
Habe bei einem Kollegen ein AC Mono verbaut. Dort passt es zumindest mit Standard VRM Kühler.

Seine Karte läuft bei 1,275v also max, und wird nicht wärmer als 65. Der Mono ist dabei nicht raus zu hören.

Ist vll. eine Alternative wenn du keine infos zwecks des TwinTurbo bekommst :)

Megamember
2016-04-12, 12:58:31
Danke, den Mono hatte ich schon im Auge das wäre mir die Verbesserung aber zu gering, ist offiziell auch nur bis 200W zugelassen. Die 65 Grad bei 1,275V klingen eher unwahrscheinlich.

MartinRiggs
2016-04-12, 13:21:00
Nee ich hab ihn noch nicht, würde den vrm Kühler gerne weiterverwenden.

Ach so, Sorry da hab ich dich komplett falsch verstanden, so macht die Frage auch Sinn :wink:

Megamember
2016-04-12, 14:44:49
Ich versteh zwar kein Wort aber der vrm Kühler sieht von der Größe her genau wie meiner aus also müsste es gerade so passen, hmm.

https://www.youtube.com/watch?v=evYDx0LwXNs&nohtml5=False

LDNV
2016-04-13, 17:43:23
Danke, den Mono hatte ich schon im Auge das wäre mir die Verbesserung aber zu gering, ist offiziell auch nur bis 200W zugelassen. Die 65 Grad bei 1,275V klingen eher unwahrscheinlich.

Diente auch eher der Auskunft.

Ob die Temp für dich unwahrscheinlich ist oder nicht ... obliegt natürlich dir.

Ich weiß was ich sehe , und wenn man im Luxx schaut, dort haben den auch einige verbaut und ähnliche Temps ;)

Wenn ich natürlich eine mistige Gehäuselüftung habe, ist´s natürlich für den Popo :)

Megamember
2016-04-13, 20:16:18
Meine Gehäusebelüftung ist gut. Gerade mit mod. Bios und offenen Powerlimit zieht die gerne mal über 250W wenn mans drauf anlegt. Da wären 65 Grad extrem gut.
Mein Phantom Kühler kommt mit 100% Lüfter und 1516MHZ CHiptakt ohne Spannungserhöhung teilweise schon an die 75 Grad und wir haben nichtmal Sommer.

Megamember
2016-04-15, 17:10:53
Hab mir den Twin Turbo übrigens gerade geholt und auch verbaut. Passt alles wunderbar, nix eckt an und meinen vrm Kühler konnte ich weiterverwenden (1mm Platz). Temps nach kurzemTest selbst übertaktet und mit langsamem Lüfter kaum über 60 Grad, Klasse. Die dicke Backplate hab ich weggelassen, hätte nie und nimmer gepasst.

http://abload.de/img/wp_20160415_14_59_12_oer0s.jpg

http://abload.de/img/wp_20160415_14_59_18_toaoa.jpg

http://abload.de/img/wp_20160415_17_08_27_3ly73.jpg

Was sich die Ingenieure allerdings bei den megalangen SChraubverbindungen die den oberen PCIe Slot nahezu unbrauchbar machen (musste abisolieren, berühren meine Soundkarte) und den quasi nichtmehr erreichbaren PCI Stromanschlüssen gedacht haben bleibt wohl für immer ein Rätsel.

Skysnake
2016-04-15, 18:26:46
Das sieht mal echt ungesund aus wie sich das verbiegt :ugly:

maguumo
2016-04-15, 19:17:57
Das sieht mal echt ungesund aus wie sich das verbiegt :ugly:

Ziemlich. Frage mich warum das so ist, meine 290 mit dem alles andere als leichtem Morpheus biegt sich kaum, und das ohne irgendwelche Stützen...

Megamember
2016-04-15, 19:40:59
Sieht nur auf dem Foto etwas komisch aus, real ist das nicht schlimm. Die Phantom war aber auch mit Originalkühler schon etwas schief.

Screemer
2016-04-15, 20:43:11
Bei den rändelschrauben hätte ich gleich mal die Säge angesetzt. Warum eigentlich Rändelschrauben? Gehen die davon aus, dass man als PC Bastler nicht mal nen Kreuzschlitz hat?

Megamember
2016-04-16, 11:30:42
Bei den rändelschrauben hätte ich gleich mal die Säge angesetzt. Warum eigentlich Rändelschrauben? Gehen die davon aus, dass man als PC Bastler nicht mal nen Kreuzschlitz hat?

Blöd ist nur das die die Länge brauchen um überhaupt an den Abstandshalter unten zu gelangen. Dann müsste man die Gewindestangen gleich alle mitkürzen und sie sahen sehr fragil aus.

Kriton
2016-04-16, 12:10:26
Nicht böse gemeint, aber könnt ihr eure Diskussion in einem anderen Thread oder per PM führen? Das ist hier reichlich OT.

bnoob
2016-04-17, 17:06:37
Need for Speed (2015) rennt bei meiner 290X 4GB unter WQHD@Ultra ins VRAM-Limit.

Also nicht konstant, aber wenn ich zum Beispiel lange auf der Autobahn fahre oder bei langen, schnellen Rennen kommt er wohl mit dem Aufräumen nicht mehr hinterher.

Dann gibt es 1-3 heftige Ruckler bis er wieder VRAM freigeschaufelt hat.

Wäre ja mal interessiert an den Frametimes eines 970-Besitzers. Ist damit WQHD@Ultra noch spielbar?

StefanV
2016-06-07, 15:28:07
http://store.steampowered.com/app/411830#app_reviews_hash

Tjo, scheint wohl so, als ob die Probleme mit der Speicherarchitektur der GTX 970 schlimmer sind, als von nV Fans behauptet...

igg
2016-06-07, 15:33:50
als ob die Probleme mit der Speicherarchitektur der GTX 970 schlimmer sind, als von nV Fans behauptet...
Was hat dieses "jugendfreie" Anime-Spiel damit zu tun?

-/\-CruNcher-/\-
2016-06-07, 15:36:35
Solche Spiele sind in der tat interessant weil dort die interne Compression meistens auf temporaler ebene sehr schnell versagen kann ;)

Birdman
2016-06-07, 15:37:07
?!?
Was soll uns dieser Steam Appstore Link sagen?
Dass der Hersteller dieses Indie Spiels eine NVIDIA (GeForce GTX 760) empfiehlt, aber augenscheinlich keine AMD Hardware?

N0Thing
2016-06-07, 15:47:19
Er hat wohl versucht auf ein Review zu verlinken, was nicht geklappt hat. Etwas mehr Informationen als einen Einzeiler wären nicht schlecht gewesen.

Vielleicht meinte er eines der beiden Reviews:
http://steamcommunity.com/id/Green_Peaness/recommended/411830/
http://steamcommunity.com/id/Ominous_Gamer/recommended/411830/

Ob die schlechte Performance wirklich am Speicherproblem der GTX 970 liegt erscheint fraglich, wenn selbst 2GB Karten keine Probleme mit dem Spiel in 1080p haben.

-/\-CruNcher-/\-
2016-06-07, 15:55:30
Es geht hier eher um die Bandbreite die die Maxwell DCE noch abfangen kann ;)

Meistens sind es aber in der Tat Timing issues verursacht durch zu viel 3rd party bloat der im Hintergrund läuft, Windows eben vor allem bei einer älteren DX9 Engine ;)


Sollche Spiele sind halt bessonders weil gerade bei denen smoothe 60 FPS abweichungen dem Spieler sofort auffallen bedingt durch das extreme schnelle Gameplay :)

Die Asiatischen Gamer sind auch verdammt gut trainiert jeder gute Entwickler in Asien hat immer 60 Hz in seinen Augen die er aus dem System holen möchte bei sollchem Gameplay :D

Wie gesagt das Target bei dem Spiel liegt bei 1080p/60fps flüssig da der Window Compositor schon einiges schluckt muss der switch super fast sein und die DCE kompensiert hier scheinbar auch nicht mehr viel :D

Sicher noch was optimierbar aber ob das investiert wird für die GTX 970 glaub ich nicht bei VR ist es pflicht aber bei sowas hier ;)

woodsdog
2016-06-07, 17:30:29
Du faselst mal wieder einen Quatsch zusammen den man kaum entziffern kann - unfassbar.

StefanV
2016-06-07, 19:19:44
Ob die schlechte Performance wirklich am Speicherproblem der GTX 970 liegt erscheint fraglich, wenn selbst 2GB Karten keine Probleme mit dem Spiel in 1080p haben.
...was dann aber im Umkehrschluss nicht heißt, dass das auf der GTX 970 nicht auch problemlos laufen soll, insbesondere, wenn das SPiel nicht gesondert "optimiert" wurde...

Und genau das ist ja der Punkt der GTX 970, dass sie auf entsprechende Optimierungen vom Hersteller angewiesen ist...

illidan
2016-06-07, 19:27:58
Du faselst mal wieder einen Quatsch zusammen den man kaum entziffern kann - unfassbar.
Ich hab da wohl ein seltenes Talent und kann das Wirrwarr on the fly gut auseinanderdröseln. Dabei wird dann halt leider klar, dass er lauter ausgedachtes Zeugs krude durcheinander wirft. Echt ein Fall für den Arzt.

The_Invisible
2016-06-07, 19:50:30
Also ich hatte bis jetzt nie einen "nogo" Moment der mir bei flüssigen Bildraten gestört hätte, sonst wäre die Karte schon geflogen. Ich spiele in 1440p.

Jetzt kommt dann eh bald eine 1070 rein und die Karte hat ihre Aufgabe erfüllt.

Muss allerdings auch sagen das ich keiner bin der Frametimes analysiert oder derart sondern nur so problemlos wie möglich spielen/arbeiten will unter Linux/Windows.

-/\-CruNcher-/\-
2016-06-07, 20:39:09
Glaub mir das ist auch das Beste ;)

aths
2016-06-07, 21:35:20
...was dann aber im Umkehrschluss nicht heißt, dass das auf der GTX 970 nicht auch problemlos laufen soll, insbesondere, wenn das SPiel nicht gesondert "optimiert" wurde...

Und genau das ist ja der Punkt der GTX 970, dass sie auf entsprechende Optimierungen vom Hersteller angewiesen ist...
Es reicht bei der 970, wenn der Treiber entsprechend optimiert ist (um nach Möglichkeit nur 3,5 GB zu belegen.) Bei 192-Bit-Karten mit 2 GB RAM klappt das auch.

Das macht Nvidias bis heute bestehenden Falschangaben zur 970 natürlich nicht besser.

-/\-CruNcher-/\-
2016-06-07, 21:47:43
Und das hat Nvidia eigentlich sehr ordentlich im Griff bis an die Grenze wo es momentan absurd wird mit der Karte noch ordentliche Ergebnisse zu erwarten ;)

dargo
2016-07-15, 07:53:37
Speicherkrüppel + Design-Problem? Teilweise ist die RX480 deutlich schneller.
https://www.youtube.com/watch?v=AOACge8JhNo

Scheint am Speicher zu liegen wenn ich mir die Auslastung anschaue.

uweskw
2016-07-15, 08:22:44
Es reicht bei der 970, wenn der Treiber entsprechend optimiert ist (um nach Möglichkeit nur 3,5 GB zu belegen.) Bei 192-Bit-Karten mit 2 GB RAM klappt das auch.

Das macht Nvidias bis heute bestehenden Falschangaben zur 970 natürlich nicht besser.

Ist leider so. Anstatt dass sich die HW-Tester und Foristen auf den Fehler stürzen und Szenarien hervorheben in denen es Probleme gibt, haben FAST alle Szenarien gewählt in denen kaum ein Nachteil entsteht.
Deswegen meint die Masse, dass es wohl nicht so schlimm ist. Zeigen ja die Verkaufszahlen.
Ist wohl der NV-Bonus.:freak:
Wenn man sieht wie Foren und Medien sich auf jede Kleinigkeit bei AMD stürzen. Da wird solange auf einem Haar in der Suppe rumgeritten, bis die Masse glaubt es wäre ein Baumstamm.

greetz
US