PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : CB: 17 × AMD Radeon und Nvidia GeForce im Vergleich


dildo4u
2015-05-02, 09:45:10
http://www.computerbase.de/2015-05/grafikkarten-17x-amd-radeon-und-nvidia-geforce-im-vergleich/

13 neue Games und Benches mit Frametime Messung.

Treiber Overhead Test.

http://abload.de/img/rysei7s2z.png

fondness
2015-05-02, 09:52:46
Fazit

Die zahlreichen neuen Spiele, die neu gesetzten Qualitätseinstellungen und die Entscheidung, auch die Taktraten der zahlreichen Partnerkarten im Handel zu berücksichtigen, machen schlussendlich die größten Änderungen aus. Interessanterweise geraten dabei die Grafikkarten mit Nvidias Kepler-Architektur ein wenig ins Hintertreffen und können nicht mehr so gute Ergebnisse erzielen wie zuvor. Im Duell Nvidia Maxwell gegen AMDs GCN-Architektur gibt es hingegen nur kleinere Verschiebungen – meistens zugunsten von AMD, da nun auch die Optimierungen des Catalyst-Omega-Treibers Einzug erhalten haben.

Dasselbe Bild wie so oft...

dildo4u
2015-05-02, 09:58:10
Das ist neu:

Während in hohen Auflösungen normalerweise die AMD-Grafikkarten weniger Leistung verlieren als die Nvidia-Pendants, ist dies in der Hohen-Qualitäts-Einstellung interessanterweise anders herum: Die Nvidia-Karten können sich etwas weiter von den AMD-Pendants absetzen. An der generellen Reihenfolge der Produkte ändert sich aber nichts.

MSAA vermutlich weniger ein Problem dank der Maxwell Kompression.

fondness
2015-05-02, 10:02:19
Der Artikel gehört im übrigen dazu und ist mindestens genau so interessant:
http://www.computerbase.de/2015-05/grafikkarten-testverfahren-testsystem/

Undertaker
2015-05-02, 10:19:27
Das eigentlich erschreckende (wenn auch nicht neue) sind imo wieder einmal die Relationen in der Leistungsaufnahme. Für 4K brauche ich eine neue Grafikkarte mit DP 1.2, rund 200 € Preisklasse. Verbrauchs- und Leistungswerte in Ryse:

GTX 960, ~100% Perf., 198 Watt Last
R9 285, ~108% Perf., 282 Watt Last
R9 280X, ~125% Perf., 340 Watt Last

Also für mich sind derartige Effizienzdifferenzen absolut inakzeptabel. Selbst wenn ich bei gleicher Leistung 10 oder 15 Prozent mehr bezahle, nehme ich das für ein leiseres und kühleres System gerne in Kauf. Letztlich ist das sogar finanziell die sinnvollere Wahl, wenn ich die Mehrkosten bei 100 Watt Mehrverbrauch für Netzteil/leise Kühlung/Strom über 3 Jahre Nutzungsdauer einkalkuliere.

Blöderweise ist die 4 GB GTX 960 preislich von der GTX 970 gar nicht mehr weit entfernt...

fondness
2015-05-02, 10:26:10
Ja Gesamtsystemleistungsaufnahme wo alleine die Netzteileffizienz zu enormen Schwankungen führen kann.

Im übrigen nimmst du natürlich die Leistungsaufnahme in Ryse, wo die AMD-Karte auch deutlich schneller sind als im Gesamtranking, also klassischer Äpfel/Birne-Vergleich.

Undertaker
2015-05-02, 10:30:39
Der Hinweis ist richtig, ich habe die Performancerelationen von Ryse eingetragen. An den Schlussfolgerungen ändert sich nix. Btw: Das verwendete 750W-Netzteil dürfte bei höherem Verbrauch eher effizienter als ineffizienter arbeiten. Und ja, mich interessieren natürlich die primärseitigen Zahlen, den die sind entscheidend für Stromrechnung und Wärmeentwicklung des PCs. ;)

dildo4u
2015-05-02, 10:31:22
Die 285 ist 1fps schneller als die 960 OC,der Vergleich passt schon die 280X ist eh keine Option wenn man ein Sparsames System aufbauen will.

dargo
2015-05-02, 10:36:15
Ah... auch mal 4 FCAT Messungen, sehr schön.

Mich wundern eigentlich nur die perfekten Frametimes in Farcry 4 auf Hawaii. Hat sich da was mit dem aktuellen Treiber geändert oder hat CB einfach nur eine glückliche Testszene für AMD gefunden? Ich hatte immer diese Streamingruckler in Erinnerung weswegen ich das Spiel nicht gekauft habe.

fondness
2015-05-02, 10:36:39
Der Hinweis ist richtig, ich habe die Performancerelationen von Ryse eingetragen. An den Schlussfolgerungen ändert sich nix. Btw: Das verwendete 750W-Netzteil dürfte bei höherem Verbrauch eher effizienter als ineffizienter arbeiten. Und ja, mich interessieren natürlich die primärseitigen Zahlen, den die sind entscheidend für Stromrechnung und Wärmeentwicklung des PCs. ;)

Ich gehe davon aus, dass CB die Leistungsaufnahme in Hoher Qualität gemessen hat, auch wenn man dazu keine Angabe findet. Dann würde es so aussehen:

Hoher Qualität in Full-HD:
GTX 960, ~100% Perf., 198 Watt Last
R9 285, ~115% Perf., 282 Watt Last
R9 280X, ~138% Perf., 340 Watt Last

Und plötzlich liegen die AMD-Karten gar nicht mehr so schlecht.

/Edit: Und ganz davon abgesehen, dass die 290X dort bei nur 326W und 172% Perf. liegt, die hast dir mit der 280X also auch das Worst-Case heraus gesucht.

Mr.Y
2015-05-02, 10:41:55
Da ja Wolfgang auch hier mitliest und ich die Diskussionskultur im Computerbase Forum gelinde gesagt... häufig scheiße finde, hinterlasse ich an dieser Stelle mal ein Lob!
Verbessern kann man immer was, aber das ist dann Meckern auf hohem Niveau. Gute Grundlage für kommende (AMD) Grafikkarten

Undertaker
2015-05-02, 10:42:36
Ich wäre vom Standardsetting ohne SSAA ausgegangen, womit sich obige Relation ergibt:

GTX 960, ~100% Perf., 198 Watt Last
R9 285, ~108% Perf., 282 Watt Last
R9 280X, ~125% Perf., 340 Watt Last

Ich frage aber bei CB gleich mal nach.

StefanV
2015-05-02, 10:55:05
Die 285 ist 1fps schneller als die 960 OC,der Vergleich passt schon die 280X ist eh keine Option wenn man ein Sparsames System aufbauen will.
...was schlicht Bullshit ist...

Denn die R9-280X entsprechen der Radeon HD7970, wenn man es gern sparsamer und leiser hat, kann man schauen, ob man ein passendes 7970 non GHz BIOS für die Karte, die man gern hätte, finden kann, das auch kompatibel ist.

Alternativ kann man die Spannung auch manuell auf den Wert der 7970 reduzieren.

Bei mir sind das etwa 50W Differenz zwischen 7970OC BIOS und dem 7970GHz bzw 280X BIOS (-100MHz Core Takt, 1375MHz Speicher statt 1500)...

hasebaer
2015-05-02, 11:13:13
Ah endlich das Parkourupdate!

Gefällt mir gut, allerdings frage ich mich warum BF4 rausgeflogen ist?!

Schnoesel
2015-05-02, 11:17:56
Bestätigt mich nur in meiner Entscheidung damals nicht zur GTX 780 TI gegriffen zu haben die auch noch wesentlich teurer gewesen wäre. Auch wieder ein Beweis wie viel an der Kühlung bei Hawaii hängt. Die Hawaii Referenz war/ist ein Disaster

Undertaker
2015-05-02, 11:30:21
Ich wäre vom Standardsetting ohne SSAA ausgegangen, womit sich obige Relation ergibt:

GTX 960, ~100% Perf., 198 Watt Last
R9 285, ~108% Perf., 282 Watt Last
R9 280X, ~125% Perf., 340 Watt Last

Ich frage aber bei CB gleich mal nach.

Getestet wurde in:

3.840x2.160, maximale Detils, SMAA, kein SSAA
Die hohe Auflösung deswegen, um bei zukünftigen High-End-Karten nicht ins CPU-Limit zu geraten.

fondness
2015-05-02, 11:36:48
Getestet wurde in:

Dafür gibt es nicht mal Leistungswerte für die zitierten Karten; das ist mit Verlaub unprofessionell, so kann man keine vernünftigen Perf/Watt-Vergleiche anstellen.

Allerdings sollte SSAA der hohen Auflösung ziemlich nahe kommen und damit liegen meine Werte wohl deutlich näher an der Realität als die reinen Full-HD-Werte.

fondness
2015-05-02, 11:52:58
Was man im übrigen auch nicht ganz unterschlagen sollte, das wohl zeitlich am häufigsten auftretende Szenario:

Standy und Monitor aus:

http://s18.postimg.org/4e9noa209/Unbenannt.jpg (http://postimage.org/)

Die AMD-Karten benötigen hier kaum mehr als die IPG. Einzig bei der 280X scheint dort was nicht zu funktionieren.

Undertaker
2015-05-02, 11:58:49
Da ist normaler 2D-Betrieb, Multimonitor und Videowiedergabe sicher interessanter als Leerlauf mit Monitor off. Wer fährt seinen Rechner bei längeren derartigen Phasen nicht in den Energiesparmodus/Ruhezustand?

Allerdings sollte SSAA der hohen Auflösung ziemlich nahe kommen und damit liegen meine Werte wohl deutlich näher an der Realität als die reinen Full-HD-Werte.

Bevor wir spekulieren habe ich nochmal nachgefragt, ob Ryse überhaupt groß andere Verbrauchswerte als andere Spiele zeigt. Falls nein, können wir gleich das Gesamtrating heranziehen (dann sieht's allerdings extrem bitter aus).

kruemelmonster
2015-05-02, 12:03:08
Ach ZeroCore...funktioniert das eigentlich zuverlässig weiterhin nur mit DVI (http://ht4u.net/reviews/2012/amd_radeon_hd_7970_ghz_edition_tahiti_xt2_test/index5.php) und beißt sich damit mit Eyefinity?

AMD hat uns bislang nur soviel verraten, dass wenn seitens des Displays ein Audio-Link aktiviert würde, ZeroCore-Power nicht funktioniere.

Undertaker
2015-05-02, 12:04:02
Nur DVI würde sich dann natürlich auch mit 4K beißen...

Botcruscher
2015-05-02, 12:05:54
Ein 2500K ohne OC? Aus Testzwecken mag es das ja geben aber als Spieler hab ich da was falsch gemacht.

kruemelmonster
2015-05-02, 12:07:49
Die Absicht dahinter war vermutlich eine größere Spreizung der Werte zwischen Sandy @ Stock und Haswell @ OC, Sandy @ OC wäre evtl nicht so aussagekräftig gewesen.

Da ist normaler 2D-Betrieb, Multimonitor und Videowiedergabe sicher interessanter als Leerlauf mit Monitor off.

So ist es. Einmal einen HD-Film gucken und man hat das fehlende ZeroCore fürs ganze Jahr wieder drin. :eek:

Nur DVI würde sich dann natürlich auch mit 4K beißen...

Auch das. ZeroCore = Papiertiger.

Botcruscher
2015-05-02, 12:09:18
Mit OC sieht man halt nichts. :rolleyes:

Troyan
2015-05-02, 12:15:21
Warum ist die GTX970-OC Version kaum schneller als die "normale" Version?
Die Taktrate sei 20% höher laut der Beschreibung, die Leistung in Ryse nur 4%.

Bei der GTX980 ist die Taktrate 16% höher und die Leistung 8% schneller.

Nächstes Mal hätte die wohl eine Karte nehmen sollen, die die Leistungsaufnahme nicht bei +10% limitiert. :freak:

Botcruscher
2015-05-02, 12:19:42
Bei AMD ist das Problem durch das Referenzdesign noch viel schlimmer. Das nächste mal am besten überhaupt keins bringen.

Troyan
2015-05-02, 12:22:04
Der Unterschied bei AMD sollte minimal sein, wenn man den OC-Modus verwendet.
Computerbase wohl den Quiet-Modus genommen haben. Umso unverständlicher, wieso man bei der GTX970 auf ein Design gesetzt hat, dass eine nur eine minimale Stromverbrauchserhöhung zulässt.

fondness
2015-05-02, 12:28:55
Bevor wir spekulieren habe ich nochmal nachgefragt, ob Ryse überhaupt groß andere Verbrauchswerte als andere Spiele zeigt. Falls nein, können wir gleich das Gesamtrating heranziehen (dann sieht's allerdings extrem bitter aus).

Wenn sie auch noch mit anderen Spielen den Verbrauch gemessen hätte, hätten sie das wohl auch dargestellt. Ansonsten ist es kein Geheimnis das es hier je nach Spiel zu starken Schwankungen kommen kann, deshalb trete ich auch schon seit Jahren dafür ein, dass man zu jedem Leistungswert auch die Leistungsaufnahme mitmisst. Alles andere ist Äpfel/Birne, kein Maximal-Wert kann auch nur annähernd den Verbrauch in einer spezifischen Testszene abbilden. Genauso wie man anhand eines fps-Wertes keine generelle Aussagen zur Performance machen kann. Leider werden dann trotzdem meist unbrauchbare Perf/Watt-Werte erstellt, wo dann meist die Karte gewinnt, welche früher drosselt. Man sieht ja auch schon an den Werten von CB das zB die gedrosselte 290X sehr gut liegt.

Botcruscher
2015-05-02, 12:30:12
Das Referenz Problem ist bei AMD massiv:
Modell Offizieller GPU-Takt (Basis) getesteter Takt
AMD Radeon R9 290X 1.000 MHz 838-871 MHz
AMD Radeon R9 290 947 MHz 862-901 MHz

Die Taktraten für das „OC-Modell“
Modell Referenztakt Durchschnittstakt der OC-Modelle
AMD Radeon R9 290X 1.000 MHz 1.030 MHz
AMD Radeon R9 290 947 MHz 1.007 MHz

Eine ordentliche Herstellerkarte liegt da Lichtjahre weg.

fondness
2015-05-02, 12:33:45
Da ist normaler 2D-Betrieb, Multimonitor und Videowiedergabe sicher interessanter als Leerlauf mit Monitor off. Wer fährt seinen Rechner bei längeren derartigen Phasen nicht in den Energiesparmodus/Ruhezustand?


Also mein Rechner läuft den ganzen Tag und ich bin nur einen Bruchteil davon vor dem PC. Häufig greife ich allerdings von extern über VPN darauf zu, oder der Rechner fungiert als File- oder Printserver, dafür braucht es keinen Monitor.

Schnoesel
2015-05-02, 12:44:31
Eine ordentliche Herstellerkarte liegt da Lichtjahre weg.

Eigentlich jede, denn keine Customkarte fällt unter die 1000Mhz Referenztakt.

Raff
2015-05-02, 12:51:53
Auch das. ZeroCore = Papiertiger.

Wieso? Ich habe davon mit meiner HD 7970 täglich profitiert und vermisse diese 15-Watt-Sparmaßnahme bei Nvidia. Alle, die ein "normales" LCD besitzen, sparen so ein paar Watt ein, wenn der Rechner den ganzen Tag läuft, man aber nicht immer davor sitzt. Nervig waren allein die Kinderkrankheiten, etwa wenn der Rechner nicht mehr aufwacht ... :ugly:

MfG,
Raff

Undertaker
2015-05-02, 12:53:28
Also mein Rechner läuft den ganzen Tag und ich bin nur einen Bruchteil davon vor dem PC. Häufig greife ich allerdings von extern über VPN darauf zu, oder der Rechner fungiert als File- oder Printserver, dafür braucht es keinen Monitor.

Wer macht so etwas? Allein durch die Stromkosten rentiert sich da schon die Anschaffung eines NUC oder ein NAS (je nach Anforderungen auch nur ein passender Router). Ich lasse doch nicht meinen Haupt-PC als File- oder Printserver laufen, wenn ich nicht zu Hause bin. :freak:

Btw, was ist nun mit der DisplayPort- und HDMI-Einschränkung? Wenn die noch bestehen sollte, würde die Funktion bei den vielen modernen Systemen eh nicht laufen. Du willst laut einem anderen Thread doch auch auf 4K umsteigen?

MechWOLLIer
2015-05-02, 13:08:02
Ich gehe davon aus, dass CB die Leistungsaufnahme in Hoher Qualität gemessen hat, auch wenn man dazu keine Angabe findet. Dann würde es so aussehen:

Oh, stimmt, das fehlt in dem "So Testen wir" Artikel.
3.840x2.160, volle Details, SMAA, kein SSAA sind die Einstellungen, um auch in Zukunft nicht ins CPU-Limit zu rennen.

Gefällt mir gut, allerdings frage ich mich warum BF4 rausgeflogen ist?!
So viele neue Spiele, da musste einiges altes raus. Die FB-Engine gibts ja zudem in Dragon Age.

Dafür gibt es nicht mal Leistungswerte für die zitierten Karten; das ist mit Verlaub unprofessionell, so kann man keine vernünftigen Perf/Watt-Vergleiche anstellen.
Das ist richtig. Doch halte ich das selber eh für fragwürdig, wenn man ein gesamtes System misst. Darum habe ich mir da nicht so den Kopf drum gemacht und geschaut, in Zukunft nicht in Schwierigkeiten zu rennen.

Die AMD-Karten benötigen hier kaum mehr als die IPG. Einzig bei der 280X scheint dort was nicht zu funktionieren.
Die Karte schaltet sich übrigens durchaus aus, nur ist wohl noch irgendwas anderes da im Argen.

Bevor wir spekulieren habe ich nochmal nachgefragt, ob Ryse überhaupt groß andere Verbrauchswerte als andere Spiele zeigt. Falls nein, können wir gleich das Gesamtrating heranziehen (dann sieht's allerdings extrem bitter aus).
Ja und nein. Ryse ist ähnlich wie Anno 2070 (was wir vorher genutzt haben) nen ziemlicher Killer, was die Leistungsaufnahme beim Gesamtsystem angeht. Sprich, in den meisten anderen Spielen ist diese etwas geringer.

Ein 2500K ohne OC? Aus Testzwecken mag es das ja geben aber als Spieler hab ich da was falsch gemacht.
Warum der 2500K sollte klar sein. Warum ohne OC? Nunja, der Abschnitt ist primär für den "normalen Spieler" gedacht - und die Übertakten dann eben doch eher gar nicht. Zudem seht es mal so: Wenn ihr den 2500K übertaktet habt, wird der Abstand nur kleiner und nicht größer. Und da der Test zeigen soll, ob es auch mit so einer CPU Sinn macht sich Grafikkarte X zu kaufen denke ich, dass es sinnvoller ist, den Test ohne OC durchzuführen.

Nächstes Mal hätte die wohl eine Karte nehmen sollen, die die Leistungsaufnahme nicht bei +10% limitiert.
Das ist so auch nicht:P (ich finde diese Smielys manchmal echt etwas "unten durch".
Das Referenzdesign der 970 taktet eben doch relativ hoch. Und die meisten OC Karten bei der 970 sind dann nicht so viel schneller.

Wieso? Ich habe davon mit meiner HD 7970 täglich profitiert und vermisse diese 15-Watt-Sparmaßnahme bei Nvidia. Alle, die ein "normales" LCD besitzen, sparen so ein paar Watt ein, wenn der Rechner den ganzen Tag läuft, man aber nicht immer davor sitzt. Nervig waren allein die Kinderkrankheiten, etwa wenn der Rechner nicht mehr aufwacht ...
Das lohnt sich alleine schon, weil auch die Lüfter ausgehen. Auch wenn das bei einigen 960/970/980er halt kein Argument mehr ist.

aufkrawall
2015-05-02, 13:08:45
Was man im übrigen auch nicht ganz unterschlagen sollte, das wohl zeitlich am häufigsten auftretende Szenario:

Standy und Monitor aus:

http://s18.postimg.org/4e9noa209/Unbenannt.jpg (http://postimage.org/)

Die AMD-Karten benötigen hier kaum mehr als die IPG. Einzig bei der 280X scheint dort was nicht zu funktionieren.
Schön. Es wurde aber nicht getestet, wie der Stromverbrauch unter Windows beim Arbeiten oder beim Surfen ist. Und da ist Hawaii katastrophal, die Erwärmung des Chips auch bei Customs kommt nicht von ungefähr.
Das weißt du natürlich, und erwähnst es trotzdem nicht...
Davon ab ist mein Monitor zu 99% nie aus, wenn der Rechner läuft.

Troyan
2015-05-02, 13:15:19
Das ist so auch nicht:P (ich finde diese Smielys manchmal echt etwas "unten durch".
Das Referenzdesign der 970 taktet eben doch relativ hoch. Und die meisten OC Karten bei der 970 sind dann nicht so viel schneller.


Das Referenzdesign wird aber durch das Power-Limit viel stärker limitiert als die Custom-Karten.
Außerdem sollte die untere Tabelle auf der Erklärungsseite angepasst werden, da der Referenztakt eben nicht 1050Mhz ist...

kruemelmonster
2015-05-02, 13:16:15
Nervig waren allein die Kinderkrankheiten, etwa wenn der Rechner nicht mehr aufwacht ... :ugly:

Genau das meine ich, von Problemen beim Aufwachen las man des öfteren. Dazu kommen die Unregelmäßigkeiten mit den verschiedenen Anschlussarten, das macht es für mich zu einem ähnlich gut ausgearbeitetem Feature wie Lucid Virtu.
Es steht in der Checkliste drin, macht in der Praxis aber mehr Probleme als man gewinnt.

fondness
2015-05-02, 13:52:24
Es steht in der Checkliste drin, macht in der Praxis aber mehr Probleme als man gewinnt.

Das galt vielleicht zu Beginn, mittlerweile läuft es. Und wenn man den gelakten Folien zu Fiji glauben darf wird es dort auch diverse Verbesserungen geben.

aufkrawall
2015-05-02, 13:56:18
Toll. Sinnvoller wären weitere Stromsparmaßnahmen für den Desktopbetrieb allgemein. Vielleicht das Umschalten auf ein auf der Karte mitverbautes SoC o.ä.

Schaffe89
2015-05-02, 18:07:30
...was schlicht Bullshit ist...

Denn die R9-280X entsprechen der Radeon HD7970, wenn man es gern sparsamer und leiser hat, kann man schauen, ob man ein passendes 7970 non GHz BIOS für die Karte, die man gern hätte, finden kann, das auch kompatibel ist.

Alternativ kann man die Spannung auch manuell auf den Wert der 7970 reduzieren.

Bei mir sind das etwa 50W Differenz zwischen 7970OC BIOS und dem 7970GHz bzw 280X BIOS (-100MHz Core Takt, 1375MHz Speicher statt 1500)...

Es ist also Bullshit, wenn man die Karte wie vorgesehen betreibt?;D
Nen größeren Bullshit habe ich auch noch nicht gelesen, nimm malt die AMD Brille ab.

tdon
2015-05-02, 19:15:40
Sind aber auch nur viel gespielte Mainstream Titel im Test, abgesehen von Assetto Corsa. Wo AMD öfter Probleme hat sind Spiele abseits vom Mainstream. Liegt wahrscheinlich am Treiber, der bei Nvidia viel robuster funktioniert.

fondness
2015-05-02, 19:18:08
Liegt wahrscheinlich an den Usern die irgendwelchen haltlosen Behauptungen in die Welt setzen.

aufkrawall
2015-05-02, 19:18:16
Etwas schade, dass Dying Light nicht getestet wurde. Hätte man Metro oder Bioshock für rausschmeißen sollen.
Insgesamt ist die Auswahl an Spielen aber schon recht gut und aussagekräftig.

fondness, lass deine nervige Werbeveranstaltung doch mal sein...

fondness
2015-05-02, 19:21:41
fondness, lass deine nervige Werbeveranstaltung doch mal sein...

Sagt genau der, der sich von NV mit der GTX970 verarschen ließ und als Dankeschön eine GTX980 kaufte lol.

hasebaer
2015-05-02, 19:23:51
@aufkrawall
Dying Light ist in D auf dem Index.

tdon
2015-05-02, 19:41:10
Liegt wahrscheinlich an den Usern die irgendwelchen haltlosen Behauptungen in die Welt setzen.


Ja das gefällt dir nicht. Dir gehen die Argumente aus.

Disco_STFU
2015-05-02, 19:42:56
Die Messungen zur Leistungsaufnahme, Lautheit und Temperatur sind doch völlig für den Hintern wenn das "OC Modell" lediglich eine Referenzkarte mit Custom Taktraten ist... Speziell bei dem schlimmen AMD Referenzdesign...

aufkrawall
2015-05-02, 19:47:52
Sagt genau der, der sich von NV mit der GTX970 verarschen ließ und als Dankeschön eine GTX980 kaufte lol.
...und zwischenzeitlich an die fünf Hawaii-Karten kaufte.
Ich stelle mir gerade vor, wie unglaublich kacke es wäre, für HotS kein Downsampling zu haben oder sich selbst durch Klassiker wie Gothic 2 durchruckeln zu müssen...
Mal abgesehen vom Kotz Input-Lag ohne prerenderlimit bei DX11...
Aber ich bin ja so ein verblödeter Fanboy, der keine Ahnung hat...

@aufkrawall
Dying Light ist in D auf dem Index.
Ach so. FU Politiker.

Troyan
2015-05-02, 19:51:18
Die Messungen zur Leistungsaufnahme, Lautheit und Temperatur sind doch völlig für den Hintern wenn das "OC Modell" lediglich eine Referenzkarte mit Custom Taktraten ist... Speziell bei dem schlimmen AMD Referenzdesign...

Welches Custom-Design möchtest du nehmen? :confused:
Es gibt soviele, die so unterschiedlich sind. Die sich auch im Preis erheblich unterscheiden.

dargo
2015-05-02, 19:52:19
Sind aber auch nur viel gespielte Mainstream Titel im Test, abgesehen von Assetto Corsa.
Am besten CB erstellt für jeden hier einen persönlichen Parcour. :uup:

Ganz ehrlich? Mich interessieren vom ganzen Parcour nur drei Spiele... AC: Unity, Evolve und Ryse. Nicht weil sie mich vom Spielinhalt besonders interessieren sondern weil es reine Nextgen Titel sind. Und da interessiert mich die Performance aktueller Grafikkarten deutlich mehr als bei den Lastgen Schinken wo Leistung eh satt da ist.

fondness
2015-05-02, 19:54:10
Ja das gefällt dir nicht. Dir gehen die Argumente aus.

Argumente für was? Ich habe auch keine Behauptungen in die Welt gesetzt ohne Belege. Wo sind deine Argumente? CB eine Vielzahl an Spielen gestetet, einige waren keine absoluten Bestseller und ich sehe nirgends etwas das deine Behauptung bei den vielen Spielen von CB bestätigt. Also wem hier wohl die Argumente ausgehen ist offensichtlich. Und nein ein Link zu irgend einem Cherry Picked Beispiel rechtfertigt sicher keine generelle Aussage.

Ich sehe eher - und das schreibt CB im übrigen auch - das die Kepler-Karten deutlich nachlassen bei neueren Spielen.

Raff
2015-05-02, 19:57:00
@aufkrawall
Dying Light ist in D auf dem Index.

Deswegen wird das von den großen Sites auch nur noch mit den Kneifzange angefasst. Das Spiel ist zwar technisch interessant, aber nichts für dauerhaftes Rampenlicht im Rahmen eines Index – ein Index, der nichts mit Indizierungen zu tun hat, wohlgemerkt. ;)

MfG,
Raff

Kriton
2015-05-02, 20:02:42
Welches Custom-Design möchtest du nehmen? :confused:
Es gibt soviele, die so unterschiedlich sind. Die sich auch im Preis erheblich unterscheiden.

Das ist ein Problem des Ansatzes von CB. Lautstärke und Verbrauch lassen sich damit IMHO gar nicht mehr abbilden. Oder übersehe ich etwas? Schließlich ist jedes (Custom-)Design anders.

Troyan
2015-05-02, 20:10:51
Lautstärke ist der einzige Punkt, der nicht mehr relevant wäre.
Aber beim Stromverbrauch gab es jedenfalls bei Computerbase kaum wirklich unterschiedliche zwischen dem referenzdesign und den Custom-Design:
http://www.computerbase.de/2014-05/amd-radeon-r9-290-290x-roundup-test/3/#abschnitt_leistungsaufnahme

Bissl weniger, bissl mehr. Im Schnitt landet man beim Referenzdesign.
Der Stromverbrauch sollte auch eher als Annäherung betrachtet werden.

tdon
2015-05-02, 20:13:00
Ich habe auch keine Behauptungen in die Welt gesetzt ohne Belege.


Doch das hast du: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10589714&postcount=4682


In gefühlt jedem zweiten Test abseits vom großen Mainstream gibt es diese AMD Aussetzer. Zuletzt im Gothic 2 DX11 Test. Das findet man andersrum viel viel seltener. Du streitest immer alles wenn es zu Ungunsten AMDs ausgeht.

Schnoesel
2015-05-02, 20:19:45
Na bitte hoffentlich steckt AMD keine Ressourcen in einen Gothic2 DX11 Mod, die haben wesentlich wichtigeres zu tun.

Bissl weniger, bissl mehr. Im Schnitt landet man beim Referenzdesign.

Wobei hier wohl die AMD Referenz ja noch nicht mal den Takt halten kann (836-869 bzw. 840-860 http://www.computerbase.de/2014-05/amd-radeon-r9-290-290x-roundup-test/2/#abschnitt_taktraten_unter_last) während eine vernünftige Custom nicht unter 1000 MHZ fällt. und das bei weniger Verbrauch. Kühlung ist bei Hawaii sehr wichtig.

hasebaer
2015-05-02, 20:39:40
Ach so. FU Politiker.
Ja genau ... von mir aus sollen sie für solche Spiele ein "ab 24" einführen, so wie bei schweren Motorädern, wenn man keine Vorahnung von Zweirädern hat.

Deswegen wird das von den großen Sites auch nur noch mit den Kneifzange angefasst. Das Spiel ist zwar technisch interessant, aber nichts für dauerhaftes Rampenlicht im Rahmen eines Index – ein Index, der nichts mit Indizierungen zu tun hat, wohlgemerkt. ;)

MfG,
Raff

Ja verboten ist es nicht, aber dafür werben darf man auch nicht oder erst nach .. 22Uhr?! oder so..., dass funktioniert halt nicht im Rahmen einer Benchmarkreihe wie uns allen klar ist.

Dabei wäre es in der Tat ein technisch interessanter Titel. Macht Spaß und schaut gut aus.
Ich zocks mit zwei Kumpeln fast jedem Freitag seit Release im Coop. ;)

dargo
2015-05-02, 21:05:36
Na bitte hoffentlich steckt AMD keine Ressourcen in einen Gothic2 DX11 Mod, die haben wesentlich wichtigeres zu tun.

Ach was... ich will, dass AMD Pac-Man noch optimiert. :usweet:

aufkrawall
2015-05-02, 21:13:05
Das Dumme an eurer Argumentation ist nur, dass NV garantiert auch nicht für solche kleinen Mod-Projekte optimiert...
Abgesehen davon die typische Arroganz: Man will hier wieder anderen vorschreiben, was gut zu laufen hat und was nicht.
Besserwisserisches Gutmenschentum², wie schon bei dargo bezüglich A-Sync Verhalten bei niedrigen fps.

tdon
2015-05-02, 21:45:45
Na bitte hoffentlich steckt AMD keine Ressourcen in einen Gothic2 DX11 Mod, die haben wesentlich wichtigeres zu tun.



Genau darum geht es doch. Als wenn Nvidia darauf optimiert. Das verlangt auch niemand, es gäbe viel zu viele davon. Deswegen sagte ich, es liegt wohl am robusteren Nvidia Treiber, dass solche Nischenspiele (oder Engines) desöfteren auf einer Nvidia out the the box viel besser laufen. Bei AMD ist das manchmal eine Wundertüte.

fondness
2015-05-02, 21:47:42
Der Entwickler hat einen Mod entwickelt auf einen NV-Karte, laut eigenen Aussagen null getestet auf einer Radeon, mehr gibt es dazu nicht zu sagen. Es ist naheliegend das er es auch so optimiert hat das es auf seiner Karte möglichst schnell läuft. Lange nicht immer liegt das am Treiber, gerade wenn man keine AHnung hat was im Hintergrund passiert sind solche Aussagen von wegen "robuster Treiber" einfach lächerlich.

Lurtz
2015-05-02, 21:49:30
Der Entwickler hat einen Mod entwickelt auf einen NV-Karte, laut eigenen Aussagen null getestet auf einer Radeon, mehr gibt es dazu nicht zu sagen. Es sit naheliegend das er es auch so optimiert hat das es auf seiner Karte möglichst schnell läuft.
Und er verwendet Gameworks-HBAO+, da schließt sich der Kreis gleich wieder :ugly:

aufkrawall
2015-05-03, 02:22:09
Es ist naheliegend das er es auch so optimiert hat das es auf seiner Karte möglichst schnell läuft.
Echt? Warum sagt er dann, dass er noch gar nicht optimiert hat?
Du und deine extrakleveren Schlussfolgerungen. Bestimmt hat NV auch schon gezielt auf Drawcalls optimiert für das Spiel... :freak:

StefanV
2015-05-03, 03:24:33
Es ist also Bullshit, wenn man die Karte wie vorgesehen betreibt?;D
Nen größeren Bullshit habe ich auch noch nicht gelesen, nimm malt die AMD Brille ab.
http://ht4u.net/reviews/2013/xfx_radeon_r9_280x_black_dd_oc_im_test/index8.php
http://ht4u.net/reviews/2013/xfx_radeon_r9_280x_black_dd_oc_im_test/index14.php

Da ist der Abstand zwischen der sparsamsten Tahiti Karte und den Schluckspechten recht gut sichtbar. Liegt nämlich mal eben so zwischen 210 und fast 260W!

Da hängt nun sehr viel von der Karte und der anliegenden Spannung an. Bei den 3 Möglichkeiten, die ich bei meinen beiden Tahitis hab, liegt die Spannung auch zwischen 1,17V ('normales' 7970OC BIOS) und ganzen 1,25V (7970GHz), die R9-280X liegt mit etwa 1,2V dazwischen...

Ergo:
Man sollt hier mehr auf die einzelnen Karten schauen und welche Spannung unter Last anliegt. Da können die Unterschiede dann doch mal relativ gewaltig sein. Bei mir sinds zwischen dem 'normalen' 7970 und dem GHz BIOS mal locker 50W (oder mehr), die mein Schätzeisen anzeigt...

Aber jetzt ist auch die Frage, wie schnell so eine Tahiti bei etwa 700MHz noch ist - und etwa 0,9V ;)
Und was sie verbraucht...

Oh und eines darf auch nicht vergessen werden:
die Fertigungsschwankungen!!
Und das kann zum Beispiel dazu führen, dass man mit sog. Golden Samples arbeitet!
Sprich man sucht sich die besten Chips raus oder fertigt gar spezielle Geräte für die Reviewer, um in einem besonders guten Licht dastehen zu können.

Und jetzt ist die Frage wie sehr die Hersteller von AMD Karten ihre Testsamples aussieben. Und wie das bei nV ausschaut...

Buttom Line:
Hier sollten wir das ganze mal etwas mehr hinterfragen und nicht jeden Mist, der uns vorgesetzt wird, glauben.
Man kann auch sehr stark die Reviews beeinflussen, ohne den Reviewer zu beeinflussen!
Und der Unterschied zwischen einem guten/sparsamen Chip und einem weniger guten Chip können durchaus einige Watt sein!

Schaut euch doch mal ein paar mehr Reviews von Hardtecs4U an!
Die haben das irgendwann mal getestet. Und da gabs dann doch einige Unterschiede...

Schaffe89
2015-05-03, 04:43:31
Genau darum geht es doch. Als wenn Nvidia darauf optimiert. Das verlangt auch niemand, es gäbe viel zu viele davon. Deswegen sagte ich, es liegt wohl am robusteren Nvidia Treiber, dass solche Nischenspiele (oder Engines) desöfteren auf einer Nvidia out the the box viel besser laufen. Bei AMD ist das manchmal eine Wundertüte.

Also da müsste jemand mal mehrere solche Spiele benchmarken.
Wie kann es dann sein, dass Ethan Carter auf AMD erheblich schneller läuft?
Ich kann es eigentlich überhaupt nicht bestätigen, dass AMD in unwichtigeren/unbekannteren Titeln schlechter abschneidet, ist wohl wieder nur so ein Gefühl zusammengemengt aus ganz wenigen Einzeltests.

Lurtz
2015-05-03, 09:20:29
Also da müsste jemand mal mehrere solche Spiele benchmarken.
Wie kann es dann sein, dass Ethan Carter auf AMD erheblich schneller läuft?
Ich kann es eigentlich überhaupt nicht bestätigen, dass AMD in unwichtigeren/unbekannteren Titeln schlechter abschneidet, ist wohl wieder nur so ein Gefühl zusammengemengt aus ganz wenigen Einzeltests.
Sehe ich auch so. Sonst heißt es immer AAA-Titel würden bei nVidia besser laufen, da sie mehr Ressourcen für die Optimierung haben, nachdem das in einem repräsentativen Benchmarkparcour nicht der Fall ist, ist der nVidia Treiber generell "robuster" (was auch immer das genau heißen soll)?

Lowkey
2015-05-03, 09:51:10
Die Qualität der Grafikkarten schwankt doch relativ stark wie die PCGH mal geschrieben hat. 5-10% halte ich für realistisch.

Thunder99
2015-05-03, 10:06:18
Finde dennoch ein sehr guter Test :up:

Kriton
2015-05-03, 10:06:49
Lautstärke ist der einzige Punkt, der nicht mehr relevant wäre.
Aber beim Stromverbrauch gab es jedenfalls bei Computerbase kaum wirklich unterschiedliche zwischen dem referenzdesign und den Custom-Design:
http://www.computerbase.de/2014-05/amd-radeon-r9-290-290x-roundup-test/3/#abschnitt_leistungsaufnahme

Bissl weniger, bissl mehr. Im Schnitt landet man beim Referenzdesign.
Der Stromverbrauch sollte auch eher als Annäherung betrachtet werden.

Woher wissen wir das? Ist die Benchmarkszene dieselbe, so dass wir einen Vergleich zu vorherigen Zahlen haben - denn der Verbrauch hängt sicher auch ander konkreten Szene.
Und woher wissen wir, dass das bei zukünftigen Karten ebenso sein wird? Andere Architektur, Stromsparmechanismen können dort sicher zu Änderungen führen.

Gerade wenn ich an die unterschiedlichen TDPs (und vermutlich auch Powertargets) bei der 9xx-Reihe denke, weiß ich nicht, ob das in dem Testaufbau nicht ein Problem wird (sofern man auf diese Ergebnisse Wert legt).

Kriton
2015-05-03, 10:09:50
Echt? Warum sagt er dann, dass er noch gar nicht optimiert hat?
Du und deine extrakleveren Schlussfolgerungen. Bestimmt hat NV auch schon gezielt auf Drawcalls optimiert für das Spiel... :freak:

Eine gewisse "Optimierung" erfolgt sicher ganz automatisch wenn Du (mehr oder minder) auf einer spezifischen HW entwickelst. Man kennt ja gewisse Rahmenparameter. Oder ist das heutzutage SO abstrahiert?

fondness
2015-05-03, 10:15:47
Also da müsste jemand mal mehrere solche Spiele benchmarken.
Wie kann es dann sein, dass Ethan Carter auf AMD erheblich schneller läuft?
Ich kann es eigentlich überhaupt nicht bestätigen, dass AMD in unwichtigeren/unbekannteren Titeln schlechter abschneidet, ist wohl wieder nur so ein Gefühl zusammengemengt aus ganz wenigen Einzeltests.

Ich behaupte sogar das Gegenteil. Gerade aufgrund der Next-Gen-Konsolen werden unbekannte Spiele auf NV ohne Treiberoptimierung womöglich langsamer laufen. Klar für AAA-Spielen haben sie mehr als genug Ressourcen um das auszugleichen, aber sie können es nicht bei jedem Spiel machen. Man sieht ja schon wie sehr die Kepler-Karten gleich zurück fallen sobald Nvidia den Treibersupport auf Maxwell fokussiert.

NV hat aber natürlich ganz klar den Vorteil des höheren Marktanteils bei PCs, das bedeutet natürlich auch das mehr Entwickler NV-Karten verwenden und natürlich wie Kriton schon sagt erfolgt da automatisch eine gewisse Optimierung. Ein Programmierer, der nicht zumindest die Performance im Hinterkopf hat und nicht auch hin und wieder testet ist IMO kein guter.

Troyan
2015-05-03, 10:47:15
Du meinst Spiele wie Dying Light und Lords of the Fallen, die mit nVidia Karten erheblich schneller laufen? :rolleyes:

AMD hat in den Konsolenspielen Probleme, die nicht auf bekannten Engines wie CryEngine oder Frostbite setzen, die jedoch trotzdem Konsolenportierungen sind. Es ist eher AMD, die es nicht schaffen diese Spiele optimal zu nutzen.

Schnoesel
2015-05-03, 11:10:43
Du meinst Spiele wie Dying Light und Lords of the Fallen, die nVidia Gameworks nutzen und TWIMTBP Titel sind? Die laufen anfangs besser auf Nvidia? Erzähl!

Troyan
2015-05-03, 11:18:01
Nein, ich meine Next-Gen Spiele, die nur auf den Next-Gen Konsolen erschienen sind.
Evolve ist auch ein Gameworks-Titel und rennt besser auf AMD - Cryengine. Genauso wie Ryse.

aufkrawall
2015-05-03, 13:33:36
Ich behaupte sogar das Gegenteil. Gerade aufgrund der Next-Gen-Konsolen werden unbekannte Spiele auf NV ohne Treiberoptimierung womöglich langsamer laufen. Klar für AAA-Spielen haben sie mehr als genug Ressourcen um das auszugleichen, aber sie können es nicht bei jedem Spiel machen. Man sieht ja schon wie sehr die Kepler-Karten gleich zurück fallen sobald Nvidia den Treibersupport auf Maxwell fokussiert.

Du behauptest so einiges, das nachweislich ausgedacht ist.
Es gibt z.B. von CB ja immer mal wieder Treiber-Performancetests, und bis auf einige Ausnahmen bringen neuere Treiberversionen häufig relativ wenig Performance. Sowohl bei NV als auch AMD.

Die Early Access-Tests (auch da hat sich CB wieder lobend hervorgetan, auch wenn die Tests im Detail manchmal ein paar Macken haben) legen imho endgültig nahe, dass der NV-Treiber allgemein besser optimiert ist. Sowohl was CPU- als auch GPU-Leistung angeht.

Was natürlich nicht heißt, dass es nicht auch Gegenbeispiele gibt. Dieser schaffe nannte ja schon Arma 3. Da hat sich bis heute aber so gut wie nichts an Optimierung seitens NV getan.

Ich gehe davon aus, dass es nicht so ist, wie fondness suggeriert, dass so viel per "Optimierung" erreicht werden könne. Eine viel größere Rolle dürften die Architekturunterschiede ansich spielen, siehe das schlechte Abschneiden von GM204 in hohen Auflösungen bei Arma 3 im Vergleich zu GK110.

Edit: Bei GK110 gabs aber auch tatsächlich in mehreren Spielen einen deutlichen Performanceboost per Treiber, prozentuell besser als bei GK104. Das war schon bemerkenswert.

captain_drink
2015-05-03, 18:00:49
Ich sehe eher - und das schreibt CB im übrigen auch - das die Kepler-Karten deutlich nachlassen bei neueren Spielen.

Man sieht ja schon wie sehr die Kepler-Karten gleich zurück fallen sobald Nvidia den Treibersupport auf Maxwell fokussiert.

Du schreibst es ja schon selber, das verhältnismäßig schwächere Abschneiden von Kepler gg. Maxwell/GCN lässt sich auf den stärkeren Fokus auf Maxwell bei der Treiberentwicklung zurückführen. Das ist allerdings nichts Skandalöses, sondern lief bei Fermi und VLIW4 genauso...

Troyan
2015-05-03, 19:27:01
Im Gesamtrating ist die 290X gerademal 5% schneller als die GTX780 - entspricht genau dem Wert aus dem TitanX Test: http://www.computerbase.de/2015-03/nvidia-geforce-gtx-titan-x-im-test/4/

Sehe jetzt nicht, wo Kepler federn lassen würde...

/edit: Die 280X ist im Gegensatz zum alten Test nur noch 3-4% schneller als die GTX770.

Raff
2015-05-03, 19:34:08
Im Gesamtrating ist die 290X gerademal 5% schneller als die GTX780 - entspricht genau dem Wert aus dem TitanX Test: http://www.computerbase.de/2015-03/nvidia-geforce-gtx-titan-x-im-test/4/

Sehe jetzt nicht, wo Kepler federn lassen würde...

/edit: Die 280X ist im Gegensatz zum alten Test nur noch 3-4% schneller als die GTX770.

Beides ist eigenartig. Vor allem die GTX 770 saugt in vielen modernen Spielen hart, weil sie im Gegensatz zur R9 280X nicht genug Speicher für hohe Einstellungen zur Verfügung hat. Die R9 290X ist im Mittel aber gewiss mehr als fünf Prozent schneller als eine GTX 780, dieser Abstand könnte in Full HD gerade noch gelten.

MfG,
Raff

Troyan
2015-05-03, 19:36:10
Bei der 280X habe ich mich geirrt. Im neuen Rating ist die GTX770 nur noch bis 1080p enthalten. Dort ist der Abstand identisch geblieben.

Also am Gesamtrating sehe ich nicht, dass Kepler über einen Durchschnitt mehrerer Spiele federn lassen würde.

captain_drink
2015-05-03, 20:07:17
Also am Gesamtrating sehe ich nicht, dass Kepler über einen Durchschnitt mehrerer Spiele federn lassen würde.

2% vllt., was man über mangelnde Treiberliebe bei Neuerscheinungen eben so verliert.

BlacKi
2015-05-03, 20:35:55
im gesammt rating finde ich ist die 970(145w) ziemlich weit vorne.

klar ist die 970 etwas schneller als die 670 die ich vorher hatte, aber die +50% an leistung bemerkt man im nach hinein kaum noch.

wenn ich mir jetzt ansehe wieviel die titanX auf die 970 drauflegt(41%), dann wird mir schlecht wenn ich über 1100€ auf den tisch legen soll.

da muss mal wieder was neues kommen... ich will die 970 doch nicht ewig behalten^^

hab sie schon über 6monate, und soweit zufrieden.

Thunder99
2015-05-04, 19:24:16
Die R9 290X ist nur 5% schneller als die 780 da erstere nicht auf vollem Takt läuft. Bei der OC Variante stimmt dann der Abstand wieder bzw ist mehr realistischer wegen den Custom Lösungen

Flusher
2015-05-04, 20:56:11
Beides ist eigenartig. Vor allem die GTX 770 saugt in vielen modernen Spielen hart, weil sie im Gegensatz zur R9 280X nicht genug Speicher für hohe Einstellungen zur Verfügung hat. Die R9 290X ist im Mittel aber gewiss mehr als fünf Prozent schneller als eine GTX 780, dieser Abstand könnte in Full HD gerade noch gelten.

MfG,
Raff

Verwundert mich ebenso - allgemein schätzt man die 290x doch ca. 5-10 % vor der 970. Mit zunehmender Auflösung aufjedenfall deutlich Richtung 10 %.

gnomi
2015-05-04, 21:11:28
Kommt immer auf den Testparcours an. :wink:
Aktuell ist nvidia aber für gewöhnlich in aktuellen Spielen vorne.
Testet man dann noch 970 Partnerkarten und weniger auf Frametimes, steht die 970 halt wieder besonders gut da. (eine leichte Ironie ist nach der VRam Geschichte schon dabei. :D )

Schaffe89
2015-05-04, 21:19:57
Wo ist Nvidia in aktuellen Spielen vorne?

aufkrawall
2015-05-04, 21:53:29
In AC: U in WQHD 1xAA ~40%, oder in GTA 5 30%? :freak:
Doofe Frage?
Und das bei dem Verbrauchsunterschied...
Wenn man dann noch die üblichen Taktraten der Chips ausfährt... X-D

Schnoesel
2015-05-04, 21:58:39
Na wieder cheerypicking? Langweilig!

aufkrawall
2015-05-04, 22:03:57
Na, wieder unfähig im Zusammenhang zu lesen? Typisch!

Schnoesel
2015-05-04, 22:12:06
Lass stecken! Viellicht sind auf meiner Liste der "aktuellen" Spiele ja ein paar mehr.

aufkrawall
2015-05-04, 22:19:01
Es ging nicht um irgendwelche Anteile, sondern dieser schaffe hat nur gefragt, ob es solche aktuellen Spiele gibt.
Das hast du offenbar einfach mal ausgeblendet, warum auch immer. Oder sprachlich nicht ganz richtig mitbekommen.

fondness
2015-05-04, 22:27:37
Die R9 290X ist nur 5% schneller als die 780 da erstere nicht auf vollem Takt läuft. Bei der OC Variante stimmt dann der Abstand wieder bzw ist mehr realistischer wegen den Custom Lösungen

Richtig, die 290X bei CB ist eine 290X im Quiet-Mode, die taktet vielleicht im Schnitt mit 850Mhz. Das sieht man schon alleine daran wie niedrig die Leistungsaufnahme der 290X dort ist.

Knuddelbearli
2015-05-04, 22:29:31
Find mal wieder schön wie CB die HT4U Resultate bestätigt.

Hoffe das gibt den Maulern endlich zu denken!

aufkrawall
2015-05-04, 22:29:52
So ist es, die simulierte OC-Version taktet mit 1030Mhz:
http://www.computerbase.de/2015-05/grafikkarten-testverfahren-testsystem/2/

Schaffe89
2015-05-05, 13:07:34
In AC: U in WQHD 1xAA ~40%, oder in GTA 5 30%? :freak:
Doofe Frage?
Und das bei dem Verbrauchsunterschied...
Wenn man dann noch die üblichen Taktraten der Chips ausfährt... X-D

Wo ist denn eine 970 in GTA5 30% vor einer 290x?
Also ich hab da andere Benchmarks gesehen.;D

Auch in Unity sinds laut CB zwischen r9 290x und GTX 970 wenige Prozent.:freak:

Zu Totalwar Atilla oder Ryse muss man nix sagen oder?:rolleyes:

aufkrawall
2015-05-05, 13:47:01
Ich hab AMDs Top Tog mit NVs zweitschnellster GPU, die der 980, verglichen.
Die 970 ist bei so einigen Spielen tatsächlich nur etwas vor der 290X oder gar im Rückstand, ich kann auch lesen.
Die 970 OC läuft allerdings auch nur mit 1.266Mhz, da gehen bei den OC Customs häufig nochmal an die 180Mhz drauf, ohne Spannungserhöhung.
Wer noch selbst übertaktet, hat also mit der 970 schon gut mehr fps/€, bei Hawaii OC mit 1030Mhz kommen vielleicht nochmal +3-5% OC im Schnitt drauf.
Bis die VRAM-Problematik bei der 970 zuschlägt.

Mit der Taktfreudigkeit und dem dabei immer noch geringeren Stromverbrauch ist Hawaii einfach extrem unattraktiv im Vergleich zu GM204.
Gäbe es die VRAM-Problematik bei der 970 nicht, müsste man schon bescheuert sein, Hawaii zu empfehlen.

fondness
2015-05-05, 13:52:08
Gäbe es die VRAM-Problematik bei der 970 nicht, müsste man schon bescheuert sein, Hawaii zu empfehlen.

Die gibt es aber. Genausogut könnte man sagen, wäre Hawaii deutlich effizienter gäbe es wenig Gründe die 970 zu empfehlen.

Raff
2015-05-05, 13:53:07
Hawaii kann ich aber undervolten – L2-Cache lässt sich nicht "hertakten".

MfG,
Raff

Botcruscher
2015-05-05, 14:00:31
Richtig, die 290X bei CB ist eine 290X im Quiet-Mode, die taktet vielleicht im Schnitt mit 850Mhz. Das sieht man schon alleine daran wie niedrig die Leistungsaufnahme der 290X dort ist.

Der Qm macht doch nicht viel mehr als die Lüfterdrehzahl zu erhöhen. Wenn mit 40% die Karte thermisch schon am ende ist dann helfen 55% auch nicht weiter. Womöglich drosselt dann schon die Notschaltung per pt.
Die Begrenzung beim Takt ist einfach zu krass bei CB. Im Normfall sollten die Karten da liegen wo CB die OC verortet.

aufkrawall
2015-05-05, 14:07:38
Hawaii kann ich aber undervolten – L2-Cache lässt sich nicht "hertakten".

Und bei welchem Takt?
Ich lese hier imemr die abenteuerlichsten Taktraten für Hawaii, angeblich unter Luft. Wahrscheinlich interessiert es die meisten Leute einfach nicht, wenn bei BF4 ab und zu mal graue Rechtecke aufblitzen. Es läuft ja rockstable, yey...

gnomi
2015-05-05, 14:17:30
Dass die 970 überhaupt als 290X Konkurrent taugt, ist das eigentliche Problem.
Die sollte tatsächlich langsamer sein, aber die guten Partnerkarten sind eben für Spiele wie Unity, Watch Dogs, Dying Light, Attila oder Asseto Corsa sogar unter 1440P eher besser.
Bei Full HD sieht es dann noch besser aus und Ausfälle gibt es treiberseitig vergleichsweise klar weniger.
Die 3,5 GB reichen auch wahrscheinlich prinzipiell, so lange das Spiel oder die Engine nicht rumzickt. Die meisten stellen ja nicht dermaßen ein, dass die 290XD mit 8GB dann ihre Stärke ausspielen kann.
Die bessere Effizienz und bald 1,2 Top Games gibt es obendrauf.
Für AMD sieht es einfach aktuell sehr böse aus, weil nvidia eben zu gut ist.
Aber das Geschäft ist schnelllebig. Man denke an die FX Serie...

Troyan
2015-05-05, 14:19:43
Der Qm macht doch nicht viel mehr als die Lüfterdrehzahl zu erhöhen. Wenn mit 40% die Karte thermisch schon am ende ist dann helfen 55% auch nicht weiter. Womöglich drosselt dann schon die Notschaltung per pt.
Die Begrenzung beim Takt ist einfach zu krass bei CB. Im Normfall sollten die Karten da liegen wo CB die OC verortet.

Liegt sie doch auch - wenn man das Performance-Bios verwendet.

aufkrawall
2015-05-05, 14:20:51
Das Schlimme ist ja, dass sich die 970 seit der Affäre überhaupt nicht schlechter zu verkaufen scheint.

Es keimt mir der böse Verdacht auf, dass die Kartenhersteller auch viel weniger R&D-Geld für AMD-customs aufwenden, weil sie sie so billig verkaufen müssen. Das würd deren schlechte Eigenschaften trotz vergleichbarem Materialeinsatz erklären (im Vergleich zu GK110).

Marodeur
2015-05-05, 15:16:41
Da ist normaler 2D-Betrieb, Multimonitor und Videowiedergabe sicher interessanter als Leerlauf mit Monitor off. Wer fährt seinen Rechner bei längeren derartigen Phasen nicht in den Energiesparmodus/Ruhezustand?


Bei den heutigen Downloadgrößen kommt das bei mir desöfteren vor das er mehrere Stunden so läuft... Nur mal nachträglich angemerkt...

Schaffe89
2015-05-05, 20:56:33
Das Schlimme ist ja, dass sich die 970 seit der Affäre überhaupt nicht schlechter zu verkaufen scheint.


Das tut sie nur bei den Leuten die sich auskennen.
Und das macht sich imho schon bei Geizhals bemerkbar.

Peter Gräber
2015-05-08, 20:23:13
Deswegen wird das von den großen Sites auch nur noch mit den Kneifzange angefasst. Das Spiel ist zwar technisch interessant, aber nichts für dauerhaftes Rampenlicht im Rahmen eines Index – ein Index, der nichts mit Indizierungen zu tun hat, wohlgemerkt. ;)

MfG,
Raff

Hi Raff,

erklärs mir bitte. Es ist auf dem Index und man darf es nicht bewerben - so in etwa korrekt? Aber in wiefern hat die Abbildung von Balkendiagrammen im Ansatz etwas mit Werbung zu tun?

Ich hab es im neuen Parcours drin - warn mich, bevor ich ne Dummheit mache.