PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon HD 7970: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 [12]

aufkrawall
2012-07-04, 15:11:45
der stil ist echt das letzte.
Hab ich mir nicht ausgesucht. ;)
Er wird ja lieber persönlich, anstatt auf Argumente einzugehen.

Gipsel
2012-07-04, 17:56:05
Letzte Warnung:

Wenn hier nicht sofort Schluß mit dem Kinderkram ist, dürfen ein oder zwei Leute eine Weile pausieren. Sucht es Euch aus.

olum2k
2012-07-30, 18:55:56
hat mal jemand versucht, seine referenz 7970 mit dem bios der ghz-edition zu flashen?
wenn ja, irgendwelche probleme gehabt?

TobiWahnKenobi
2012-07-30, 18:58:31
ja, nö.. läuft.. so zumindest hier.. aber ich habs auch nur gemacht, weil mein bios umschaltbar ist und somit nicht wirklich was schiefgehen konnte.

geändert hats nix.. karte läuft 1175/1700MHz in max payne und skyrim.. mehr spiele gebe ich der karte nicht.


(..)

mfg
tobi

Soul
2012-07-30, 19:10:23
Die meisten 7970er gehen problemlos mit 1100+. Da muss man nicht mal das BIOS flashen

TobiWahnKenobi
2012-07-30, 19:19:32
vor dem flash waren die overdrive-regler kürzer.


(..)

mfg
tobi

olum2k
2012-07-30, 20:28:26
ok, muss ich dann mal testen.
hab extra am freitag gebraucht eine referenz 7970 günstig geschossen.
ich hoffe mal, dass die karte morgen bei mir eintrifft.
will nämlich mal wieder etwas "rumbasteln".

haben eigentlich alle 7970er ein dual bios?
die referenzkarte sollte es ja haben.

Raff
2012-07-30, 20:30:50
Die mit Referenz-PCB auf jeden Fall. Die Eigenbau-Platinen der Partner eigentlich auch, aber letztens war zu lesen, dass es mittlerweile Versionen ohne diese Pfennig-Bauteile gibt. Alle rund 15 verschiedenen, mir bekannten Karten haben das Dual-BIOS.

MfG,
Raff

Skysnake
2012-07-30, 20:36:23
XFX DD hat keins, oder ich hab zumindest keins gesehen :ugly:

olum2k
2012-07-30, 20:42:12
ok, thx.

ich habe hier noch eine 7950.
kann ich dann theoretisch die 7950 testweise zum benchen mal zusammen mit der 7970 im crossfire laufen lassen?

M4xw0lf
2012-07-30, 20:48:26
Sollte laufen.

Raff
2012-07-30, 20:54:13
... und wird nicht mehr nur mikroruckeln, sondern so abartig herumseuchen, dass du die Zusatz-Fps der zweiten Karte nicht fühlst. Niemals "Mismatched"-Crossfire betreiben!

XFX DD hat keins, oder ich hab zumindest keins gesehen :ugly:

Evil. Dann haben die eine neue Revision mit Custom-PCB am Start. Die erste BE DD kam mit einer Referenzplatine.

MfG,
Raff

Skysnake
2012-07-30, 21:03:18
Keine Ahnung, ich kanns nicht 100% genau sagen, hab die Karte atm nicht hier. Die steckt in nem Rechner von Institut. Da macht einer grad ne Optimierung vom H264 Code für.

Raff
2012-07-30, 21:04:54
Welche Farbe hat das PCB? War unten (über den PCIe-Kontakten), ein AMD-Logo zu sehen?

MfG,
Raff

Skysnake
2012-07-30, 21:16:58
OMFG du frägst Sachen :ugly:

Ich hab die Karte seit 3-4 Monaten nicht mehr gesehen :ugly:

TobiWahnKenobi
2012-07-30, 21:19:36
von der XFX hab ich auch gelesen, dass sie den switch nicht mehr hat. könnte man jetzt orakeln, warum das so ist..


(..)

mfg
tobi

Raff
2012-07-30, 21:22:10
Cost down. Das ist alles. ;)

MfG,
Raff

samm
2012-07-30, 21:26:18
Meine XFX BE (ohne DD) verfügt über den Switch, stammt aber sicher aus der ersten Charge...

olum2k
2012-07-30, 21:36:37
ich habe mich sowieso gefragt, warum die 7900er ein dual bios haben.
shader kann man bei der 7950 nicht freischalten und warum eine 7970 flashen?
ist doch viel ungefährlicher (thema garantie bei defekt) die karten per software zu takten.

dargo
2012-07-30, 21:41:37
ich habe mich sowieso gefragt, warum die 7900er ein dual bios haben.

Im Falle von Sapphires HD7970-OC zum Bleistift um zwei verschiedene Taktraten und Lüftersteuerungen zu hinterlegen.

HarryHirsch
2012-07-30, 21:41:47
also ich vermisse meine 5870 mit mod-bios.
bei den 7970er muss man nach jedem treiberupdate das ulps deaktivieren und der arschbrenner mach manchmal auch was er will.

dargo
2012-07-30, 21:42:44
bei den 7970er muss man nach jedem treiberupdate das ulps deaktivieren...
Nö... warum?

olum2k
2012-07-30, 21:43:37
Im Falle von Sapphires HD7970-OC zum Bleistift um zwei verschiedene Taktraten und Lüftersteuerungen zu hinterlegen.
ok, da macht es sinn.

HarryHirsch
2012-07-30, 21:44:46
Nö... warum?

weil es sonst nichts wird mit CF und OC.

dargo
2012-07-30, 21:46:12
Achso... ok, mit CF kenne ich mich nicht aus.

Raff
2012-07-30, 21:52:03
ja, nö.. läuft.. so zumindest hier.. aber ich habs auch nur gemacht, weil mein bios umschaltbar ist und somit nicht wirklich was schiefgehen konnte.

geändert hats nix.. karte läuft 1175/1700MHz in max payne und skyrim.. mehr spiele gebe ich der karte nicht.

(..)

mfg
tobi

Liegt der Kerntakt nach der Modifikation konstant an? Irgendwie muss sich der Powertune Boost auswirken. Boostet sie sich auf 1.050 MHz, wenn du nicht per Tool eingreifst?

Wird sie zu heiß, sagen wir mal 85+ Grad Celsius, spielt die Kiste dann selbst an sich rum? ;) Also findet Underclocking statt?

MfG,
Raff

TobiWahnKenobi
2012-07-30, 22:21:54
habe ich nicht getestet - wir haben auf der karte gestern nur max payne laufen lassen und ich hatte den takt eh auf 1175/1701 festgenagelt. mein bruder hat gespielt; ich hatte anderes zu tun. lt. OSD wurde sie ziemlich warm, ja - über 80°C. lief aber ohne jede beanstandung stundenlang durch. ich hab sie dann, als ich das gesehen habe auf 1125/1600MHz zurückgetaktet, aber sonderlich kühler blieb sie dadurch nicht.. also wieder rauf mit dem takt und den lüfter auf über 60% aufgerissen.. dann war das mit der temp auch okay.. gierig laut die zicke, aber läuft ohne aussetzer!


(..)

mfg
tobi

dargo
2012-07-30, 22:23:31
Welche Höllensettings muss man fahren damit die GPU 85+°C heiß wird? :eek:

:cool:
43452

Bei den 41% Lüfter ist die Karte nahezu unhörbar aus dem System obwohl alle anderen Lüfter für den Lautstärketest auf Minimum liefen. In Spielen könnten es paar wenige °C mehr sein. Aber 85°C? :confused:

Raff
2012-07-30, 22:24:56
Mit dem Referenzkühler ist das sehr einfach. Ab Werk mag die aber die 90 gar nicht sehen (nicht mal im Ansatz) und wirkt mit dem Lüfter entgegen.

MfG,
Raff

dargo
2012-07-30, 22:26:52
Achso... mit dem Referenzkühler. Wer kauft denn sowas? :tongue:

marc-05
2012-07-31, 14:07:43
Von Techpowerup gibts Test der Gigabyte HD 7970 Super OVERCLOCK 3 GB mit riesem Kühler und 5! kleinen Lüftern.
http://s14.directupload.net/images/120731/yynevzqs.jpg (http://www.directupload.net)

http://s1.directupload.net/images/120731/lis32duw.jpg (http://www.directupload.net)


http://www.techpowerup.com/reviews/Gigabyte/HD_7970_SOC/1.html

M4xw0lf
2012-07-31, 14:20:30
Scheint allerdings keine Gigahertz-Edition (bzw. Tahiti XT2) zu sein, da der Speichertakt bei 1375MHz stagniert.

Iruwen
2012-07-31, 14:29:14
Ich hab erst auf die Lautstärke und auf die Temperatur geguckt und dachte "na, >1200MHz"? Und dann popelige 1080MHz. Guter Witz. Neuer Rekord für den schlechtesten Triple Slot Kühler?

samm
2012-07-31, 22:16:18
Igitt... Ob's die hierzulande je zu kaufen geben wird? Und wenn ja, ob irgendjemand sowas kaufen würde?
Andererseits nutzen einige ja auch die Referenzkühlung

Soul
2012-08-01, 10:12:19
Die Speicher gehen bis 1900? Muss mal meine testen. Habe nie über 1625 versucht

Raff
2012-08-01, 11:40:56
Mir ist keine HD 7970 bekannt, die 3.800 MHz (1.900) mitmacht. 3.600 bis 3.700 MHz sind absolute Oberklasse.

MfG,
Raff

Hugo78
2012-08-01, 13:16:14
Igitt... Ob's die hierzulande je zu kaufen geben wird? Und wenn ja, ob irgendjemand sowas kaufen würde?
Andererseits nutzen einige ja auch die Referenzkühlung

Das Windforce 5x Design scheint aber garnicht so mies zusein, wie es auf den ersten Blick erscheint.

Idle ist noch erträglich und unter Last bleibt man leiser als die Gigawatt Edition.
THG hatte dazu auch schon einen Test.
http://www.tomshardware.de/Gigabyte-7970-SOC-Winforce-5X,testberichte-241060-5.html

Eine Out-of-the-Box-GPU-Wakü (Waterforce 1X - 2X :lol: ) wäre aber eleganter gewesen, anstatt diesem einem hässlichen 5x Dingsbums.

dargo
2012-08-10, 11:52:39
Falls es wen hier interessiert. Sapphire hat bei ihrer HD7970 OC Dual-X ein neues PCB entworfen welches endlich fertig ist. Wir (die Fiepbeklagten :D) warten ja drauf. Mit etwas Glück könnten die neuen Karten nächste Woche für den Austausch bei Drauka eintreffen. Details stehen im CB-Forum.

Raff
2012-08-10, 11:59:17
Link, bitte. :)

MfG,
Raff

dargo
2012-08-10, 12:22:17
http://www.computerbase.de/forum/showthread.php?p=12498709

dargo
2012-08-21, 09:59:34
Ich bin mir zwar noch nicht ganz sicher, aber so wie es aussieht bekommen wir wohl diese:
http://www.sapphiretech.com/presentation/product/?cid=1&gid=3&sgid=1157&pid=1481&psn=&lid=2&leg=0

Die hat dann wohl nur noch ein Bios und ich darf mich dann auch mit dem Boost "quälen". :freak: Naja... Hauptsache die fiept nicht mehr. Diese Woche müsste es endlich mit dem Versand losgehen.

Edit:
Doch Dualbios:
http://www.computerbase.de/forum/showthread.php?p=12561981

Berserker
2012-08-23, 12:35:32
Welche 7970 kann man sich den holen? Habe mir auch die Sapphire 7970 OC die geht,aber wieder zurück wegen Spulen zierpen. Und die neue Vers. hat eine blaues PCB,geht man gar nicht.

Am besten wäre es eine die es bei Alternate gibt,weil ich da die 7970OC geholt habe. Weiß jmd. wie das bei der Powercolor PCS+ VortexII aussieht? Oder der normalen Powercolor,die hat ja auch schon einen anderen Lüfter als den Standard.

Iceman346
2012-08-23, 12:49:35
Wenn dir die Optik so wichtig ist, dass du eine Karte wegen eines blauen PCBs ablehnst :ugly: dann schau dir Bilder der Karten an und kauf die die dir am besten gefällt.

dargo
2012-08-23, 15:23:02
Ich kann auch nur mit dem Kopf schütteln wenn Hardware nach der Farbe ausgesucht wird. :freak: Naja... jeder wie er es mag.

Berserker
2012-08-23, 16:35:41
naja die Farbe ist mir ja nicht nur wichtig. soll auch sonst ne gute karte sein. kein fiepen,vernünftiges oc potential und kein krachmacher. warum soll auch ich in meinen Augen hässliche karte nehmen wenn ich auch ne schöne karte bekomme mit den selben Vorzügen. habe einen benchtable und schaue die ganze quasi darauf.

dargo
2012-08-27, 15:56:08
Juhu... :ucatch:
http://www.computerbase.de/forum/showthread.php?t=1068610&page=65

Ist wohl der erste User der die Karte mit dem neuen PCB bekommen hat. Meine ging erst heute raus. Die Neue kriege ich dann wohl erst Mittwoch-Freitag. Da muss man sich ernsthaft fragen... warum nicht gleich so Sapphire? :freak:

Raff
2012-08-27, 16:35:07
Weil das 3 Cent pro Karte mehr kostet (grobe, laienhafte Schätzung ;)).

MfG,
Raff

Iruwen
2012-08-27, 16:39:14
Vermutlich wollte man nur erreichen dass die Karte nach etwas mehr als zwei Jahren abraucht :rolleyes:

M4xw0lf
2012-08-27, 16:52:50
Soso, sie haben es also weggezaubert, hmm? Bin ja mal gespannt was Tests dazu sagen ^^ (PCGH? :wave2:)

dargo
2012-08-27, 17:26:17
Wozu brauchst du einen Test? Mir reichen Usermeinungen. ;) Wenn meine Karte ankommt gibts mal wieder den ultimativen Fieptest mit Max Payne 3. :devil:

aufkrawall
2012-08-27, 17:30:31
Wozu brauchst du einen Test? Mir reichen Usermeinungen. ;) Wenn meine Karte ankommt gibts mal wieder den ultimativen Fieptest mit Max Payne 3. :devil:
Wie viele Monate wartest du eigentlich mittlerweile auf die?

dargo
2012-08-27, 17:37:42
Wie viele Monate wartest du eigentlich mittlerweile auf die?
Von warten kann eigentlich nicht die Rede sein. Auf die erste Ersatzkarte habe ich eine Woche gewartet. Sprich konnte in dieser Zeit nur meine superschnelle X300 nutzen. ;D Die erste Ersatzkarte war ein Schuß in den Ofen. Hat genauso gefiept wie die Gekaufte. Da hat Sapphire in Asien Mist gebaut. Auf die zweite Ersatzkarte mit dem neuen PCB muss ich halt nur die Tage für den Versand hin und her warten. Heute die Ersatzkarte halt abgeschickt, morgen ist sie bei Sapphire. Die neuen Ersatzkarten hat Drauka schon da. Die schickt er sofort ab sobald meine alte angekommen ist. Sprich frühestens Mittwoch habe ich die Neue. Leider wollte/konnte Drauka die Neue nicht vorabschicken. Hatten wohl schlechte Erfahrungen damit gemacht.

Scruffy
2012-08-28, 18:18:17
Ich habe im Moment eine Gigabyte Radeon HD 7970 WindForce 3X hier, diese geht aber morgen zurück. Ich kann die Karte einerseits empfehlen und muss gleichzeitig eine Warnung aussprechen:

Anscheinend gibt es verschiedene Versionen der Karte. Normal ist das BIOS F1 oder F2, letzteres dreht die Lüfter unter Last mit 42% und ist dabei (für mich) angenehm leise. Die Leistung ist top (Arma in 200% Auflösung :cool: ) und ich konnte kein Spulenfiepen ausmachen. Wer noch die BIOS Version F1 drauf hat fährt auch im Idle mit leisen 33%, unter Last versucht die Karte aber anscheinend unter 60°C zu bleiben und dreht auf. Da hilft dann ein simples Update auf F2 und es herrscht Ruhe.

Nun zu meiner Karte: Diese hat die BIOS Version F60, welche selbst im Idle bei 300/150MHz schon 50% Lüftergeschwindigkeit anlegt. Unter Last geht es dann schnell auf 70% und mehr und bei den 3000rpm aufwärts höre ich sie auch noch mit Kopfhörer.
Mit dem F1 oder F2 BIOS ist die Karte unter Last nicht stabil und hängt sich nach relativ kurzer Zeit im Spiel weg. Einen Abweichung bei Takt/Temperatur/Spannung konnte ich nicht ausmachen, nur die Lüftergeschwindigkeit ändert sich. Mit F60 BIOS und Lüftergeschwindigkeit im CCC auf 42% gibt es keinen für mich erkennbaren Unterschied zum F2 BIOS.

Der Gigabyte Support sagte mir diese auf der Gigabyte Seite nicht vorhandene F60 Version sei aktuell und die Lüftergeschwindigkeiten so für die Karte normal. Auf die Frage nach unterschiedlichen Revisionen ging man nicht ein.
Auf meiner Packung steht "Model Name: GV-R797OC-3GD" und darunter "AMD Radeon HD 7970/REV 2.1".

dargo
2012-08-28, 19:13:29
Ich sehe gerade, dass der Tahiti XT2 sogar relativ günstig im Vergleich zum XT1 angeboten wird. HiS fängt mit 400€ an:
http://geizhals.de/?cat=gra16_512&sort=p&bpmax=&asuch=ghz+edition&asd=on&v=e&plz=&dist=&xf=1440_HD+7970

Hätte jetzt einen wesentlich höheren Aufpreis erwartet.

horn 12
2012-08-28, 20:36:00
Ja, dies ist schon mal nicht schlecht.

Fakt ist dass AMD und NV in dieser Graka Generation NUN so gut wie gleichaufliegen
Die HD7970 Ghz Edition XT2 konkurriert mit der GTX 680 zu geringerem Preis
die HD7970 ist der GTX 670 Gleichgestellt,- zusammenin etwa mit meiner HD7950 OC 900/1250
und die HD7950 ist minimal besser als GTX 660 TI OC.

GTX 660 TI lässt die HD7870 2GB gewisse Prozentsätze hinter sich.

aufkrawall
2012-08-28, 21:09:44
GTX 660 TI lässt die HD7870 2GB gewisse Prozentsätze hinter sich.
"gewisse Prozentsätze", wie überaus vielsagend. :freak:

samm
2012-08-28, 21:12:45
Was willst du anderes sagen? Je nach Spiel halt ;)

Und im 7970-Topic sowieso OT....

dargo
2012-08-29, 06:56:00
Eben.

Die 660TI liegt so ziemlich genau auf dem Level der 7870. Es gibt zwar einzelne etwas größere Ausreißer im ~20-30% Bereich. Das gilt aber für beide Seiten.

dargo
2012-08-30, 15:41:17
Lest am besten selbst.
http://www.computerbase.de/forum/showthread.php?p=12611465

Achja... als "Entschädigung" für die erste nicht zufriedenstellende Lieferung haben wir ein Sapphire T-Shirt und einen CD-Key für die Vollversion von Battlefield 3 erhalten.

Raff
2012-08-30, 15:47:33
Wer von euch hat denn ein GHz-Edition-BIOS auf seiner Standardkarte? Hier funkt das nicht.

MfG,
Raff

TobiWahnKenobi
2012-08-30, 16:47:00
warum nicht? ich habs "damals" auf ne power color im ref-des. geflasht.. läuft wie vorher auch..


(..)

mfg
tobi

Lard
2012-08-30, 16:51:01
Ich habe es mal probeweise geflasht, aber nicht getestet, da ich für mich keine Vorteile sah.
Was funktioniert den nicht?
Es gibt zwei Versionen vom Bios, vieleicht funktioniert die andere.
Die im Anhang habe ich geflasht.
Hier ist eine andere Version (http://www.techpowerup.com/vgabios/122148/ATI.HD7970.3072.120607.html)

Raff
2012-08-30, 16:59:14
Also das Flashen auf eine Referenzkarte funktioniert – aber trotz erfolgreicher Treiberinstallation geht weder Aero noch sonstwas. Ausprobiert habe ich sowohl das BIOS von Techpowerup als auch das von einer "echten" GHz-Edition extrahierte BIOS.

Lard, hast du nicht mal ein BIOS für Referenzkarten gezimmert, das mehr als 1.000/2.750 MHz hat? Was macht das BIOS in deinem Anhang anders?

MfG,
Raff

Lard
2012-08-30, 17:23:12
Mit Aero hatte ich keine Probleme.
Das Bios im Anhang funktionierte bei jedem, der es geflasht hat.
Keine Ahnung was daran anders ist.

Ich habe sogar mal eins mit 1125/1600 MHz gezimmert.
Ich denke die Taktraten kann man im Bios so hoch editieren, wie AMD Overdrive es zulässt.
Beim ASUS OC Test Bios wären das 2000/2500 MHz.

TobiWahnKenobi
2012-08-30, 19:11:44
ich hab das hier drauf: download (http://homepage.alice.de/tobiwahnkenobi/FILES/Tahiti_XTGHz_C38601_BIOS_Jun29_2012.zip)


(..)

mfg
tobi

Raff
2012-08-30, 20:00:39
Ich habe sogar mal eins mit 1125/1600 MHz gezimmert.
Ich denke die Taktraten kann man im Bios so hoch editieren, wie AMD Overdrive es zulässt.
Beim ASUS OC Test Bios wären das 2000/2500 MHz.

Hast du die/das noch herumliegen? :)

Tobi, danke! Das versuche ich auch mal. Bin gespannt, was am Ende herauskommt.

MfG,
Raff

Lard
2012-08-30, 20:40:52
Nein, das Bios habe ich nur kurz zum Testen verwendet.

dargo
2012-08-30, 20:42:07
Kann mir mal einer erklären wie der Boost beim Tahiti nun funktioniert? Angeblich unterstützt die Neue Boost, ich sehe davon aber nichts. Normalerweise müsste sie ja von alleine 50Mhz höher takten oder?

Raff
2012-08-30, 20:43:26
Hat sie 'nen Knopf an der Oberseite?

MfG,
Raff

kunibätt
2012-08-30, 20:49:08
He Raff, was ist das eigentlich für eine Grundplatte, die du verwendest?
Wo kann man die beziehen, bzw. auf welcher Karte ist sie verbaut?

Raff
2012-08-30, 21:02:03
He Raff, was ist das eigentlich für eine Grundplatte, die du verwendest?
Wo kann man die beziehen, bzw. auf welcher Karte ist sie verbaut?

Die finden sich auf der ersten Sapphire Radeon HD 7970 OC mit "Dual-X"-Kühler. Damit der mit 'nem Accelero harmoniert, musste ich etwas dosierte Gewalt anwenden:

http://www.abload.de/thumb/allekhlteilevzfh4.jpg (http://www.abload.de/image.php?img=allekhlteilevzfh4.jpg) http://www.abload.de/thumb/alleplattenmontiertcno4x.jpg (http://www.abload.de/image.php?img=alleplattenmontiertcno4x.jpg)

Ich fürchte aber, dass da auf gewöhnlichem Wege kein Herankommen ist, das sind keine Nachrüstteile.

MfG,
Raff

dargo
2012-08-30, 21:06:29
Hat sie 'nen Knopf an der Oberseite?

Was für Knopf?

Raff
2012-08-30, 21:15:47
Die Toxic und Vapor-X haben an der Oberseite Knöpfe für ihr (schnelleres) Dual-BIOS. Bei deiner Karte fehlt auf der Sapphire-Produktseite (http://www.sapphiretech.com/presentation/product/?cid=1&gid=3&sgid=1157&pid=1481&psn=&lid=1&leg=0) die richtige Perspektive, aber ich gehe mal davon aus, dass sie unter normalen Umständen versucht, das runde Gigahertz Kerntakt zu halten. Oder nicht?

MfG,
Raff

Gipsel
2012-08-30, 23:25:53
Also die Gigahertz Edition rennt meist mit 1050MHz. Am einfachsten erkennt man die vielleicht am 1,5GHz Speichertakt. Alle OC-Versionen der 7970 non-GE haben afaik weniger.

Edit:
Steht das nicht drauf? Und was sagt GPU-Z?

Edit2:
Oh Mann, hat Sapphire inzwischen viele HD7970er-Versionen. Da gibt es doch tatsächlich auch eine HD7970 OC mit Boost, die keine GE ist (edit3: von Raff sogar verlinkt, hätte nur mal draufklicken müssen :redface:). Die haben also die Boost-Funktionalität nachgerüstet (von 950MHz auf 1GHz), ohne der den XT2-Takt zu geben. Das ist offiziell immer noch XT1 (und hat demzufolge auch einen niedrigeren Speichertakt).

@dargo:
Also wenn Du die hast, sollte die üblicherweise (spätestens bei PT +20% durchgehend) mit einem glatten GHz laufen, wie Raff schon schrieb.

dargo
2012-08-31, 06:22:07
Die Toxic und Vapor-X haben an der Oberseite Knöpfe für ihr (schnelleres) Dual-BIOS. Bei deiner Karte fehlt auf der Sapphire-Produktseite (http://www.sapphiretech.com/presentation/product/?cid=1&gid=3&sgid=1157&pid=1481&psn=&lid=1&leg=0) die richtige Perspektive, aber ich gehe mal davon aus, dass sie unter normalen Umständen versucht, das runde Gigahertz Kerntakt zu halten. Oder nicht?

MfG,
Raff
Ach... du meinst den kleinen Umschalter für Bios 1 und 2? Der ist da. Der hat aber afaik nichts mit dem Boost zu tun.

Bios 1 = 950/1425Mhz
Bios 2 = 1000/1450Mhz

Bios 1 hat auch eine leisere Lüftersteuerung. Boost müsste eigentlich bei beiden Versionen funktionieren oder nicht?

Skysnake
2012-08-31, 08:37:59
Also mit dem Boost hat sich AMD dieses mal echt selbst nen Ei gelegt. Da blickt doch kaum noch einer mehr durch, was für ne Karte er jetzt wirklich vor sich hat...

Da hätten Sie echt mal ne HD7975 usw. draus machen sollen...

ndrs
2012-08-31, 09:27:22
Ach... du meinst den kleinen Umschalter für Bios 1 und 2? Der ist da. Der hat aber afaik nichts mit dem Boost zu tun.

Bios 1 = 950/1425Mhz
Bios 2 = 1000/1450Mhz

Bios 1 hat auch eine leisere Lüftersteuerung. Boost müsste eigentlich bei beiden Versionen funktionieren oder nicht?
Ich meine im CB-Thread mal gelesen zu haben, dass nur das GHz-Bios Boost aktiviert hat.

dargo
2012-08-31, 10:01:48
Ich glaub bei Sapphire gibts nur noch Chaos. Die werben doch hier mit dem Boost.
http://www.sapphiretech.com/presentation/product/?cid=1&gid=3&sgid=1157&pid=1481&psn=&lid=1&leg=0

Raff
2012-08-31, 12:27:33
Ich habe es mal probeweise geflasht, aber nicht getestet, da ich für mich keine Vorteile sah.
Was funktioniert den nicht?
Es gibt zwei Versionen vom Bios, vieleicht funktioniert die andere.
Die im Anhang habe ich geflasht.
Hier ist eine andere Version (http://www.techpowerup.com/vgabios/122148/ATI.HD7970.3072.120607.html)

Das im Anhang läuft. Danke. :)

MfG,
Raff

dargo
2012-08-31, 12:34:53
Ich habe gerade von Drauka im CB-Forum erfahren, dass der Boost nur mit dem Bios 2 funktioniert. Werde ich heute mal genauer unter die Lupe nehmen.

Skysnake
2012-08-31, 12:43:14
kann man das eigentlich auf jede 7970 packen?

Hab noch ne XFX7970.

Raff
2012-08-31, 12:46:33
Auf eine Referenzkarte von XFX? BIOSe für Custom-PCBs machen gern Probleme. Daher halte dich besser an das BIOS von Lard oder das immer funktionierende XFX HD 7970 Black Edition BIOS (1.000/2.850 MHz ohne Nervboost).

MfG,
Raff

dargo
2012-09-01, 18:21:16
Ich habe gerade von Drauka im CB-Forum erfahren, dass der Boost nur mit dem Bios 2 funktioniert. Werde ich heute mal genauer unter die Lupe nehmen.
Also bei meiner Karte gibts keinen Boost. Keine Ahnung was da bei Sapphire schief läuft. Ich hab auch langsam die Schnauze voll von Sapphire. :P
http://www.computerbase.de/forum/showthread.php?p=12621157

samm
2012-09-01, 18:25:08
Naja, Boost taugt sowieso nichts - es ist zwar in dem Falle ein fehlendes Feature seitens Sapphire, aber solange der Umtauschgrund "Spulenfiepen" behoben ist, würd ich mich einfach über das stillere Kärtchen freuen ;)

[edit]Okay, hab's im verlinkten CB-Thread gelesen, fiept immer noch :ugly:

dargo
2012-09-01, 19:41:38
Eben drum.

Mir wäre der Boost selbstverständlich völlig latte. Die "Enttäuschungen" summieren sich aber mittlerweile. An der Lüftersteuerung hat Sapphire auch was bei der neuen Karte gedreht, sodass sie mir jetzt etwas zu laut bei Last ist. Muss also hier auf die benutzerdefinierte zugreifen.

PS: die Änderung war auch völlig unnötig. Mit meiner benutzerdefinierten Lösung @TriXX habe ich höchstens 65°C an der GPU mit 1100/1550Mhz und max. 50% Lüfter. Mit der Lüftersteuerung der Karte hatte ich schon 63% Lüfter bei 61°C. :freak: Wofür??? :| Ich finde den Lüfter noch bis ca. 54-56% in Ordnung. Mit 63% hört man den schon ganz gut aus dem Gehäuse.

Raff
2012-09-01, 19:43:18
Kausalität: Die Karte versucht beim Boost-BIOS den Takt mithilfe geringer Temperatur oben zu halten. Schalte auf das Non-Boost-BIOS und regle Takt/Spannung selbst. :) Mit anderen Worten: Bei AMD hat der Boost nur Nachteile, während man bei Nvidia mit etwas Wohlwollen auch einen Mehrwert erkennen kann.

MfG,
Raff

PS: "Steht im Heft" (PCGH) ©

dargo
2012-09-01, 19:49:39
Kausalität: Die Karte versucht beim Boost-BIOS den Takt mithilfe geringer Temperatur oben zu halten.

Ähm... was ist bei 65°C GPU bitte denn hoch? :confused:


Schalte auf das Non-Boost-BIOS und regle Takt/Spannung selbst. :)
Die Spannung der neuen Karte lässt sich nicht mehr verändern. Auch da hat Sapphire Mist gebaut.

Raff
2012-09-01, 19:51:19
Fixier die Drehzahl doch mal und schau, was bei 70/75+ Grad passiert. ;)

Check mal wegen der Spannung Sapphire Trixx oder HIS Iturbo, vielleicht geht das.

MfG,
Raff

dargo
2012-09-01, 19:53:55
Fixier die Drehzahl doch mal und schau, was bei 70/75+ Grad passiert. ;)

Es passiert gar nichts. Aus irgendeinem Grund sind die Lüfter @TriXX bei mir einmal bei 28% geblieben und dadurch stiegt die GPU auf 76°C. Der Takt 1100/1550Mhz blieb weiterhin.


Check mal wegen der Spannung Sapphire Trixx oder HIS Iturbo, vielleicht geht das.

TriXX geht nicht, HiS Iturbo kenne ich nicht. Muss ich mal probieren.

Edit:
Danke für den Tipp. HiS Iturbo funktioniert tatsächlich. :up:

horn 12
2012-09-01, 20:18:39
Schade drumm!
Probier mal PowerUp Tuner von Powercolor.
Vielleicht geht da was an Spannung zu ändern!

PS: An sich hat es schon was Gutes, welche so wie ich, die Grafikarte HD7950 bzw. 7970 am Anfang zum Release gekauft haben (Jänner - Februar - März)
Haben zwar weitaus mehr bezahlt, dies spiegelt sich aber bei Weitem in der Qualität der Karten wieder!
Da gab es kaum Meckereien und dies sind sicherlich schon mal gute 50+Euro wert,- dass man sich nicht wochenlang ärgert und somit zwangsweise gar ohne Karte ist!

@Dargo
Daumen hoch dass Du es dennoch gebacken bekommst.

dargo
2012-09-01, 20:30:43
Also mit der abgesenkten Spannung ist die Karte wieder geil. :freak:

VGPU @1,256V = 59°C @50% Lüfter
VGPU @1,193V = 54°C @50% Lüfter

Das ganze beim MSI-Kombustor, in Spielen ist die GPU-Last noch höher und somit etwas höhere Temps.

Jetzt muss ich mich wieder entscheiden ob ich dieses Fiepen akzeptieren kann. :uhammer: Wenn ich die Frames auf 80fps begrenze is es akzeptabel. :crazy:

Skysnake
2012-09-01, 20:52:30
Eben drum.

Mir wäre der Boost selbstverständlich völlig latte. Die "Enttäuschungen" summieren sich aber mittlerweile. An der Lüftersteuerung hat Sapphire auch was bei der neuen Karte gedreht, sodass sie mir jetzt etwas zu laut bei Last ist. Muss also hier auf die benutzerdefinierte zugreifen.

PS: die Änderung war auch völlig unnötig. Mit meiner benutzerdefinierten Lösung @TriXX habe ich höchstens 65°C an der GPU mit 1100/1550Mhz und max. 50% Lüfter. Mit der Lüftersteuerung der Karte hatte ich schon 63% Lüfter bei 61°C. :freak: Wofür??? :| Ich finde den Lüfter noch bis ca. 54-56% in Ordnung. Mit 63% hört man den schon ganz gut aus dem Gehäuse.
Mit steigender Temperatur steigt der Verbrauch an, was dazu führt, dass die Karte wärner wird, was dazu führt, dass die Karte mehr verbraucht, usw.

Das dann auch dazu führt, dass der Lüfter höher drehen muss, weil die Karte ja wärmer ist. usw.

Ist ziemlich blöde Situation. Man will keine zu laute Karte, wenn man aber zu spät und zu zierlich den Lüfter hoch dreht, dann schauckelt sich das mit der Zeit immer weiter hoch, und man ist am Ende lauter und heiser bei mehr Verbrauch, als wenn man gleich am Anfang etwas mehr Lüfterdrehzahl gegeben hätte, und die Karte kühler geblieben wäre.

dargo
2012-09-02, 01:07:15
Der Verbrauch ist mir ziemlich latte.

Knuddelbearli
2013-06-24, 20:41:37
welche 7970 gibt es noch mit Referenzdesign?

Raff
2013-06-24, 21:36:39
Das ist schwierig, da man nicht weiß, welche kleinen Änderungen die Hersteller an den Platinen vornehmen. Einfach mal in Preisvergleichen nach Referenzkarten umsehen:

http://preisvergleich.pcgameshardware.de/sapphire-radeon-hd-7970-single-fan-21197-00-40g-a719058.html
http://preisvergleich.pcgameshardware.de/powercolor-radeon-hd-7970-ax7970-3gbd5-2dh-a737385.html
http://preisvergleich.pcgameshardware.de/msi-r7970-2pmd3gd5-v803-823r-a723286.html

Ohne Gewähr – diese sehen so aus.

MfG,
Raff

Schaffe89
2013-06-25, 22:37:44
Interessant wäre mal eine Neubewertung des Stromverbrauchs der HD 7970 und HD 7950 usw.. Karten.
Ihr gebt nämlich immer in den Tests die Referenzwerte von Samples an die teils fast 2 Jahre alt sind.
Die Spannungen müssten im Schnitt deutlich nach unten gewandert sein und demnach müssen die Karten auch viel weniger verbrauchen.

Hübie
2013-06-26, 00:09:56
Die Spannungen müssten im Schnitt deutlich nach unten gewandert sein und demnach müssen die Karten auch viel weniger verbrauchen.

Wir wollen die Kirche mal im Dorf lassen. Aktuelle Tests geben auch kein viel besseres Ergebnis ab ;) Lies dir Reviews durch, dann stellst du fest das einige zum 700er-Release die "alten" neu testeten.

Edit: Techreport ist so ein Kandidat. Von 302 Watt auf 290 Watt. 12 Watt für das Gesamtsystem finde ich jetzt nicht erwähnenswert.
http://abload.de/img/techreport_verbrauchs4sec.png (http://abload.de/image.php?img=techreport_verbrauchs4sec.png)

M4xw0lf
2013-06-26, 07:17:47
Wir wollen die Kirche mal im Dorf lassen. Aktuelle Tests geben auch kein viel besseres Ergebnis ab ;) Lies dir Reviews durch, dann stellst du fest das einige zum 700er-Release die "alten" neu testeten.

Edit: Techreport ist so ein Kandidat. Von 302 Watt auf 290 Watt. 12 Watt für das Gesamtsystem finde ich jetzt nicht erwähnenswert.
http://abload.de/img/techreport_verbrauchs4sec.png (http://abload.de/image.php?img=techreport_verbrauchs4sec.png)

Der Test ist trotzdem sehr interessant. Hier kommen Tahiti und GK104 ja auf praktisch identische Verbrauchswerte, das ist auch nicht so die Regel.

boxleitnerb
2013-06-26, 08:48:33
Da es vom Spiel abhängt, gibt es keine Regel ;)
Ich vermisse ja "richtige" Tests diesbezüglich, heißt 5-10 Spiele und dort (und nur dort!) fps/Watt (und dabei auch wirklich den Durchschnittsverbrauch der Benchmarkszene und nichts zusammenwürfeln).

Schaffe89
2013-06-26, 13:44:06
Jepp, so müsste man es machen. Besser wäre noch den Verbrauch etwa 5 Minuten pro Spiel aufnehmen und dann das in etwa 10 Spielen.

So als gesonderter Artikel um mal wirklich zu sehen wieviel die Karten ziehen.

schreiber
2013-06-26, 13:46:54
und dann noch 5-10 Exemplare pro Chip, damit man die Serienstreuung in etwa rausbekommt.

Djudge
2013-06-26, 13:57:12
Der Informelle-Overkill und ja, ich würde das auch verschlingen.


upps falscher Thread
@Topic ich schwanke noch 760/770 Stromverbrauch vs 2560x1600 mit 8xSSA

Knuddelbearli
2013-06-26, 14:37:57
wenn ihr bereit seit für so nen test je 10€ zu zahlen kann man mit den seiten sicher drüber reden ^^

Djudge
2013-06-26, 16:14:05
Ich weiß nich, 10€ erscheinen mir zu viel, in zweierlei Hinsicht, für die Leser zu teuer und dadurch kaum Kohle für den Aufwand.
Irgend so ein vorher (y) like Zeug und dann ab 1000 "Vorbesteller" 1€ per Donate System, da kommt auch gut was zusammen und 1€ ist mir das wert.

Knuddelbearli
2013-06-26, 17:50:41
nur wirst du für sowas niemals 1k Leute zusammenbekommen eher maximal 100 ^^ und dann sind es eben 10€ pro Person.

und wenn es jetzt wirklich 5-10 Exemplare pro Chip sein sollen kosten die Karten an sich ja schon bei 7970 ghz 7970 7950 Boost und 680 780 670 und 770 schonmal bei 17,5-35k€

sowas kann man maximal machen wenn man sein Büro direkt neben einem Händler hat ^^

Ihr stellt euch das wie immer alles viel zu leicht / einfach vor

Djudge
2013-06-26, 18:47:43
Na, dass der erste Gedankengang nicht der Weisheit letzter Schluss ist, sollte sonnenklar sein.
Wäre halt was für Aktivisten mit der nötigen Infrastruktur, so wie Caseking und 3DCenter.
Die selektierten Exemplare mit OC Potenzial können ja dann auch noch mit in die Rechnung rein spielen.

Hübie
2013-06-26, 19:50:50
Der Test ist trotzdem sehr interessant. Hier kommen Tahiti und GK104 ja auf praktisch identische Verbrauchswerte, das ist auch nicht so die Regel.

Ich wollte lediglich das "deutlich" und "viel weniger" relativieren. :wink: Die 680-Reviews abseits der "Empfehlung" seitens nVidia zeigen schon von vorn herein ein höheren Verbrauch auf.

LG Hübie
...dem der Energieverbrauch scheiß egal ist: hohe Leistungsaufnahme = weniger Heizkosten und vice versa.

Knuddelbearli
2013-06-26, 20:00:50
du heizt jetzt im sommer? ^^

aufkrawall
2013-06-26, 20:11:06
Atm nicht verkehrt.

Hübie
2013-06-26, 20:54:58
du heizt jetzt im sommer? ^^

Guck mal raus ;D

Iruwen
2013-06-27, 11:27:53
Hier sind 15°C, die Heizung bollert vor sich hin.

Hübie
2013-06-27, 12:02:48
Dann hast du die falsche Graka / CPU ;D :freak:

Knuddelbearli
2013-06-27, 19:07:43
also ich verstehe euch echt nicht hier sinds aussen 11C° und ich käme nichtmal auf die idee heizung anzumachen. maximal zieh ich nen pulover an und gut ...

Schaffe89
2013-06-27, 19:44:21
Inwiefern ist denn das Heizungsargument Unsinn? Wieviel Wärmeenergie wird denn mit einer Heizung oder Ofen hergestellt, wie ist da der Kostenunterschied zum PC?
Im Winter, Frühling, Herbst, relativiert sich da der höhere Strombedarf durch den Heizeffekt, oder ist das nicht weiter bemerkbar?

samm
2013-06-27, 20:49:49
Inwiefern ist denn das Heizungsargument Unsinn? Wieviel Wärmeenergie wird denn mit einer Heizung oder Ofen hergestellt, wie ist da der Kostenunterschied zum PC?
Im Winter, Frühling, Herbst, relativiert sich da der höhere Strombedarf durch den Heizeffekt, oder ist das nicht weiter bemerkbar?Ein Teil der Heizleistung eines PCs geht ja als Rechenleistung verloren, und je kühler die Umgebung ist, desto mehr :lol: Zudem ist afaik der Wirkungsgrad einer reinen elektrischen Heizung nicht so toll (je nach Art der Erzeugung und Transport des Stroms), und die Netzbelastung hoch.
Interessant wäre mal eine Neubewertung des Stromverbrauchs der HD 7970 und HD 7950 usw.. Karten.
Ihr gebt nämlich immer in den Tests die Referenzwerte von Samples an die teils fast 2 Jahre alt sind.
Die Spannungen müssten im Schnitt deutlich nach unten gewandert sein und demnach müssen die Karten auch viel weniger verbrauchen.Kann man auch andersrum vermuten, da sich ja gezeigt hat, dass die Eigendesigns nach der anfänglichen Welle von Referenzdesigns eher Bauteil-Spar-Versionen mit zu hohen Spannungen sind ;) Löblicherweise hat ht4u Folgendes vor:Wie verhalten sich also Produkte der Boardpartner in Eigendesigns? Oft übertaktet, immer mit anderem Kühler versehen und manches Mal auch mit einem Eigenen Platinendesign.

Um die Frage klären zu können, wollen wir uns in den folgenden Wochen solche Grafikkarten im Detail ansehen Angefangen mit der stark übertakteten Asus Matrix Platinum: http://ht4u.net/reviews/2013/asus_matrix_hd_7970_platinum_im_test/

Raff
2013-06-27, 20:51:22
also ich verstehe euch echt nicht hier sinds aussen 11C° und ich käme nichtmal auf die idee heizung anzumachen. maximal zieh ich nen pulover an und gut ...

Würde ich normalerweise auch so machen, aber wenn man ein holdes Weib in der Bude hat, gelten manchmal andere Regeln (noch ist hier außer dem Rechner nix an, aber Deckenpflicht auf dem Sofa :D).

MfG,
Raff

samm
2013-06-27, 20:56:47
Du musst sie halt wärmen... :love:

Knuddelbearli
2013-06-27, 21:57:37
so mal wieer was OnTopic

mal gucken wenn eine der Referenzkarten unter 300€ fällt glaube dann kauf ich 2, sonst gucke ich halt mal was mir AL für einen Preisvorschlag macht

Hübie
2013-06-28, 02:35:31
also ich verstehe euch echt nicht hier sinds aussen 11C° und ich käme nichtmal auf die idee heizung anzumachen. maximal zieh ich nen pulover an und gut ...

Sag mal wo wohnst du und vor allem mit wem / was? Alter 11°C. Kauf dich SLi / CFX und Frau kommt von allein.

Ich versuch mal meine beiden 580er zu verchecken und wieder ein AMD'ler zu werden. Mache mir nur nicht viel Hoffnung da die Leute nix ausgeben wollen...

Knuddelbearli
2013-06-28, 04:24:55
naja aktuell habe ich ja ne 480 ^^ die saugt mit oc mehr als 2 7970 ^^
im idle sogar deutlich mehr als 4 7970 ghz ^^

und 11C° natürlich Außentemperaturen ( in Wien )

Iruwen
2013-06-28, 10:56:36
Ein Teil der Heizleistung eines PCs geht ja als Rechenleistung verloren

War das Ironie? :freak:
Und warum wird das hier diskutiert und nicht hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=543382) wo es viel besser reinpassen würde.

Palpatin
2013-06-28, 11:07:46
War das Ironie? :freak:

Ich befürchte nicht :D.

samm
2013-06-29, 14:58:46
Ehm... ist das bei dem Satz nicht sehr offensichtlich? ;D

aufkrawall
2013-06-29, 15:11:05
naja aktuell habe ich ja ne 480 ^^ die saugt mit oc mehr als 2 7970 ^^

Zwei 7970 OCs können schon mal 600 Watt saugen...

M4xw0lf
2013-06-29, 15:28:21
Zwei 7970 OCs können schon mal 600 Watt saugen...
Es ging ja um Thermi OC vs. Standard 7970 :)

Knuddelbearli
2013-06-29, 16:34:46
jup wozu sollte ich 2 7970 den ocen bei Full HD? oO und meine GTX 480 dürfte unter max OC wohl min eine 4 vorne dran haben

M4xw0lf
2018-03-16, 09:39:10
Mal wieder ein Tahiti-Test im Vergleich mit moderneren Karten und modernen Spielen: https://www.techspot.com/article/1592-revisiting-radeon-r9-280x-radeon-hd-7970/

Langlebigste (längstlebige? :uponder:) GPU ever.

dildo4u
2018-03-16, 09:53:56
Wirkt gerade zu effizient im Gegensatz zu dem was AMD Heute verkauft 260 Watt für das ganze System.Ich hatte damals den Endruck das die Karten schon recht hungrig waren ich hätte keine weitere Steigerung erwartet.

Troyan
2018-03-16, 10:27:08
Beeindruckend, wie gut GK104 ist, wenn die 2GB nicht limitieren. Tahiti ist rund 20% größer, hat 20% mehr Bandbreite sowie rund 15% mehr theoretische Rechenleistung und liefert im Schnitt 10% mehr Leistung. Wenn man überlegt, dass bei Kepler in neueren Spielen fast bis zu 1/3 der Rechenleistung nicht zur Verfügung steht, ist dies kein besonderes Ergebnis.

Zeigt dann aber auch auf, wieso GCN im Laufe der Zeit immer weiter zurückgefallen ist, wenn der Konkurrent alleine mit Maxwell rund 80% Mehrleistung bei 33% Flächenanstieg verzeichnen konnte...

dargo
2018-03-16, 12:53:07
Was ist daran beeindruckend? 2012 war GTX680 und R9 280X (HD 7970 Ghz Edition) Gleichstand in 1080p.
https://www.computerbase.de/2012-06/test-amd-radeon-hd-7970-ghz-edition/3/

Zudem sehe ich in dem neuen Testparcour kein einziges low level Spiel.

fondness
2018-03-16, 14:23:42
Vermutlich limitieren da sogar noch die 3Gb hin und wieder...

dargo
2018-03-16, 14:50:25
Denke ich nicht, in dem Fall müsste die 1050 mit ihren 2GB einbrechen was hier nicht erkennbar ist. Die Settings wurden überwiegend übrigens reduziert. Höchstwahrscheinlich auch um noch gut spielbare fps zu realisieren.

G3cko
2018-03-16, 19:13:05
Warum wird die Karte immer mit der GTX680 verglichen?

7970 OC Modelle waren so teuer wie die GTX670

06/2012
https://www.computerbase.de/2012-06/test-amd-radeon-hd-7970-ghz-edition/13/

05/2013
https://www.computerbase.de/2013-05/nvidia-geforce-gtx-770-test/13/

Lediglich die GHz "gebrandeten" waren teurer. Die günstigste 7970 die ich kaufen konnte hatte 1010MHz Standard-OC...

Ex3cut3r
2018-03-16, 19:31:01
Die 7000er AMD Serie war der Kepler imo bis auf der Titan voraus. Trotzdem (ich auch) hat man damals zur 670/680/770 gegriffen. Warum auch immer. :D

Hübie
2018-03-16, 19:54:39
Warum wird die Karte immer mit der GTX680 verglichen?

7970 OC Modelle waren so teuer wie die GTX670

06/2012
https://www.computerbase.de/2012-06/test-amd-radeon-hd-7970-ghz-edition/13/

05/2013
https://www.computerbase.de/2013-05/nvidia-geforce-gtx-770-test/13/

Lediglich die GHz "gebrandeten" waren teurer. Die günstigste 7970 die ich kaufen konnte hatte 1010MHz Standard-OC...

Weil zum Zeitpunkt eben beides Highend war. Wenn AMD ihren Kram zu Schleuderpreisen verkauft ist es vielleicht ein Kaufentscheidungskriterium, aber in Vergleichen geht es um Segmente, welche durch die Performance bestimmt werden. Die 770 4GB nimmt es auch immer noch jederzeit mit einer 280X auf. Es hat sich also kaum etwas geändert. Der Tatsache, dass Kepler mit konservativem Takt heraus kam, kann man dann notfalls mit OC entgegen wirken.
Wer damals eine 7970 gekauft hat, hat allerdings wirklich mehr richtig gemacht, als die mit einer 680 2GB. Letztere wird glaub ich heutzutage für weniger gehandelt, als die 7970.
Ich sehe keinen Grund ein Fass aufzumachen. Damals herrschte etwa Gleichstand, heute 10% zu Gunsten der Tahiti. Dennoch nett wenn sich eine Seite dem Thema hin und wieder widmet. :smile:

vinacis_vivids
2018-03-16, 20:50:07
Bei den ganz neuen Engines ist Tahiti ein anderes Level, eher 50% schneller.

Hübie
2018-03-16, 21:04:35
Ja genau. Einfach mal ne Aussage hin klatschen, keine Beweise liefern und wieder gehen. :facepalm:

Gleich kommst du mit Wolfenstein II in 4k mit 5 und 7,5 fps oder was? Ich bezweifel deine Aussage an der Stelle also man bis ins argste Detail. Definiere doch mal ganz neue Engine. :rolleyes:

Pirx
2018-03-16, 21:23:26
Eine 2 GB Karte hätte noch dazugehört, um mal die Qualität des damaligen Angebotes von nV und AMD richtig aufzuzeigen. edit: und etwas Vulkan/DX12

Hübie
2018-03-16, 21:29:32
Die 1050 kann man da nehmen, auch wenn die nicht Kepler hat. Wenn VRAM limitiert ist jede µArch scheiße.
Bei DX12/Vulkan stimme ich zu. Die Spiele wie For Honor sind nicht sehr repräsentativ.

G3cko
2018-03-16, 21:56:57
Nein, es kommt sehr wohl auch auf den Preis an. Man kann nicht immer 2 Karten miteinander vergleichen welche sich nun Mal nie bzw nur 5% der Zeit am Markt direkt gegenüberstanden. Das verzerrt nunmal komplett das Bild.

Heute werden ja auch Fertigungsprozesse gestreckt. Bedeutet zum Release eines neuen Prozesses sind nunmal GK104 oder GP104 highend. Ob einem das schmeckt oder nicht steht auf einem anderen Blatt. Genauso sind Chipfläche und und Marketingnamen unerheblich.

Den abseits von nerdforen interessiert es niemanden ob AMD ihre Architektur für alle alle Marke designt oder Nvidia das Geld hat diese für die jeweiligen Märkte zu spezialisieren.

Am Ende zählt objektiv nur Preis, Leistung und Ausstattung in Form von VRAM und Featureset (DirectX).

http://www.pcgameshardware.de/Wolfenstein-2-The-New-Colossus-Spiel-61046/Specials/Wolfenstein-2-The-New-Colossus-im-Technik-Test-Benchmarks-Vulkan-1242138/
Im übrigen 7970 6GB > GTX980 bei mehr als 60 fps.

Hübie
2018-03-16, 22:08:35
Das mag deine Meinung sein. Akzeptiere ich. Ist aber nicht die gängige Praxis in redaktionellen Bereichen. Das ist ja auch nicht auf meinem Mist gewachsen. Du suchst dir eben die Berichte heraus, die deine Bedürfnisse decken und ich mir meine (usw.). Wo ist denn jetzt dein Problem dabei? Wenn es den Markt nicht interessieren würde, dann stünde AMD doch nicht dort wo sie aktuell sind. Das kannst du nicht nur auf das Marketing schieben. ;)

ps: Den Wolfenstein II Test kannst du nicht mehr heran ziehen, da sich an der Performance einiges getan hat. ;)

aufkrawall
2018-03-16, 22:13:09
Bei dieser Szene war AMD mit dem alten Versionsstand benachteiligter als Nvidia, also von daher...

Hübie
2018-03-16, 22:18:41
Doch nur wenn man gen Himmel schaut oder? Egal generell wurde da ne ziemliche Bremse gelöst und so ein veralteter Test kann nicht heran gezogen werden, wenn sich so signifikant etwas geändert hat. Wer weiß ob das bei Tahiti überhaupt auftrat.

Bei mir gab es auch einen ordentlichen Schub an vielen Stellen. An der höchsten Stelle im U-Boot wenn man ins Innere schaut ging es bei mir von 72 fps hinauf auf ~90.

dargo
2018-03-16, 22:23:18
ps: Den Wolfenstein II Test kannst du nicht mehr heran ziehen, da sich an der Performance einiges getan hat. ;)
Im Worstcase ist Vega um ca. Faktor 5 3 gestiegen. Inwiefern soll das Szenario dann also stärker Richtung Nvidia profitieren?

Edit:
Sorry... war eher Faktor 3, falsch behalten.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11577307&postcount=1071

Hübie
2018-03-16, 22:32:41
Wo schreibe ich das??? :| Lesen und nicht denken was da stehen könnte.

vinacis_vivids
2018-03-16, 22:50:47
Bei min fps siehst noch düsterer aus.
https://abload.de/img/keplerm0qkt.png

dargo
2018-03-16, 22:59:41
Vielleicht kann man damit etwas mehr anfangen.

https://abload.de/img/zwischenablage06geptk.jpg

2RIyx7_0ayM

Was besseres auf die schnelle habe ich nicht gefunden. Leider beschäftigt sich kaum eine Redaktion mit älteren Grafikkarten und neueren Games. Immerhin aber einige Youtuber. Nur 2GB Vram gilt für beide und die Mehrleistung einer R9 280X kann man eventuell auf die RX560 extrahieren. Diese wurde nämlich bei techspot getestet. Zwar mit 4GB, spielt hierbei aber keine Rolle wenn noch alles in den Vram passt. Was bei 1080p mit Medium Preset offenbar hier der Fall ist. Im Schnitt ist die R9 280X bei techspot 38% schneller als die RX560. Insofern halte ich es gar nicht mal für so befremdlich, dass R9 280X zumindest in Wolfenstein 2 um die 50% vor GTX680 liegt. Womöglich sogar noch etwas mehr.

-=Popeye=-
2018-03-16, 23:12:23
Oh... die Wolfensau wird wieder durchs Land getrieben.

Hübie
2018-03-16, 23:26:28
Unfassbar. Dabei habe ich doch gesagt, dass sich die Performance völlig verändert hat und die alten Tests nicht repräsentativ sind. Egal für welche Gen oder von welchem IHV. Der Status quo veränderte sich bei W2 zu oft, zu stark.
Hinter jeder Aussage wird gleich wieder eine Verschwörung zwischen rot / grün gesehen. Peinlich. Dann auch noch das herum reiten auf einem Spiel. Warte gleich kommt RoTR oder Sniper Elite 4. X-D

Was besseres auf die schnelle habe ich nicht gefunden. Leider beschäftigt sich kaum eine Redaktion mit älteren Grafikkarten und neueren Games.

Ja und wenn dann nur halbherzig. Ich muss auch oft nachschauen, wenn ich nach Empfehlungen gefragt werde und finde oft nur vages Zeug.

dargo
2018-03-16, 23:32:49
Unfassbar. Dabei habe ich doch gesagt, dass sich die Performance völlig verändert hat und die alten Tests nicht repräsentativ sind. Egal für welche Gen oder von welchem IHV. Der Status quo veränderte sich bei W2 zu oft, zu stark.

Schon mal aufs Datum der Videos und die Grafiktreiber geschaut?

btw.
Mit 4GB bei beiden wirds auch für Nvidia Kepler nicht besser.

https://abload.de/img/zwischenablage077oqps.jpg

KyC1UfKikN4

PS: die 2GB Vram limitieren bei beiden IHVs in Wolf 2 trotz Medium Preset doch ganz schön.

Hübie
2018-03-16, 23:46:54
Dein Video kam doch erst eben, nachdem schon alte Werte gepostet wurden. Jetzt mixt du noch andere Karten mit rein und das Chaos mit Quervergleichen ohne Kenntnis von Szenen nimmt seinen Lauf. :rolleyes:
G3cko kam mit einem alten Test zwischen 280X und 980. Du nimmst jetzt genau warum Kepler und Polaris? Allein weil die Szene ne andere ist und die Videos nicht den alten Status wiedergeben kann man absolut nichts ableiten. Völlig sinnlos.

dargo
2018-03-16, 23:58:10
Du nimmst jetzt genau warum Kepler und Polaris?
Deshalb.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11652100&postcount=2886

Wobei es nicht neuere Engines sondern eher Engines die Shader Intrinsics verwenden heißen müsste. Der Ursprungspost aus dem die ganze Diskussion stamm war das hier.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11651663&postcount=2877

Und dort wurde ebenfalls eine 4GB RX560 getestet die im Schnitt der acht Games 28% langsamer als R9 280X ist. Den Rest kann man extrahieren. Zugegeben... absolut exakte Ergebnisse bekommt man damit nicht, nur eine grobe Richtung. Wenn du eine bessere Quelle für Wolf 2 oder Doom mit Tahiti vs. Kepler hast nur her damit.

Hübie
2018-03-17, 00:18:24
Moment. Weil von Tahiti gesprochen wird und ich sage, dass die alten Werte nutzlos sind kommst du mit Polaris und Kepler? :freak: Dass muss ich mir mal reinziehen.
Die Aussage 1 dass Tahiti langlebig ist fechte ich nicht an. Ein GK104 mit 4 GB und etwas OC aber ebenso wenig. Über die Zeit steht Tahiti (im Gegensatz zu früher) etwa 10% besser da (damals war der mit 99% auf GK104-Niveau, jetzt mit 110% darüber). Da die meisten einen GK104 mit 2 GB gekauft haben ist der natürlich mittlerweile Schrott.

Aussage 2: Alte Werte von W2 kann man nicht mit aktuellen Vergleichen. Wenn man vergleicht dann muss man die selber Szene und den selben Unterbau benutzen. Der Typ in den von dir verlinkten Videos mischt munter CPUs/GPUs, was den Vergleich untereinander ebenso erschwert wie Vergleiche von anderen Seiten.

Klar soweit? Gut. Case closed.

=Floi=
2018-03-17, 02:44:56
Bei min fps siehst noch düsterer aus.
https://abload.de/img/keplerm0qkt.png

weil du die 3gb vram überfährst.
:facepalm:

dargo
2018-03-17, 08:39:59
Aussage 2: Alte Werte von W2 kann man nicht mit aktuellen Vergleichen. Wenn man vergleicht dann muss man die selber Szene und den selben Unterbau benutzen. Der Typ in den von dir verlinkten Videos mischt munter CPUs/GPUs, was den Vergleich untereinander ebenso erschwert wie Vergleiche von anderen Seiten.

Das ist doch Quark. Der Typ verwendet die gleiche CPU und sogar den gleichen Treiber in den beiden Videos. Natürlich verwendet er auch die gleiche Szene und das selbe Preset.

Edit:
Hier gibt es endlich eine HD7970 OC (925Mhz GPU) zum Vergleich.

https://abload.de/img/zwischenablage08bdonf.jpg

a11-XJt8u5Y

Das sieht für Kepler noch übler aus als ich dachte. Die HD7970 3GB ist bei den avgs. 81% und bei 1% Low 95% schneller als die GTX770 mit 4GB Speicher. Es werden zwar zwei verschiedene CPUs verwendet (i3-8100 vs. R3 1300X). Aber immerhin in beiden Fällen 4C/4T, sollte keine große Rolle bei Vulkan spielen.

PS: der i3-8100 ist im absoluten CPU-Limit sogar im Vorteil.

https://abload.de/img/zwischenablage09v6pi5.jpg

https://www.computerbase.de/thema/prozessor/rangliste/#diagramm-performancerating-fps-1280-720

Hübie
2018-03-17, 10:58:16
Ich geb's auf. Übrigens gibt er nur die Werksangaben an, nicht welchen realen Takt er nutzt. :rolleyes:

G3cko
2018-03-17, 11:16:05
Die Aussage 1 dass Tahiti langlebig ist fechte ich nicht an. Ein GK104 mit 4 GB und etwas OC aber ebenso wenig. Über die Zeit steht Tahiti (im Gegensatz zu früher) etwa 10% besser da (damals war der mit 99% auf GK104-Niveau, jetzt mit 110% darüber). Da die meisten einen GK104 mit 2 GB gekauft haben ist der natürlich mittlerweile Schrott.


Und was bringt einem eine solche Aussage? Die GTX680 war doch schon 120€ teurer als die günstigsten 7970. Für eine GTX680 4 GB hast du fast zwei 7970 bekommen.

Mit Glück war die GTX670 mit 4GB mit einer 7970 OC preisgleich.


Eine GTX980 kann man auch nicht mit einer 390 vergleichen, da andere Preisklasse.

Aber zum Glück gibt es nun HBCC. Und bei den Marktanteil wird nvidia weiterhin am VRAM sparen.

Hübie
2018-03-17, 11:23:24
Also entweder verstehst Du es nicht oder willst es nicht verstehen. Der Preis gibt nicht den Ausschlag, sondern das Produkt. Nur weil du aus deinem Blickwinkel heraus auf den Preis schaust, machen das nicht alle anderen.

Achill
2018-03-17, 11:53:59
Also entweder verstehst Du es nicht oder willst es nicht verstehen. Der Preis gibt nicht den Ausschlag, sondern das Produkt. Nur weil du aus deinem Blickwinkel heraus auf den Preis schaust, machen das nicht alle anderen.

Ist das die neue argumentative Vorbereitung für die neuen NV GPUs und wenn NV ggf. wieder ein paar 100er auf die jeweiligen Klassen drauf schlägt?

GTX 1170 FE für 699€ ...

*Ein Chor mit Engels-Stimme im Hintergrund: Der Preis gibt nicht den Ausschlag, sondern das Produkt.

Troyan
2018-03-17, 11:55:09
In Amerika kostete die 7970 $549. Andere Länder, andere Preis.

Achill
2018-03-17, 12:17:09
In Amerika kostete die 7970 $549. Andere Länder, andere Preis.

Zum Zeitpunkt das Releases war dies der Fall, aber nur sehr kurz: https://www.anandtech.com/show/5261/amd-radeon-hd-7970-review

Das wichtige Detail ist hier aber, dass es noch gar keine 670/680 gab. Zum Zeitpunkt des Release (11.2011) war die verfügbare Konkurrenz die GTX 580.

Die 680 kam erst im Mai 2012 raus für 499 USD: https://www.anandtech.com/show/5699/nvidia-geforce-gtx-680-review

Weshalb kurz darauf auch die 7970 Ghz Ed. gab zum gleichen Preis: https://www.anandtech.com/show/6025/radeon-hd-7970-ghz-edition-review-catching-up-to-gtx-680

Und ein weitere wichtige Fakt ist dann auch, dass es hier noch keine GTX 680 mit 4GB gab ... das war dann noch später.

--
Man muss also Aufpassen was man Vergleich, wann die Produkte eingeführt wurden und wie sich Preise der Konkurenz kurz da-vor/nach angepasst haben. Ansonsten ist das alles nur FUD.

dargo
2018-03-17, 12:19:59
Übrigens gibt er nur die Werksangaben an, nicht welchen realen Takt er nutzt. :rolleyes:
Spielt keine große Rolle bei dem riesen Abstand der Framerate. Eine R9 280X taktet eh höher als eine HD7970.

Hübie
2018-03-17, 14:06:37
Ist das die neue argumentative Vorbereitung für die neuen NV GPUs und wenn NV ggf. wieder ein paar 100er auf die jeweiligen Klassen drauf schlägt?

GTX 1170 FE für 699€ ...

*Ein Chor mit Engels-Stimme im Hintergrund: Der Preis gibt nicht den Ausschlag, sondern das Produkt.

Was soll die Frage? Sonst erkläre du mir doch, warum das Unternehmen mit dem zweitgrößten Gewinn pro Mitarbeiter der Welt (nach Alphabet aka Google) Hochpreisstrategie fährt und warum ausgerechnet NV den größeren Anteil vom Kuchen hat und überdurchschnittlich wächst. Man muss sich das mal auf der Zunge zergehen lassen: AMD verkauft seit 2013 Millionen SoC+CPUs+GPUs und kommt nicht mal ansatzweise an Nv heran - wie kann das sein wenn der Preis doch den Ausschlag gibt? Marketing entsteht um das Produkt herum, nicht um den Preis. Der Preis ist nicht ausschlaggebend für Kaufentscheidungen. Das versteht G3cko vielleicht nicht (und manch anderer auch nicht), aber es ist nun mal so. Ob ich es toll finde oder nicht ist hier nicht mal Gegenstand der Debatte.

Sing du also nur weiter in deinem Knabenchor. :rolleyes: Wenn du ernsthaft darüber diskutieren willst ohne es ins Lächerliche zu ziehen kannst du gerne wieder kommen.

Troyan
2018-03-17, 14:30:03
Zum Zeitpunkt das Releases war dies der Fall, aber nur sehr kurz: https://www.anandtech.com/show/5261/amd-radeon-hd-7970-review

Das wichtige Detail ist hier aber, dass es noch gar keine 670/680 gab. Zum Zeitpunkt des Release (11.2011) war die verfügbare Konkurrenz die GTX 580.

Die 680 kam erst im Mai 2012 raus für 499 USD: https://www.anandtech.com/show/5699/nvidia-geforce-gtx-680-review

Weshalb kurz darauf auch die 7970 Ghz Ed. gab zum gleichen Preis: https://www.anandtech.com/show/6025/radeon-hd-7970-ghz-edition-review-catching-up-to-gtx-680

Und ein weitere wichtige Fakt ist dann auch, dass es hier noch keine GTX 680 mit 4GB gab ... das war dann noch später.

--
Man muss also Aufpassen was man Vergleich, wann die Produkte eingeführt wurden und wie sich Preise der Konkurenz kurz da-vor/nach angepasst haben. Ansonsten ist das alles nur FUD.

Die 7970 gab es im Januar für $549 zu kaufen. Zwei Monate später kam die bessere GTX680 für $499 auf den Markt. Seitdem hat AMD die Preise jeweils mit einem neuen Kepler-Release angepasst:
1. Anpassung in April 2012: https://www.anandtech.com/show/5754/radeon-hd-7000-series-price-cuts-promos-inbound
2. Anpassung in Juli 2012: https://www.anandtech.com/show/6093/amd-radeon-hd-7970-7950-7870-price-cuts-inbound-7970ge-available-next-week

In Deutschland kostete die 7970 von Anfang weniger. Keine Ahnung warum.

G3cko
2018-03-17, 14:56:41
Was soll die Frage? Sonst erkläre du mir doch, warum das Unternehmen mit dem zweitgrößten Gewinn pro Mitarbeiter der Welt (nach Alphabet aka Google) Hochpreisstrategie fährt und warum ausgerechnet NV den größeren Anteil vom Kuchen hat und überdurchschnittlich wächst. Man muss sich das mal auf der Zunge zergehen lassen: AMD verkauft seit 2013 Millionen SoC+CPUs+GPUs und kommt nicht mal ansatzweise an Nv heran - wie kann das sein wenn der Preis doch den Ausschlag gibt? Marketing entsteht um das Produkt herum, nicht um den Preis. Der Preis ist nicht ausschlaggebend für Kaufentscheidungen. Das versteht G3cko vielleicht nicht (und manch anderer auch nicht), aber es ist nun mal so. Ob ich es toll finde oder nicht ist hier nicht mal Gegenstand der Debatte.

Sing du also nur weiter in deinem Knabenchor. :rolleyes: Wenn du ernsthaft darüber diskutieren willst ohne es ins Lächerliche zu ziehen kannst du gerne wieder kommen.

Richtig. Also willst du mir nun sagen, Nvidia ist "Premium" daher teurer.
Falsche DX-Level, VRAM und Featureversprechungen. Richtig Premium.

Ich kenne viele die sagen ich kaufe nur nvidia. Eine objektive Begründung haben sie nicht. Das ist ja ok, wenn Markting so gut greift und Konsumenten bereit sind für die gleiche Leistung mehr auszugeben. Aus Unternehmenssicht top. In einem Markt mit 2 Teilnehmern tödlich.

Aber man muss mal den Ball flach halten und die Produkte miteinander vergleichen die nunmal preislich miteinander konkurieren. Denn ich glaube, das versteht du in deinem anscheinend ebenfalls marktinggeblendeten Dasein nicht.

Und da hilft es auch nicht zu sagen, ja aber es gab ja auch die GTX680 mit 4GB, wenn die Karte praktisch fast Niemand gekauft hat. Es gab ja schließlich auch die 7970 mit 6GB.

In Deutschland kostete die 7970 von Anfang weniger. Keine Ahnung warum.
IT Hardware wird in USD gehandelt.

dargo
2018-03-17, 15:51:44
Hehe... der Vergleich 4GB Kepler und 6GB Tahiti ist ziemlich passend finde ich. Beides waren eher Nebenschauplätze. Die Masse kaufte 2GB Kepler und 3GB Tahiti.

Hübie
2018-03-17, 15:58:07
Richtig. Also willst du mir nun sagen, Nvidia ist "Premium" daher teurer.
Falsche DX-Level, VRAM und Featureversprechungen. Richtig Premium.

Ich kenne viele die sagen ich kaufe nur nvidia. Eine objektive Begründung haben sie nicht. Das ist ja ok, wenn Markting so gut greift und Konsumenten bereit sind für die gleiche Leistung mehr auszugeben. Aus Unternehmenssicht top. In einem Markt mit 2 Teilnehmern tödlich.

Aber man muss mal den Ball flach halten und die Produkte miteinander vergleichen die nunmal preislich miteinander konkurieren. Denn ich glaube, das versteht du in deinem anscheinend ebenfalls marktinggeblendeten Dasein nicht.

Muss man eben nicht. Man vergleicht das schnellst verfügbare Modell zum Stichtag. Du kannst es aus deiner Perspektive so machen, da du offenbar auf den Preis guckst. Es gibt mehr als genug Marktteilnehmer, die Leistung>Preis einordnen. Ich kenne keine aktuellen Zahlen von AMD, aber damals setzte man von Titan mehr ab als Tahiti.

dargo
2018-03-17, 16:41:47
Ich kenne keine aktuellen Zahlen von AMD, aber damals setzte man von Titan mehr ab als Tahiti.
Die Quelle dazu würde mich mal interessieren.

vinacis_vivids
2018-03-17, 16:50:35
Nvidia's Hardware haben generell einen geringeren Langzeitwert und sind im UVP auch noch teurer.

=Floi=
2018-03-18, 09:03:33
Würde ich bei Fiji mit seinen 4gb vram oder vega nicht behaupten.

G3cko
2018-03-18, 11:42:26
Würde ich bei Fiji mit seinen 4gb vram oder vega nicht behaupten.

Fiji war technischbeding die Ausnahme, da es abseits dieser Karte bisher immer mehr Leistung oder VRAM fürs gleiche Geld gab.

So schelcht war Fiji aber nicht. Die Fury non-X platzierte sich preislich und von der Leistung zwischen GTX980 und GTX980Ti. Erstere hat bekanntlich auch nur 4GB.

Das eigentliche Problem von Fiji war vor allem das eigene Protfolio. Dank 8GB bereits bei AMD 390 sah die Topkarte trotz HBM natürlich mau aus.

Ich kenne keine aktuellen Zahlen von AMD, aber damals setzte man von Titan mehr ab als Tahiti.
Ab hier ist wohl eine weitere Disskusion überflüssig. Aber vielleicht hilft es deinem Horizont.

Leistung ab Stichtag? Ich merke für dich zählt nur das Topmodell für 1000€. Das die Mehrheit ganz wo anders einkauft scheint dir grotesk.

Nvidias guter Stand kommt alleine durchs hervorragende Marketing. Bestes Beispiel war die GTX480, welche deutlich später und extrem stromhungrig daherkam. Trotz höherem Preis reichte es für AMD nichteinmal für ein 50/50 an Marktanteilen.

Selbst falsche DX-Level- oder VRAM-Spezifikationen scheinen abzuperlen wie Schmieröl auf einer Lederjake mit Lotuseffekt.

Mal angenommen es gäbe eine GTX1070 mit 16GB VRAM mit 5% mehr Leistung aber 30% mehr Verbrauch zum gleichen Preispunkt. Jeder würde diese Karte bevorzugen. Kleb ein AMD vorne drauf und es interessiert keinen.

AMD tut gut daran, es wie bei den CPU zu handhaben. Solange die Miner die AMD Grakas aufgrund der Rohleistung bevorzugen können sie gerne den Wettbewerb im Gaming vorerst ganz einstellen und sich zurückkämpfen wenn es der Endkunde realisiert hat, das Wettbewerb fehlt.

Im Gegensatz zu der Parallele bei den Intel CPUs fürchte ich, dass das den Fanboys egal ist.

Das Marketing ist schon erste Sahne. Es gibt mittlerweile soviele Titan-Karten, und trotzdem glauben viele die Karte wäre noch etwas besonders. TitanX Xp XP. Mit Starwars in grün und rot. Black-Edition, leder-Edition, selbst für Jemanden der sicht täglich damit beschäftig ist es schwierig überhaupt noch den Überblick zu behalten.

Umso bitterer wenn eine 7970 für 1/3 des Preises am Ende gleichzieht.

Nvidia liefert am Stichtag ab, da kann man nichts gegen sagen. Daher können Sie auch teils höhere Preise verlangen. Der DX11-Overhead tut sein übriges. Aber freiwillig zum Speicherkrüppel greifen?

Daher sehe ich den Fine-Win sofern der Preis bereits zu Release passt positiv. Zumindest für mich als Endverbraucher. Ist doch nicht mein Problem wenn AMD zu doof ist bzw die Ressorucen fehlen neue Architekturen bereits zu Release bestmöglich auszuoptimieren um höhere Preise zu verlangen. Jeder versierte Hardware-Nerd weiß doch das Architekturen mehere JAHRE genutzt werden, daher die Leistung gerade bei AMD zwagsläufig noch steigt. ;)

In einem anderen Thread schrieb Jemand:"Lieber starkes Midrange, als schwaches HighEnd" Sehe ich ganz klar anders. Was soll denn da noch kommen? Und hat Nvidia mit 80% Marktanteil überhaupt interesse daran? Wenn man nicht gerade in 4k zockt: Was läuft denn mit einer 500€ karte in den ersten 1-2 Jahre schlecht? Interessant wird es doch erst am Ende des Nutzungszyklus. Wobei man bei Nvidia ja sowieso am besten jede Generation wechselt. seit GTX970 weiß man auch, dass das Nvidia ähnlich sieht. ;)

Pirx
2018-03-18, 11:48:37
Hehe... der Vergleich 4GB Kepler und 6GB Tahiti ist ziemlich passend finde ich. Beides waren eher Nebenschauplätze. Die Masse kaufte 2GB Kepler und 3GB Tahiti.
Korrekt - Schöne Geldverbrennung bei der nV-Karte mit Ansage. Aber die Leute haben es ja anscheinend.

G3cko
2018-03-18, 11:56:25
Die größte Geldverbrennung war die GTX690.

"Nvidia GeForce GTX 690 im Test: Durchweg ordentliche Multi-GPU-Karte"
https://www.computerbase.de/2012-05/test-nvidia-geforce-gtx-690/13/

Geht für 150-200€ bei Ebay weg. Eine 7970 gibts für 140€.

vinacis_vivids
2018-03-19, 12:22:22
2018: 7970/280x 3GB ~ 100€ > 1050Ti 4GB ~ 200€
https://www.techspot.com/article/1592-revisiting-radeon-r9-280x-radeon-hd-7970/

Lehdro
2018-03-19, 14:35:24
2018: 7970/280x 3GB ~ 100€ > 1050Ti 4GB ~ 200€
Hui bub. Die Preise sind aber echt Fantasie. Für ne halbwegs vernünftige gebrauchte 7970 brauchst du wohl eher > 130€ (kurzer Blick auf ebay...), eine custom 1050 Ti habe ich mir neu vor nicht mal 2 Monaten für 140,00 € gekauft - das war nichtmal die billigste und ein Angebot war es auch nicht. Und heute :eek:
Damals war die 7970 aber auch schon so teuer... +1 GB VRAM und frische Garantie bei extrem niedrigem Stromverbrauch machte damals die Wahl klar wie Kloßbrühe.

Das die Preise so durch das Mining explodieren liegt ja aber weder an AMD noch NV, von daher würde ich die jetzt nicht überbewerten :redface:

https://www.techspot.com/article/1592-revisiting-radeon-r9-280x-radeon-hd-7970/
Ich zitiere mal das Wichtige:

The R9 280X was 10% faster than the GTX 680 on average across the eight games we tested, though it has to be said that our spread of games is unintentionally kind to the red team. We recently saw that the HD 7950 struggled against the GTX 760 in titles such as Counter-Strike, Dota 2, Fortnite, Overwatch and PlayerUnknown's Battlegrounds. Had those titles been included, then the 280X and GTX 680 might have come out of this offering a similar level of performance overall, so keep that in mind.
Wie immer kommt es auf die Spieleauswahl an. Mit so altem Kram sollte aber klar sein was für eine Spieleauswahl mehr Kundschaft abdeckt, oder?
Wer die neusten Titel spielt hat idR auch neuere Hardware als die meisten Leute die CS, DotA, PUBG, Overwatch und ähnliches spielen. Wobei da eine GTX 680 und 7970 auch schon weit über das Ziel hinausschießt. :cool:

aufkrawall
2018-03-19, 14:37:23
Nicht alles in einen Topf werfen, Overwatch und insbesondere PUBG haben ganz andere Anforderungen.

Lehdro
2018-03-19, 15:10:17
Nicht alles in einen Topf werfen, Overwatch und insbesondere PUBG haben ganz andere Anforderungen.
Decken sich aber vom Kundenkreis her mit ab - bedienen also dieselbe Zielgruppe. Feierabendshooter halt.