PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon HD 7970 "GHz Edition": (P)Review-Thread


Seiten : 1 [2]

StefanV
2013-06-19, 01:54:41
Huhu. Ein paar Fragen an die Sachkundigen:

Kann mir mal bitte jemand kurz und bündig sagen ob die alten Tahiti einen voltage-lock haben und / oder auch die "neuen" (GHE). Wenn ja welche sind dennoch befreit und woran könnte man das erkennen?
Zweite Frage: welche ist die leiseste out of the box? Ich hörte von Sapphires Vapor-X 7970 GHE (http://geizhals.de/sapphire-vapor-x-radeon-hd-7970-ghz-edition-11197-12-40g-a804863.html) Bestnoten. Wie sieht das mit der Zirp-Problematik aus im allgemeinen aus?
Dritte: Welche Spiele gehen auf AMD nicht mit SSAA die jedoch bei nVidia mit SSAA arbeiten?
Vierte: Gibt es mittlerweile einen gratis-framelimiter (nein kein ENB!)?

Daaankö
1. AMD Referenz Karten eher weniger, Vendor PCBs aber schon.
Mittlerer Weile wirst aber kaum mehr AMD Referenz PCBs bekommen bzw wenn, stehts auch explizit dabei.
1b. Das kann man eigentlich nicht erkennen. Und du solltest davon ausgehen, dass es keine AMD Referenzkarten mehr gibt. Ev. noch die HIS, aber die würd ich jetzt echt nicht nehmen wollen.
2. Last oder Idle? Unter Last ist z.B. die HIS ganz nett, dafür im Idle Müll. Da ist die Gigabyte besser, dafür unter Last relativ laut. Pluspunkt für die HIS ist, dass man den Kühler recht gut modden könnte (sprich Deckel ab, Lüfter weg und gescheite drauf und du hast was nettes).
Zu der Sapphire kann ich nix sagen.

zum Zirpen: es gibt da wohl einige, die sind besonders anfällig (HIS), andere weniger (z.B. die Gigabyte mit eigenem PCB). Das doofe ist, dass das auch ein Zusammenspiel mit den einzelnen Komponenten ist. Eine HIS kann z.B. mit einem Super Flower Netzteil lauter zirpen als mit einem P8 oder einem Enermax Platimax.

HarryHirsch
2013-06-19, 02:03:13
1. AMD Referenz Karten eher weniger, Vendor PCBs aber schon.
Mittlerer Weile wirst aber kaum mehr AMD Referenz PCBs bekommen bzw wenn, stehts auch explizit dabei.
1b. Das kann man eigentlich nicht erkennen. Und du solltest davon ausgehen, dass es keine AMD Referenzkarten mehr gibt. Ev. noch die HIS, aber die würd ich jetzt echt nicht nehmen wollen.
2. Last oder Idle? Unter Last ist z.B. die HIS ganz nett, dafür im Idle Müll. Da ist die Gigabyte besser, dafür unter Last relativ laut. Pluspunkt für die HIS ist, dass man den Kühler recht gut modden könnte (sprich Deckel ab, Lüfter weg und gescheite drauf und du hast was nettes).
Zu der Sapphire kann ich nix sagen.

zum Zirpen: es gibt da wohl einige, die sind besonders anfällig (HIS), andere weniger (z.B. die Gigabyte mit eigenem PCB). Das doofe ist, dass das auch ein Zusammenspiel mit den einzelnen Komponenten ist. Eine HIS kann z.B. mit einem Super Flower Netzteil lauter zirpen als mit einem P8 oder einem Enermax Platimax.

Huu? Ist das so? Ich bin ja der Meinung das die hier (http://geizhals.de/powercolor-radeon-hd-7970-ax7970-3gbd5-2dh-a737385.html) z.B. auf jedem Fall AMD-Referenz ist.

Ups, die ist ja vergriffen.

Hübie
2013-06-19, 02:18:21
Ich meinte unter Last. Im Leerlauf bekommt man die alle leise. Ein BIOS wollte ich jetzt nicht unbedingt flashen. Also brauche ich eine mit CHiL-Chip, leiser Kühlung (Last) und keinem Zirpen.
Welche bliebe da? Hat die HIS ICEQ so einen Chip?

@ungestüm: Die is Referenzdesign aber nicht lieferbar ;) Hab auf anhieb nur zwei gefunden. übrigens: auf jeden Fall bzw. in jedem Falle ;) Der Dativ ist dem Genitiv sein Tod ;D

Knuddelbearli
2013-06-19, 04:27:34
verstehe gerade punkt 1 nicht wieso das negativ sein soll. bei NV hast du doch überall gelockte Maximalspannung, bei ungelockte AMD hast du dagegen die absolut freie wahl auch 1,6V draufzugeben wenn du es wegkühlen kannst ^^

( aber wehe ich sehe dann mal nen RMA Thread von dir ^^ )

das Problem für mich als WakÜler ist eher das es eben kaum referenzdesigns gibt, was mist ist wenn die grafikkarte kaputt geht. und da habe ich ähnlich viel glück wie du mit den Mobos

dargo
2013-06-19, 05:05:08
Dxtory ist nicht gratis und somit wieder raus. Davon wusste ich ;)

Schon klar... du brauchst aber für den Framelimiter auch keine Vollversion. ;)

boxleitnerb
2013-06-19, 09:24:26
Der Artikel wurde aktualisiert:

EA and AMD have issued a statement clarifying that while the two companies are collaborating on day-one support for Radeon products for Battlefield 4, the partnership is non-exclusive and gamers using other components will be supported.

“DICE has a partnership with AMD specifically for Battlefield 4 on PC to showcase and optimize the game for AMD hardware," an EA spokesperson said. "This does not exclude DICE from working with other partners to ensure players have a great experience across a wide set of PCs for all their titles.”

AMD's statement:

"It makes sense that game developers would focus on AMD hardware with AMD hardware being the backbone of the next console generation. At this time, though, our relationship with DICE and EA is exclusively focused on Battlefield 4 and its performance optimizations for AMD CPUs, GPUs and APUs," AMD representatives said. "Additionally, the AMD Gaming Evolved program undertakes no efforts to prevent our competition from optimizing for games before their release.”

Also viel Lärm um wenig?

fondness
2013-06-19, 09:32:58
Schade. Noch ein negativer Punkt. Okay. Radeon ist wohl raus :(

Hast du die Aussage überhaupt verstanden? Bei NV brauchst du genau so ein Profil. Faktum ist, es gibt kein DX10/11-Spiel wo bei NV AA geht und bei AMD nicht. Auch bei DX9 Spielen gibt es hier wenn überhaupt nur sehr wenige Ausnahmen. Und da deine Frage ja auf SSAA abzielte: Jedenfalls blurrt bei AMD SSAA nicht, im Gegensatz zu NV, wo dies durchaus vorkommt. Jüngste Beispiele: Diablo 3 und Anno 1404. Und es läuft out-of-the-box, ohne bit-gefrickel.

V2.0
2013-06-19, 09:49:36
Dann kauft man halt eine non-GHz mit AMD-PCB. ;)

edit:

Ja, das "Zirpen" soll extrem vom Netzteil abhängen. (Mit Seasonic hatte ich noch nie solche Probleme)

Alles ne Frage der Kombination. Leider gibt es imho keine Sicherheit das eine bestimmte Kombi aus 7970GE + Netzteil sicher nicht zirpt.

Iruwen
2013-06-19, 11:07:21
Hast du die Aussage überhaupt verstanden? Bei NV brauchst du genau so ein Profil. Faktum ist, es gibt kein DX10/11-Spiel wo bei NV AA geht und bei AMD nicht. Auch bei DX9 Spielen gibt es hier wenn überhaupt nur sehr wenige Ausnahmen. Und da deine Frage ja auf SSAA abzielte: Jedenfalls blurrt bei AMD SSAA nicht, im Gegensatz zu NV, wo dies durchaus vorkommt. Jüngste Beispiele: Diablo 3 und Anno 1404. Und es läuft out-of-the-box, ohne bit-gefrickel.
Das ist auch nur die halbe Wahrheit, siehe http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9794855#post9794855 inkl. Kommentare danach. Wäre auch der richtige Thread um das weiter zu diskutieren wenn Bedarf besteht.

aufkrawall
2013-06-19, 17:55:08
Das ist auch nur die halbe Wahrheit, siehe http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9794855#post9794855 inkl. Kommentare danach. Wäre auch der richtige Thread um das weiter zu diskutieren wenn Bedarf besteht.
Der Typ schmeißt mit bewussten Falschbehauptungen um sich, es ist echt die Härte...

fondness
2013-06-19, 18:09:17
Der Typ schmeißt mit bewussten Falschbehauptungen um sich, es ist echt die Härte...

Erzähl, wo war meine Aussage eine Falschbehauptungen? Wie üblich kommen von dir nur persönliche Beleidigungen am Fließband, aber damit machst du dich eh nur selbst lächerlich. :)

aufkrawall
2013-06-19, 18:27:09
Erzähl, wo war meine Aussage eine Falschbehauptungen? Wie üblich kommen von dir nur persönliche Beleidigungen am Fließband, aber damit machst du dich eh nur selbst lächerlich. :)
Ich hab dich schon 1000x widerlegt. Meinst du ich bin ein Clown, der das für dich zum Amüsement macht?

Hübie
2013-06-19, 19:17:49
Hast du die Aussage überhaupt verstanden? Bei NV brauchst du genau so ein Profil. Faktum ist, es gibt kein DX10/11-Spiel wo bei NV AA geht und bei AMD nicht. Auch bei DX9 Spielen gibt es hier wenn überhaupt nur sehr wenige Ausnahmen. Und da deine Frage ja auf SSAA abzielte: Jedenfalls blurrt bei AMD SSAA nicht, im Gegensatz zu NV, wo dies durchaus vorkommt. Jüngste Beispiele: Diablo 3 und Anno 1404. Und es läuft out-of-the-box, ohne bit-gefrickel.

Ähm. Ja. Ich sehe dann für mich nur keinen Vorteil zwei Radeon zu kaufen.

Ich will mehr Performance und weniger Energieverbrauch als aktuell. Zwei Radeon 7970er inkl. Peter würden mit 860 Euro (http://geizhals.de/eu/?cat=WL-329227) und zwei 770er 680 Euro zu Buche schlagen. Wenn ich auch hier den Peter dazu nehme sind es 850 Euro (http://geizhals.de/eu/?cat=WL-329228). Die Radeon haben vllt. mehr OC-Potenzial, das kann ich nicht sagen. Muss mal im Luxx schauen obs da ne Liste gibt.

Performancetechnisch sollten sich beide nicht viel nehmen.

Andere Idee: eine nVidia (für TWIMTBP-Titel) und eine AMD-Karte (für Gaming-Evolved-Titel) einbauen und mit Intels iGPU Quicksync nutzen ;D :freak:

Edit: Ach ja. Hab das Never Settle-Programm vergessen. Das gibt wieder ein Pluspunkt. Was gibts bei nVidia? Wieder so ein WoT-Müll??
Edit2: Und die Radeon hat mehr VRAM :smile:

fondness
2013-06-19, 19:36:52
Ähm. Ja. Ich sehe dann für mich nur keinen Vorteil zwei Radeon zu kaufen.

Ich will mehr Performance und weniger Energieverbrauch als aktuell. Zwei Radeon 7970er inkl. Peter würden mit 860 Euro (http://geizhals.de/eu/?cat=WL-329227) und zwei 770er 680 Euro zu Buche schlagen. Wenn ich auch hier den Peter dazu nehme sind es 850 Euro (http://geizhals.de/eu/?cat=WL-329228). Die Radeon haben vllt. mehr OC-Potenzial, das kann ich nicht sagen. Muss mal im Luxx schauen obs da ne Liste gibt.

Performancetechnisch sollten sich beide nicht viel nehmen.


Okay, das ist natürlich was anderes.


Andere Idee: eine nVidia (für TWIMTBP-Titel) und eine AMD-Karte (für Gaming-Evolved-Titel) einbauen und mit Intels iGPU Quicksync nutzen ;D :freak:


Für den einen oder zwei TWIMTBP-Titel die noch kommen pro Jahr braucht man sicher keine NV-Karten. Nv steckt die Ressourcen offenbar lieber in Tegra.


Edit: Ach ja. Hab das Never Settle-Programm vergessen. Das gibt wieder ein Pluspunkt. Was gibts bei nVidia? Wieder so ein WoT-Müll??
Edit2: Und die Radeon hat mehr VRAM :smile:

AFAIK gibt es bei den GTX7xx gar nichts, bei den GTX6xx gab es Metro.

Knuddelbearli
2013-06-19, 19:47:45
und dazu eien ps3 ps3 xbox one xbox 360 und die beiden wiis damit du ja auch alle titel hast ^^


das schlimme ist, ich kenne genug so verrückte ^^

robbitop
2013-06-20, 10:39:03
2x 7970? Macht IMO wenig Sinn - wegen Crossfire. An SLI kommt das leider nicht annähernd heran.

Butterfly
2013-06-20, 11:48:12
Ähm. Ja. Ich sehe dann für mich nur keinen Vorteil zwei Radeon zu kaufen.

Es gibt schon ein paar Vorteile (z.B. ZCP, DP Berechnungen, schärferes Bild mit SSAA)
Im Grunde kann SLI da nicht wirklich mithalten. Allerdings sind das individuelle Vor und Nachteile.
Also einfach zu sagen Multi-GPU das bringt nichts ist etwas naiv. ;D

Raff
2013-06-20, 11:55:45
Multi-GPU bringt auf jeden Fall was – eine Menge Stromverbrauch, höhere Lautstärke und 'nen Sack voller Probleme. ;D Manchmal auch Vorteile.

;)

MfG,
Raff

Hübie
2013-06-20, 12:55:04
Generell schärferes Bild bei SSAA? Bezweifel ich irgendwie, lasse mich aber mit shots eines besseren belehren ;)
Hier stehen grundsätzlich zwei Konfigurationen zur Wahl. Beide mGPU. Ich bezog mein posting auf das Gesamtpaket der zwei Radeons. Bitte nicht verwurschteln.

M4xw0lf
2013-06-20, 12:59:45
Generell schärferes Bild bei SSAA? Bezweifel ich irgendwie, lasse mich aber mit shots eines besseren belehren ;)
Hier stehen grundsätzlich zwei Konfigurationen zur Wahl. Beide mGPU. Ich bezog mein posting auf das Gesamtpaket der zwei Radeons. Bitte nicht verwurschteln.
Ohne AA-bits neigt SGSSAA bei NV eher zum blurren.

Hübie
2013-06-20, 13:02:10
Ich nutze aber AA-bits. Out-of-the-box Vergleich ist sinnfrei da ich ja konkrete Anfragen stelle ;)

Skysnake
2013-06-20, 13:07:42
Geht aber halt nicht unter DX11, und wird es hoffentlich auch nie..

boxleitnerb
2013-06-20, 13:15:59
Hoffentlich doch, du musst es ja nicht benutzen :tongue:
Auch ist es nicht per se unschärfer, das kommt stark auf das Spiel an.

Hübie
2013-06-20, 13:20:16
Geht aber halt nicht unter DX11, und wird es hoffentlich auch nie..

Also manchmal weiß ich einfach nicht was ich dir noch antworten soll :freak:
Was spielst du denn so schönes?

Mal nebenher: In welchen DX11-Games kann man denn SSAA auf AMD aktivieren welches bei nVidia nicht geht? Hab eben mal so überlegt aber mir fällt keines ein :|:confused:

Skysnake
2013-06-20, 13:22:42
Richtig, es gibt keins ;)

Die Aussage bezog sich ja auch nur auf:
Ohne AA-bits neigt SGSSAA bei NV eher zum blurren.
Und in DX11 bist du halt IMMER! ohne AA Bits unterwegs ;)

Hübie
2013-06-20, 13:38:56
Das stimmt nicht ganz. Es gibt durchaus D3D11-AA-Bits, aber es sind halt sehr wenige (~25).

Raff
2013-06-20, 13:41:19
Generell schärferes Bild bei SSAA? Bezweifel ich irgendwie, lasse mich aber mit shots eines besseren belehren ;)

PCGH 07/2013, Seite 72 ff. :cool:

MfG,
Raff

Hübie
2013-06-20, 13:46:52
Mit shots meinte ich hier eingestellte shots. Aber vielleicht kauf ich die PCGH nachher noch. =)

aufkrawall
2013-06-20, 14:27:20
Die Spiele, bei denen sich SGSSAA auf Nvidia im Vergleich zu AMD nicht sinnvoll/nur mit krassem Blur nutzen ließe, beläuft sich auf 0 (vielleicht Riddick OGL...).

Gegenteilige Behauptungen sind Fanboy-Gewäsch, da kannst du lange auf Vergleichsbilder warten.

Iruwen
2013-06-20, 14:29:00
...seit es die LOD-Anpassung gibt oder?

/e: ach ne, das betraf ja nur DX11.

boxleitnerb
2013-06-20, 14:37:23
Die Spiele, bei denen sich SGSSAA auf Nvidia im Vergleich zu AMD nicht sinnvoll/nur mit krassem Blur nutzen ließe, beläuft sich auf 0 (vielleicht Riddick OGL...).

Gegenteilige Behauptungen sind Fanboy-Gewäsch, da kannst du lange auf Vergleichsbilder warten.

Anno 1404 blurrt schon. Diablo 3 auch, da gabs bei Computerbase damals Vergleichsbilder. Ansonsten fällt mir spontan nix ein.

Knuddelbearli
2013-06-20, 14:37:25
naja dadurch das NV auch das HUD supersampelt sieht es in einigen spielen schon sehr unscharf aus, aber HUDs sind halt keine spielegrafik ^^

aufkrawall
2013-06-20, 14:43:56
...seit es die LOD-Anpassung gibt oder?

/e: ach ne, das betraf ja nur DX11.
Das betraf wegen eines Bugs auch DX9, ist aber alles gefixt.

AMDs SGSSAA hat offenbar eine Art Erkennung, wie Blur in bestimmten Fällen mit PP/HUD etc. vermieden werden kann.
Das funktioniert aber auch nicht perfekt, die Source-Engine blurt mit aufgesetztem SGSSAA auch auf AMD wie blöde mit Color Correction und Motion Blur.

Bei Anno 1404 wirds deshalb mit Post Processing halt auf AMD nicht unscharf, dafür gibts aber
1. den AA-Bug
2. schlechtere LOD-Verschiebung
3. nen größeren Performance-Hit.
Bei Nvidia stellt man einfach das imho hässliche Post Processing auf aus und fertig. Sieht genial aus.

Bei Unigine Heaven (ein Beispiel von vielen) blurt auf Nvidia übrigens nix mit DX11 & SGSSAA, auch das HUD/Schriften werden nicht unschärfer.
Kommt also auch drauf an, wie das MSAA implementiert ist.
Verallgemeinerung "NV blurt mit SGSSAA" ist kompletter Bullshit.

Ich hatte selber 7970s. Als BQ-Fetischist hätt ich die behalten, wenn einige hier Recht hätten. Hab ich aber nicht. ;)

edit: @boxleitnerb: Diablo 3 blurt zwar auf Nvidia etwas, dafür fällt auf AMD die Glättung stellenweise aus.
Ich hatte mir die Testversion vor ein paar Wochen wieder angeschaut und fand den Blur nicht so schlimm, als dass ich nicht mehr SGSSAA nutzen würde.

MartinRiggs
2013-06-20, 15:00:49
Dann müssen die von der PCGH aber krasse Fanboys sein, die haben mehr als ein Spiel gefunden.
Grade das HUD lässt AMD zum Glück aus, die NV-Karten bügeln einfach alles.

aufkrawall
2013-06-20, 15:02:35
Dann müssen die von der PCGH aber krasse Fanboys sein, die haben mehr als ein Spiel gefunden.

Welche denn?

MartinRiggs
2013-06-20, 15:05:52
RAGE, Anno 1404, Diablo und war noch irgendwas.

aufkrawall
2013-06-20, 15:09:11
Ok, hab Rage vergessen.
Der Blur ging mit Downsampling aber. Außerdem blurt das auch auf Radeons, zumindest mit 8x, weil man das LOD bei dem Spiel nicht niedriger als -1 einstellen kann.
Immer schön die Details bzw. das ganze Bild beachten. ;)

Das DS ist eh notwendig, weils in-game AA nicht bei viel Bloom greift.

Skysnake
2013-06-20, 15:29:46
Und was ist jetzt mit deiner Absolutaussage?

Anderen hier Fanboyism vorwerfen, dann aber solche Knalleraussagen rauslassen, von denen man sich in Sekundenschnell wieder verabschiedet, und relativiert...

Butterfly
2013-06-20, 15:40:27
Multi-GPU bringt auf jeden Fall was – eine Menge Stromverbrauch, höhere Lautstärke und 'nen Sack voller Probleme. ;D Manchmal auch Vorteile.

;)

MfG,
Raff
Weder noch, so lang die 2 Karte nicht genutzt wird braucht das Systen weder mehr Strom noch ist es lauter. (ZeroCorePower).
Welche Probleme meinst du denn? (z.B.)
Generell schärferes Bild bei SSAA? Bezweifel ich irgendwie, lasse mich aber mit shots eines besseren belehren ;)
Hier stehen grundsätzlich zwei Konfigurationen zur Wahl. Beide mGPU. Ich bezog mein posting auf das Gesamtpaket der zwei Radeons. Bitte nicht verwurschteln.
Also mir ist das nicht nur im Spiel aufgefallen sondern selbst auf dem Desktop ist das Bild schärfer (HD7970 vs GTX580).

Diese ganze Bit manipulation ist mir zuviel gewurschtel. Im Menü Einstellen mehr will ich nicht fummeln am System.

aufkrawall
2013-06-20, 16:07:39
Und was ist jetzt mit deiner Absolutaussage?

Anderen hier Fanboyism vorwerfen, dann aber solche Knalleraussagen rauslassen, von denen man sich in Sekundenschnell wieder verabschiedet, und relativiert...
Ich schrieb von "SGSSAA nicht sinnvoll nutzbar", wo hab ich mich davon verabschiedet?
Lies mal richtig. Bei Rage ist es mit Nvidia sinnvoll nutzbar.

Du brauchst dich jetzt auch gar nicht an den OpenGL-Schrott klammern, der ist so was von tot...

Edit:

Also mir ist das nicht nur im Spiel aufgefallen sondern selbst auf dem Desktop ist das Bild schärfer (HD7970 vs GTX580).

:facepalm:

fondness
2013-06-20, 16:35:47
Die Spiele, bei denen sich SGSSAA auf Nvidia im Vergleich zu AMD nicht sinnvoll/nur mit krassem Blur nutzen ließe, beläuft sich auf 0 (vielleicht Riddick OGL...).

Gegenteilige Behauptungen sind Fanboy-Gewäsch, da kannst du lange auf Vergleichsbilder warten.

Das ist tatsächlich eine bewusste Falschbehauptung, nur damit du auch mal den Sinn der Wortes verstehst. ;)
Wie von boxleitnerb schon angemerkt helfen zumindest in Anno 1404, Rage und Diablo 3 auch keine bits, das blurrt bei NV und zwar nicht wenig.

aufkrawall
2013-06-20, 16:40:34
Wie von boxleitnerb schon angemerkt helfen zumindest in Anno 1404 und Diablo 3 auch keine bits, das blurrt bei NV und zwar nicht wenig.
Bei Anno 1404 kann man es ohne wirklichen Verzicht leicht beheben (wann kapierst du das endlich?) und bei Diablo 3 ist AMD nicht besser, wenn man kein Aliasing ab kann gar schlechter.
Als ob du es überhaupt je einmal auf Nvidia versucht hast zu spielen, der Blinde spricht von der Farbe...

fondness
2013-06-20, 16:44:49
Bei Anno 1404 kann man es ohne wirklichen Verzicht leicht beheben (wann kapierst du das endlich?) und bei Diablo 3 ist AMD nicht besser, wenn man kein Aliasing ab kann gar schlechter.
Als ob du es überhaupt je einmal auf Nvidia versucht hast zu spielen, der Blinde spricht von der Farbe...

Wenn man Effekte abstellen muss ist das nicht "ohne Verzicht". Und ich habe Diablo 3 auch einer NV gespielt. Das SSAA dort angeblich besser glättet als bei AMD konnte ich nicht bemerken, wenn dann wirkt es höchstens besser geglättet dank des Blurfilter. Dass das ganze Bild bei NV verblurrt ist sieht ein Blinder. IMO ist das so unspielbar - da nimmt mal lieber MSAA.

aufkrawall
2013-06-20, 16:55:02
Das SSAA dort angeblich besser glättet als bei AMD konnte ich nicht bemerken, wenn dann wirkt es höchstens besser geglättet dank des Blurfilter.

Bullshit, Blur bringt in Bewegung gar nichts.


Dass das ganze Bild bei NV verblurrt ist sieht ein Blinder. IMO ist das so unspielbar - da nimmt mal lieber MSAA.
Deine Meinung.

Blaire
2013-06-20, 17:00:30
Dann müssen die von der PCGH aber krasse Fanboys sein, die haben mehr als ein Spiel gefunden.
Grade das HUD lässt AMD zum Glück aus, die NV-Karten bügeln einfach alles.

Hättest du richtig hingesehn btw. die beiliegenden Screenshots auf DVD, ist NV auch bei einigen Games schärfer. Auch hat man bei NV oft die Wahl, während man auf AMD mit schlechterer Glättung auskommen muss. Auch ist AMD garkeine echte Option, wenn man sieht wieviele Games dort mit SSAA versagen (Borderlands2, Juarez:Gunslinger , Aliens: Marines etc.) ist die Anzahl der NV-Problemfälle verschwindend gering.

MartinRiggs
2013-06-20, 20:34:31
Ich hab sie mir jetzt angeschaut, sehe da aber keine gravierenden Vorteile für NV.
Ich weiß nicht was ihr euch da immer schönredet.

Blaire
2013-06-20, 21:37:20
Ich hab sie mir jetzt angeschaut, sehe da aber keine gravierenden Vorteile für NV.
Ich weiß nicht was ihr euch da immer schönredet.

Von gravierend war ja auch nicht die Rede, aber wenn man schon penibel immer wieder auf Bildschärfe pocht, sehen wir und doch einfach mal das Beispiel: DIRT: Showdown an.
GeForce:
http://abload.de/thumb/geforce2vqc9.png (http://abload.de/image.php?img=geforce2vqc9.png)
Radeon:
http://abload.de/thumb/radeon0irue.png (http://abload.de/image.php?img=radeon0irue.png)
Extra rot markiert...
http://abload.de/thumb/markedepqm6.png (http://abload.de/image.php?img=markedepqm6.png)
Natürlich liegt das in dem Fall am LOD-Bias.

fondness
2013-06-20, 21:45:29
Wenn das ganze Bild verblurrt ist und man das anprangert dann ist das penibel, aber solche Dinge, die freilich kein Problem waren solange sie bei NV auch auftraten, sind natürlich schrecklich. ;)

Manche Leute scheinen echt dafür bezahlt zu werden irgendwas zu finden wo NV besser aussieht, und wenn es nur eine Kante in einem Spiel ist und das 10x vergrößert.
Solche Dinge fallen keinen Schwein auf, wenn hingegen das ganze Bild unscharf ist, dann fällt das auf. Ich spiele lieber, anstatt 100.000 bits durchzutestn um irgendwo die optimale Einstellung zu finden.

aufkrawall
2013-06-20, 21:52:57
Wenn das ganze Bild verblurrt ist und man das anprangert dann ist das penibel, aber solche Dinge, die freilich kein Problem waren solange sie bei NV auch auftraten, sind natürlich schrecklich. ;)
Es hat niemand gesagt, dass Nvidia zu 100% perfekt ist. Wieso tust du so?

Btw:
In meiner Steam-Favoritenliste sind nur DX9-Spiele, die allesamt auf Nvidia besser glättbar bei perfekter Schärfe sind (Borderlands 2, Dishonored, Left 4 Dead 2, Mirror's Edge, Orcs Must Die! 2, Team Fortress 2, Tropico 4). ;)

Wenn ich bedenke, wie wenig ich in Stunden im Vergleich Tomb Raider oder Metro LL gespielt habe, sind schon allein die Bits den Aufpreis für NV-Karten wert gewesen.

Blaire
2013-06-20, 21:57:23
Wenn das ganze Bild verblurrt ist und man das anprangert dann ist das penibel, aber solche Dinge, die freilich kein Problem waren solange sie bei NV auch auftraten, sind natürlich schrecklich. ;)

So schrecklich, das du immer wieder Diablo III nennen musst? :o
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9814599&postcount=293

MSAA...
http://abload.de/thumb/d3_8msaabnp0b.png (http://abload.de/image.php?img=d3_8msaabnp0b.png)

SGSSAA
http://abload.de/thumb/d3_8sg77r90.png (http://abload.de/image.php?img=d3_8sg77r90.png)
^^SGSSAA das ganze Bild voller Blur...oh ich werde Blind :tongue:

fondness
2013-06-20, 22:00:07
So schrecklich, das du immer wieder Diablo III nennen musst? :o
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9814599&postcount=293

MSAA...
http://abload.de/thumb/d3_8msaabnp0b.png (http://abload.de/image.php?img=d3_8msaabnp0b.png)

SGSSAA
http://abload.de/thumb/d3_8sg77r90.png (http://abload.de/image.php?img=d3_8sg77r90.png)
^^SGSSAA das ganze Bild voller Blur...oh ich werde Blind :tongue:

Cherry Picking. Das sieht in anderen Szenen deutlich schlimmer aus, und das weißt du auch.

Blaire
2013-06-20, 22:18:14
Cherry Picking. Das sieht in anderen Szenen deutlich schlimmer aus, und das weißt du auch.

LOL dann zeig mal, Behauptungen sollte man auch belegen können.

Hübie
2013-06-20, 22:18:56
Na dann sende du doch bitte vergleiche! Wenigstens kommen von ihm Bilder, von dir nur Worte.
Ich will halt raus finden was ich mir kaufen soll. Anno interessiert mich nicht, RAGE is so ein beschissenes Spiel das ichs nie durchgezockt hab und Diablo III zock ich nicht mit SGSSAA weils blurred.

Wie man sowas abenteuerliches Sagen kann wie: sogar der Desktop ist schärfer weiß ich nicht, aber da sitzt der Fehler wohl vor dem Bildschirm. ;D

Raff
2013-06-20, 22:24:49
Das Fazit ist doch bekannt: Mit AMD läuft SGSSAA out of the box meistens besser als bei Nvidia. Aber nur bei Nvidia hat man ordentliche Möglichkeiten, das zu ändern/verbessern – in einigen Fällen über das Niveau von AMD. Wegen dieser Geschichte muss man sich nicht schon wieder kindisch die Köpfe einschlagen.

MfG,
Raff

fondness
2013-06-20, 22:28:50
LOL dann zeig mal, Behauptungen sollte man auch belegen können.

Traurig das du auf diesem Niveau diskutieren musst. Ich weiß was ich gesehen habe. Ich habe aktuell keine NV-Karte mehr im Rechner. Es gibt auch mehr als genug Screens die dazu im Forum herum schwirren. Erster Treffer: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9566241&postcount=3630

Hübie
2013-06-20, 22:30:07
Ack. Wer mein Initialposting liest das da mehrere Punkte auf der Liste waren. Ich finds auch schon wieder albern wie wegen solcher Lappalien wild getippelt wird :rolleyes: Ich bat lediglich um ein paar Bilder.
Mit out-of-the-box bin ich selten zufrieden. Sonst könnte ich auch alles auf Playse zocken. Ich rede auch von ini-editing etc..

aufkrawall
2013-06-20, 22:31:36
So schrecklich, das du immer wieder Diablo III nennen musst? :o
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9814599&postcount=293

MSAA...
http://abload.de/thumb/d3_8msaabnp0b.png (http://abload.de/image.php?img=d3_8msaabnp0b.png)

SGSSAA
http://abload.de/thumb/d3_8sg77r90.png (http://abload.de/image.php?img=d3_8sg77r90.png)
^^SGSSAA das ganze Bild voller Blur...oh ich werde Blind :tongue:
Wahrscheinlich kaut er gedanklich immer die uralt Bilder von Computerbase durch, die SGSSAA mit irgendnem Custom Bit für MSAA verwendet hatten.
Er hat einfach überhaupt keine Ahnung. :redface:

Hübie, wenn du bei der Bildqualität keine Abstriche machen willst (anders kann man es nicht nennen), kannst du dir das Radeon-Abenteuer sparen.
Wenn du richtig Spaß haben willst, würd ich an deiner Stelle noch ein bisschen Kohle zusammenkratzen und vielleicht SLI mit zwei 780ern OC machen. Da hast du nen fetten Boost von zwei 580er kommend und die Treiber werden ja auch bald wieder besser. ;)

fondness
2013-06-20, 22:38:18
So schrecklich, das du immer wieder Diablo III nennen musst? :o
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9814599&postcount=293

MSAA...
http://abload.de/thumb/d3_8msaabnp0b.png (http://abload.de/image.php?img=d3_8msaabnp0b.png)

SGSSAA
http://abload.de/thumb/d3_8sg77r90.png (http://abload.de/image.php?img=d3_8sg77r90.png)
^^SGSSAA das ganze Bild voller Blur...oh ich werde Blind :tongue:

Wahrscheinlich kaut er gedanklich immer die uralt Bilder von Computerbase durch, die SGSSAA mit irgendnem Custom Bit für MSAA verwendet hatten.
Er hat einfach überhaupt keine Ahnung. :redface:


Schon arm wenn man bewusst die Unwahrheit behauptet nur um seine geliebte Hardware verteidigen zu können. Auf einem solchen Niveau zu diskutieren ist mir echt zu blöd.

Das hast du vor wenigen Stunden selben geschrieben:

Diablo 3 blurt zwar auf Nvidia etwas, dafür fällt auf AMD die Glättung stellenweise aus.


Und du bist nicht gerade für deine Neutralität bekannt. Aber schon klar ich habe keine Ahnung.

Und nein ich werde mir jetzt nicht extra eine neue NV-Karte kaufen nur um eure kindischen Screenshots liefern zu können.

aufkrawall
2013-06-20, 22:40:34
Ich habe nicht geschrieben, dass ich es heute oder gestern getestet hatte.
Auf den Bildern von Blaire blurt es jedenfalls nicht.

Sonst noch was?

Hübie
2013-06-20, 22:45:46
Wahrscheinlich kaut er gedanklich immer die uralt Bilder von Computerbase durch, die SGSSAA mit irgendnem Custom Bit für MSAA verwendet hatten.
Er hat einfach überhaupt keine Ahnung. :redface:

Hübie, wenn du bei der Bildqualität keine Abstriche machen willst (anders kann man es nicht nennen), kannst du dir das Radeon-Abenteuer sparen.
Wenn du richtig Spaß haben willst, würd ich an deiner Stelle noch ein bisschen Kohle zusammenkratzen und vielleicht SLI mit zwei 780ern OC machen. Da hast du nen fetten Boost von zwei 580er kommend und die Treiber werden ja auch bald wieder besser. ;)

Komisch. Genau das ist mein Gedankengang. Ich hol den Kram eh erst Ende Juli. Diesen Monat keine Kohle mehr dafür ;D (Kinderzimmer, -wagen, -wiege und Krimskrams). Ich will mich halt vorab gründlich informieren und da ich eigentlich immer ein AMD-Freund war ziehe ich die halt in Betracht. Wenn es konkrete Infos zu upcoming lineups seitens AMD gäbe würde ich warten aber so...

Raff
2013-06-20, 22:46:55
Man sagt, es kommt eine Radeon auf GTX-780-Niveau (Hawaii). Die wird aber kaum mit AA-Bits oder vollkonfigurierbarem Downsampling debütieren. X-D Auf diesen Gerüchtequatsch würde ich aber nicht viel geben. Eine GTX 780 mit vernünftigem Kühler ist derzeit das Optimum.

MfG,
Raff

Hübie
2013-06-20, 22:53:57
Na die customs kommen ja erst noch. Und aktuell passt doch nur der Peter und AC Extreme oder?
@fondness: Mach doch Radeon-Screenshots. Damit hilfst du meiner Kaufabsicht mehr.

Raff
2013-06-20, 23:00:28
Ja, die kommen noch in den Handel – hiesige Tester kennen schon mindestens vier Designs. ;)

MfG,
Raff

Blaire
2013-06-20, 23:05:11
Traurig das du auf diesem Niveau diskutieren musst. Ich weiß was ich gesehen habe. Ich habe aktuell keine NV-Karte mehr im Rechner. Es gibt auch mehr als genug Screens die dazu im Forum herum schwirren. Erster Treffer: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9566241&postcount=3630

Wenn du schon alte Quellen verlinkst, warum dann nicht meine Antwort darauf? Nur mal als Hinweis, wir sind schon einige Treiber-Versionen weiter.
Es ging mir primär darum, warum immer wieder alte Mythen verbreitet werden. Niemand behauptet das NVs SGSSAA immer perfekt sei, Schwächen sind auch vorhanden keine Frage. Fakt ist jedenfalls, das man bei NV bessere Resultate erreichen kann, da mehr Flexibilität gegeben ist.

Hübie
2013-06-20, 23:11:34
Ja, die kommen noch in den Handel – hiesige Tester kennen schon mindestens vier Designs. ;)

MfG,
Raff

:tongue: Wenn der Preis stimmt... Warum nicht? :naughty: Zwei 780 = 1100 € plus custom cooler = 180 € Autsch. Da sind die 860 € ja n Witz.

Knuddelbearli
2013-06-20, 23:16:16
Man sagt, es kommt eine Radeon auf GTX-780-Niveau (Hawaii). Die wird aber kaum mit AA-Bits oder vollkonfigurierbarem Downsampling debütieren. X-D Auf diesen Gerüchtequatsch würde ich aber nicht viel geben. Eine Titan mit vernünftigem Kühler ist derzeit das Optimum.

MfG,
Raff


mal ausgebessert ^^

Raff
2013-06-20, 23:18:07
Nee, weil scheißteuer.

MfG,
Raff

Hübie
2013-06-20, 23:21:13
Optimum bedeutet ja der sweet spot aus Preis, Leistung, Funktionsumfang, Verbrauch und Lautstärke. Da fällt Titan automatisch raus.

Skysnake
2013-06-21, 00:20:30
[/QUOTE]
Es hat niemand gesagt, dass Nvidia zu 100% perfekt ist. Wieso tust du so?

Schlechtes Kurzzeitgedächtnis?

Zumindest im Vergleich zu AMD hast du das ja so hier erklärt
Die Spiele, bei denen sich SGSSAA auf Nvidia im Vergleich zu AMD nicht sinnvoll/nur mit krassem Blur nutzen ließe, beläuft sich auf 0 (vielleicht Riddick OGL...).

Inzwischen musstest du ja zumindest teilweise zurückrudern.

Von gravierend war ja auch nicht die Rede, aber wenn man schon penibel immer wieder auf Bildschärfe pocht, sehen wir und doch einfach mal das Beispiel: DIRT: Showdown an.
GeForce:
http://abload.de/thumb/geforce2vqc9.png (http://abload.de/image.php?img=geforce2vqc9.png)
Radeon:
http://abload.de/thumb/radeon0irue.png (http://abload.de/image.php?img=radeon0irue.png)
Extra rot markiert...
http://abload.de/thumb/markedepqm6.png (http://abload.de/image.php?img=markedepqm6.png)
Natürlich liegt das in dem Fall am LOD-Bias.
Also das grenzt ja schon an Hyperchondrie....

Also wer da meint einen signifikanten Unterschied zu sehen, der tut mir leid...

Sorry, aber derart MARGINALSTE! Renderingunterschiede aufplustern ist total hämmert, VOR ALLEM! wenn man sich dann auch noch ne Situation mit leicht unterschiedlichen Perspektiven raus sucht, wo ne Linie um 4!, in Worten um VIER Pixel schief ist, der Unterschied aus der Perspektive aber 2!, in Worten ZWEI Pixel unterschiedlich ist, und daher einmal ein eher Gaußförmige Intensitätsverteilung raus kommt, und das andere mal eine leicht links/rechts schiefe Gaußverteilung...

Und wir reden da von einer Verschiebung der Intensität von vielleicht einem Pixel...

Sorry, aber das ist total fürn Arsch, auf DIESER! Ebene einen Vergleich anstellen zu wollen, wenn die Perspektive so stark abweicht...

Sorry, aber wenn du auf Basis von einzelnen Pixeln, bzw sogar nur von Intensitätsunterschieden innerhalb eines Pixels diskutieren willst, dann mach bitte Bilder mit pixelgenauer Perspektive UND! absolut gleicher Beleuchtung.

Aus den Bildern hier irgend einen Vor-/Nachteil heraus lesen zu wollen ist einfach lächerlich/unseriös.

So schrecklich, das du immer wieder Diablo III nennen musst? :o
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9814599&postcount=293

MSAA...
http://abload.de/thumb/d3_8msaabnp0b.png (http://abload.de/image.php?img=d3_8msaabnp0b.png)

SGSSAA
http://abload.de/thumb/d3_8sg77r90.png (http://abload.de/image.php?img=d3_8sg77r90.png)
^^SGSSAA das ganze Bild voller Blur...oh ich werde Blind :tongue:
Ich würde es nicht mal zwigend "Blur" nennen. Es sieht halt eher so aus, als ob der Grau/Weißwert überhöht wird.

Das ist mir aber schon seit langem immer und immer wieder aufgefallen. Bei nVidia sind die Farbwerte leicht anders. Meiner subjektiven Wahrnehmung immer etwas ins Weiße/hellere verschoben. Keine Ahnung woran das liegt. Eventuell rundet man schlicht anders als AMD. Also z.B. immer auf, oder immer ab, und der andere eben genau umgekehrt.

Das Fazit ist doch bekannt: Mit AMD läuft SGSSAA out of the box meistens besser als bei Nvidia. Aber nur bei Nvidia hat man ordentliche Möglichkeiten, das zu ändern/verbessern – in einigen Fällen über das Niveau von AMD. Wegen dieser Geschichte muss man sich nicht schon wieder kindisch die Köpfe einschlagen.

MfG,
Raff
Ich versteh auch nicht, wie man sich an so was die Köpfe einschlagen kann. -.-

Hübie
2013-06-21, 00:29:05
Also auf den Bildern muss ich ohne Brille schon echt nah herangehen ums zu sehen. Aber in Bewegung mag das deutlicher sein. Als schlecht würde ich beide screens keineswegs bezeichnen.

Skysnake
2013-06-21, 00:35:19
Doch, die sind absolut grottig, weil leicht unterschiedliche Perspektive, und damit ne absolute Nullaussage.

Die Unterschiede sind einfach VIEL zu marginal, als das man den Perspektivenunterschied hier vernachlässigen könnte.

Hübie
2013-06-21, 00:36:47
Ich meinte auf die Glättung bezogen ;)

Ronny145
2013-06-21, 01:16:33
Die Unterschiede sind für ein geübtes Auge deutlich zu erkennen. AMD blurrt auf dem Asphalt. Ein weiterer Vorteil von Nvidia ist die Möglichkeit der manuellen Lod Verschiebung unter dx11. Gleichzeitig hat Nvidia das Problem mit dem negativen lod unter dx10+ behoben. Bei AMD ist das noch kaputt. Beides kann unter dx10+ zum Nachteil führen, weil SGSSAA selten komplett greift in den oft anzutreffenden Spielen mit MSAA unfreundlicher Engine. Falls überhaupt MSAA unterstützt wird. Da wäre wir beim nächsten Punkt. Treiber Downsampling ist sehr Auflösungslimitiert auf einer AMD Karte.

Schaffe89
2013-06-21, 08:44:16
Wie ist das mit sehr Auflösungslimitiert zu verstehen?

Skysnake
2013-06-21, 08:45:05
Rony, was blurt denn bitte rechts beim Asphalt????

Dir ist hoffentlich schon aufgefallen, dass das eine andere Perspektive ist, und auch das Licht nochmals anders steht, und damit einfach andere Reflexionen des Asphalts vorhanden sind...

Nochmal, wenn ihr wirklich bei derart komplexen Szenen mit Lichteffekten bis zum erbrechen genaue Vergleiche im Pixel/Subpixelbereich machen wollt, dann braucht ihr auch 100% identisches Ausgangsmaterial. Alles andere ist fürn Arsch...

Bei Spiegelungen usw berücksichtigst du ja immer! Winkel. Klar dass das Ergebnis nicht 100% identisch ist....

Aber selbst dann hast du noch kleinste Unterschiede. Ich sag nur OpenGL Dif-Bild bei Cinebench. Da weicht das Ergebnis auch immer! etwas vom Ergebnis der CPU ab. Die GPUs haben halt andere Rundungsmodi aktiviert, bzw gar nicht die gleichen Verfügbar wie die CPU....

Und jetzt hab vielleicht mal noch nen paar "Verbesserungen" drin wie reduzierte Genauigkeit über Treiber"tweaks".

Ist jetzt etwa das Bild JEDER! GPU unbrauchbar, weil es von dem einer CPU abweicht?

Sorry, aber die Diskussion empfinde ich als Hahnebüchen. Man sucht Krampfhaft nach einer Unterscheidung...

Hübie
2013-06-21, 08:56:32
Die Unterschiede sind für ein geübtes Auge deutlich zu erkennen. AMD blurrt auf dem Asphalt.

Findest du nicht, dass du etwas übertreibst? Also sorry, aber ich musste den screenshot zwei-, dreimal betrachten. In Bewegung ist das eh noch mal ein anderer Schnack.

Ich bin hier raus. Radeon kommt mal wieder nicht in Frage. :rolleyes:

M4xw0lf
2013-06-21, 09:23:29
Wie ist das mit sehr Auflösungslimitiert zu verstehen?
Nichts über ~2720*1530, das ist schon recht begrenzt.

Kriton
2013-06-21, 10:56:41
Optimum bedeutet ja der sweet spot aus Preis, Leistung, Funktionsumfang, Verbrauch und Lautstärke. Da fällt Titan automatisch raus.

Dann muss man aber vielleicht doch eher wieder Richtung AMD schauen. Kreuzigt mich, aber bei den Bildern von DIRT glaube ich im linken rot umrandeten Feld ein wenig besseres AA zu sehen - aber auch nur wenn ich mich stark konzentriere und weil ich etwas zu sehen erwarte. Rechts kein Unterschied.
Und AMD ist bei gleicher Leistung grundsätzlich billiger als Nvidia.
In Anbetracht der neuen Konsolen weiß ich auch nicht, ob DX 11.1 nicht auch ein Argument ist - das ist ja von daher eine deutlich andere Situation als DX 10.1.

Kriton
2013-06-21, 10:59:36
Das ist mir aber schon seit langem immer und immer wieder aufgefallen. Bei nVidia sind die Farbwerte leicht anders. Meiner subjektiven Wahrnehmung immer etwas ins Weiße/hellere verschoben. Keine Ahnung woran das liegt. Eventuell rundet man schlicht anders als AMD. Also z.B. immer auf, oder immer ab, und der andere eben genau umgekehrt.
[/QUOTE]

Die unterschiedliche Farbgebung fällt mir auch immer wieder auf (meiner Frau habe ich eine 460 verbaut, ich habe noch die 4850). Auch kommt mir AMD (out of the box) schärfer vor, ohne dass ich sagen könnte woran das eigentlich liegt (und ohne, dass ich Nvidia als unscharf bezeichnen würde - im direkten Vergleich wird es mir erst offenbar).

Iruwen
2013-06-21, 11:32:22
AMD ist bei gleicher Leistung grundsätzlich billiger als Nvidia

http://geizhals.at/de/?cat=gra16_512&xf=132_1024~1440_HD+7970+GHz+Edition#xf_top
http://geizhals.at/de/?cat=gra16_512&xf=132_1024~1439_GTX+770#xf_top
O rly? :rolleyes:

boxleitnerb
2013-06-21, 11:42:03
Seien wir mal fair - diese Situation mit der 770 gibt es erst seit kurzem. Die Aussage von Kriton stimmt schon, wenn man einen längeren Zeitraum betrachtet. Ausnahmen bei einzelnen Modellen natürlich inbegriffen.

Mr. Lolman
2013-06-21, 11:44:21
Natürlich liegt das in dem Fall am LOD-Bias.

Nö, aber am brilinearen Filter.

Iruwen
2013-06-21, 12:13:49
Seien wir mal fair - diese Situation mit der 770 gibt es erst seit kurzem. Die Aussage von Kriton stimmt schon, wenn man einen längeren Zeitraum betrachtet. Ausnahmen bei einzelnen Modellen natürlich inbegriffen.
Jop, aber nicht wenn man das Wort "grundsätzlich" verwendet. Außerdem ist "Leistung" natürlich arg relativ - ich zähl da auch Features zu. Nur weil meine Karre 300PS hat ist sie noch kein Supersportwagen.

Knuddelbearli
2013-06-21, 12:47:16
nimm statt der GHz eine normale 7970 und die Welt sieht wieder ganz anders aus ^^ AMD betreibt ja eh kein binning 7970 lässt sich gleich hoch ocen wie eine GHz.

Leider gibts aber auch für die normale 7970 kaum noch referenzkarten fällt bei mir deshalb wegen wakü flach :-/

Iruwen
2013-06-21, 12:53:12
"Normale" 7970er fangen auch erst bei 320€ an.

Knuddelbearli
2013-06-21, 13:09:12
20€ sind 1 mal nett Kino gehen mit der Freundin :P
und eben günstiger als 770

Schaffe89
2013-06-21, 13:18:03
Nichts über ~2720*1530, das ist schon recht begrenzt.


Bei Nvidia sind auch "nur" in den meisten Fällen bei einem Full HD Bildschirm 2.880 x 1.800 möglich, teils auch nur 2.880 x 1.620, bei AMD 2.720 x 1.700 16:10 respektive 16:9 bei 2.720 x 1.530.

In wenigen Fällen funktionieren auch 2.880 x 1.620, oder 3.840 x 2.400 Pixels.

Hier von "sehr" Auflösungslimitiert zu sprechen, halte ich für komplett überzogen.

Die Unterschiede sind für ein geübtes Auge deutlich zu erkennen. AMD blurrt auf dem Asphalt.

Für dich sind nehme ich mal an immer bei AMD Karten irgendwelche Probleme zu sehen, wie unwichtig sie sind ist egal, hauptsache es mit deutlichen Wörtern wie "sehr" und "deutlich" untermalen.

Die Aussage von Kriton stimmt schon, wenn man einen längeren Zeitraum betrachtet.

Eigentlich trifft das pauschale AMD ist günstiger Gelaber nur auf HD 7970 ghzs vs GTX 680 zu, bzw traf zu, sonst kosteten sämtliche Karten vergleichbar viel, ich hab bis heute nicht begriffen, warum gewisse Leute nicht in der Lage sind eine Preisvergleichmaschine zu bedienen, weder hatte die GTX 660 ein schlechteres P/L als die HD 7870 und weder die GTX 660 Ti ein schlechteres P/L als die HD 7950 und das zu keiner Zeit, lediglich bei Release waren die Nvidia Preise höher.

Die HD 7970 hatte es sogar relativ schwer gegen die GTX 670 was P/L anbetrifft,beide kosteten gleichviel und leisteten auch etwa gleichviel, seit langer Zeit sind GTX 670 Karten aber nen Ticken günstiger.

Ronny145
2013-06-21, 13:19:37
Wie ist das mit sehr Auflösungslimitiert zu verstehen?


Geht nur bis 27xx.


Rony, was blurt denn bitte rechts beim Asphalt????


Nicht nur rechts. Der ganze Apshalt in mittelnaher Entfernung ist unschärfer. Einfach zu erkennen.

boxleitnerb
2013-06-21, 13:38:47
DS geht bei Nvidia bei 16:9 eigentlich immer bis 3840x2160. 16:10 ist problematischer, ja.
Vor allem ist es bei Nvidia wirklich einfach. Keine Treiberbeschränkung (mehr), also damit meine ich die Hürden bei neueren Catalysts, und auch keine "Basisauflösung", die man erst einstellen muss.

Blaire
2013-06-21, 13:42:49
Nö, aber am brilinearen Filter.

Für so klug halt ich Raff schon, daß er beide Karten mit Driver-HQ getestet hat. Spielt allerdings für meine Aussage keinerlei Rolle.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9814622&postcount=295

ndrs
2013-06-21, 14:30:01
Jop, aber nicht wenn man das Wort "grundsätzlich" verwendet.
*klugcheiß* grundsätzlich != ausnahmslos :D

kruemelmonster
2013-06-21, 14:38:36
DS geht bei Nvidia bei 16:9 eigentlich immer bis 3840x2160. 16:10 ist problematischer, ja.

...aber auch noch weit von dramatisch entfernt, mein 19x12 24" Eizo lässt sich noch zu 3200x2000 @ 60 Hz überreden. 3840x2400 wär gerade für GTA4 und Shift2 schon nice gewesen, aber die 670er ist auch so schon gut am keulen bei der Auflösung. :freak:
Ein Kumpel kann auf seinem 16x10 22" Dell ohne jegliche Anpassungen im Treiber 3360x2100 mit einer GTX 470 fahren, auf meinem Zweitrechner mit HD 6770 dagegen ist DS seit dem 12.11 Geschichte. Hab aber die letzten Wochen/Monate auch nicht mehr geschaut ob sich da was getan hat. Aber allein die Tatsache, dass ich für das 3rd Party DS Tool Java installieren muss, lässt mich die NV-Lösung favorisieren.

Raff
2013-06-21, 17:42:00
Ist leider nach wie vor nötig.

MfG,
Raff

Gipsel
2013-06-21, 18:44:36
Von gravierend war ja auch nicht die Rede, aber wenn man schon penibel immer wieder auf Bildschärfe pocht, sehen wir und doch einfach mal das Beispiel: DIRT: Showdown an.
GeForce:
http://abload.de/thumb/geforce2vqc9.png (http://abload.de/image.php?img=geforce2vqc9.png)
Radeon:
http://abload.de/thumb/radeon0irue.png (http://abload.de/image.php?img=radeon0irue.png)
Extra rot markiert...
http://abload.de/thumb/markedepqm6.png (http://abload.de/image.php?img=markedepqm6.png)
Natürlich liegt das in dem Fall am LOD-Bias.
Um mal Skysnake hier zuzustimmen, also wenn wir schon an solchen Shots die BQ vergleichen, dann sehe ich in dem rechts rot markierten Bereich aber klares Banding des Texturfilter bei nV. Ist ja wohl ein vollkommender Fail! :rolleyes: ;)

aufkrawall
2013-06-21, 19:32:08
Um mal Skysnake hier zuzustimmen, also wenn wir schon an solchen Shots die BQ vergleichen, dann sehe ich in dem rechts rot markierten Bereich aber klares Banding des Texturfilter bei nV. Ist ja wohl ein vollkommender Fail! :rolleyes: ;)
Jeder hat halt seine Lieblingsbeispiele.
Bei BF3 oder Just Cause 2 fällt die bessere LOD-Verschiebung von NV jedenfalls deutlich positiv auf und die Anpassbarkeit derer auch.

@Skysnake: Ich musste von gar nichts zurücktreten.
Rage läuft auf NV mit sehr guter BQ (SGSSAA + DS). Wo ist da AMD besser, wo DS dort doch so ein Krampf geworden ist?
Bin ja kein Freund von DS, in dem Fall ist es aber als Zusatz sinnvoll. Rage ist ja schließlich nicht für Flimmertexturen bekannt.

Unterm Strich hat man mit NV einfach öfter die bessere BQ, wenn man vielleicht selber mal ein bisschen Hand anlegt (für den Enthusiasten ja kein Problem).

Man kann mir ja mal ne 7750 spenden, dann mach ich (gewünschte) Vergleiche. ;)

Blaire
2013-06-21, 19:37:11
Um mal Skysnake hier zuzustimmen, also wenn wir schon an solchen Shots die BQ vergleichen, dann sehe ich in dem rechts rot markierten Bereich aber klares Banding des Texturfilter bei nV. Ist ja wohl ein vollkommender Fail! :rolleyes: ;)

Davon abgesehn das dieses Banding ganz andere Ursachen hat, hast du nicht verstanden worum es mir ging. Deine Kameraden sich doch stets immer auf Bildschärfe berufen.

Jeder hat halt seine Lieblingsbeispiele.
Bei BF3 oder Just Cause 2 fällt die bessere LOD-Verschiebung von NV jedenfalls deutlich positiv auf und die Anpassbarkeit derer auch.

Dirt Showdown ist ein wunderbares Beispiel, wo sich die LOD-Verschiebung nicht so gut eignet, hinzu kommt bilineare Shadow Maps, was man leider recht deutlich an den Banden erkennen kann.

Mr. Lolman
2013-06-21, 20:17:25
Aber allein die Tatsache, dass ich für das 3rd Party DS Tool Java installieren muss, lässt mich die NV-Lösung favorisieren.

Musst ja nicht. Geht auch alles per Commandline. Und zwar schon viel länger, als es das Tool gibt.

[...] und die Anpassbarkeit derer auch.


Äh, man kann das LOD auch bei AMD anpassen!? Ganzzahlig schon ewig, und feingranularer seit der Treiber SGSSAA + automatische LOD-Verschiebung anbietet...

aufkrawall
2013-06-21, 20:29:05
Äh, man kann das LOD auch bei AMD anpassen!? Ganzzahlig schon ewig, und feingranularer seit der Treiber SGSSAA + automatische LOD-Verschiebung anbietet...
Nein, bei DX11 kann man es nicht anpassen.

Mr. Lolman
2013-06-22, 00:17:43
...und bei NV geht das?

Hübie
2013-06-22, 01:00:10
Ja. In allen D3D-Versionen.

boxleitnerb
2013-06-22, 06:28:08
Ich glaub da hat einer die erfolgreiche Petition nicht mitgekriegt ;)

Raff
2013-06-22, 10:50:42
Fehlen nur noch die DX11-AA-Bits. ;)

Zum eigentlichen Thema "HD 7970 GHz Edition": Ich sehe mittlerweile ein anderes Problem, das anscheinend bei der Masse noch nicht durchgedrungen ist. Mit der GTX 770 kamen zahlreiche leckere (schnelle/leise) Designs zum Vorschein. Eine GTX 770 OC ist in den meisten Fällen etwas (unfühlbar) schneller als eine GHz Edition OC und dabei im Mittel auch etwas sparsamer. Was aber den Ausschlag gibt, ist, dass die AMD-Partner es in dieser Leistungsklasse einfach nicht draufhaben, wirklich leise Kühldesigns zu zimmern – bei der GTX 770 und GTX 780 klappt das kurioserweise.

MfG,
Raff

Odal
2013-06-22, 10:52:23
Die HD 7970 hatte es sogar relativ schwer gegen die GTX 670 was P/L anbetrifft,beide kosteten gleichviel und leisteten auch etwa gleichviel, seit langer Zeit sind GTX 670 Karten aber nen Ticken günstiger.

Eigentlich nicht, denn die GTX670 ist so ziemlich genau auf 7950 level welche hier auch preislich attraktiver liegt

aufkrawall
2013-06-22, 11:05:34
Eigentlich nicht, denn die GTX670 ist so ziemlich genau auf 7950 level welche hier auch preislich attraktiver liegt
Ne, die 670 ist eher auf 7970 (non Ghz) Level.
Zumindest kaum teurere Custom Designs, die nicht arg durchs Powertarget gebremst werden.

Odal
2013-06-22, 11:26:53
gut da scheint wohl jeder was anderes zu messen

ich bezog mich hier drauf

http://ht4u.net/reviews/2013/nvidia_geforce_gtx_770_grafikkarte_test/index44.php

aufkrawall
2013-06-22, 11:34:37
Es läuft eigentlich keine 670 mit 980 Mhz, außer halt sie wird durchs PT stellenweise gebremst.

Odal
2013-06-22, 11:48:20
Es läuft eigentlich keine 670 mit 980 Mhz, außer halt sie wird durchs PT stellenweise gebremst.

nagut es läuft eigentlich auch keine 7950 mit 800Mhz (wenn man denn weiß was man tut) nur das man da manuell boosten muss ;)

Raff
2013-06-22, 11:52:20
Es ist und bleibt Haarspalterei. ;)

Etwas Feuer: Die GTX 670 sehe ich bis Full-HD auf HD 7970-Niveau, ab 1440p aber längst nicht mehr. Spätestens dann ist die HD 7970 auf GTX-680-Niveau. Basis: PCGH-Leistungsindex. Deckt sich ganz gut mit HT4U, wobei letztere die Radeon-Chips noch etwas weiter vorn sieht.

MfG,
Raff

Blaire
2013-06-22, 12:01:41
Es ist und bleibt Haarspalterei. ;)

Wo wir gerade dabei sind, kann es sein das bei deinen SSAA-Vergleichscreens aus DIRT: Showdown (letzte DVD-Ausgabe PCGH) kein Treiber-High Quality aktiv war? Sieht mir fast so aus.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9815069&postcount=297

Hübie
2013-06-22, 12:09:53
Fehlen nur noch die DX11-AA-Bits. ;)

Zum eigentlichen Thema "HD 7970 GHz Edition": Ich sehe mittlerweile ein anderes Problem, das anscheinend bei der Masse noch nicht durchgedrungen ist. Mit der GTX 770 kamen zahlreiche leckere (schnelle/leise) Designs zum Vorschein. Eine GTX 770 OC ist in den meisten Fällen etwas (unfühlbar) schneller als eine GHz Edition OC und dabei im Mittel auch etwas sparsamer. Was aber den Ausschlag gibt, ist, dass die AMD-Partner es in dieser Leistungsklasse einfach nicht draufhaben, wirklich leise Kühldesigns zu zimmern – bei der GTX 770 und GTX 780 klappt das kurioserweise.

MfG,
Raff

Dem kann ich nichts hinzufügen. Ich habe die letzten Tage eingehend Reviews "studiert" und auch Forenberichte abgegrast. Dabei blieb hängen: Zotacs und Palits 770 = leiser als Referenz, Rest lauter bzw. gleich auf, bei attraktivem Preis, 7970-Serie immer "lauter", leistungshungriger und Wärmer als Konkurrenz, aber dafür fast gleich schnell, mit gleichem Preis sowie dem Spielebundle.

Kurios ist es eigentlich nicht wenn man mal die die-area gegenüber stellt und dann auch noch caches mit einfliessen lässt (welche ja auch relativ viel Energie umwandeln). Man könnte AMD-Karten manuell sicher auch leiser bekommen, aber dann halt auf Kosten der Abwärme.

Raff
2013-06-22, 12:12:49
Wo wir gerade dabei sind, kann es sein das bei deinen SSAA-Vergleichscreens aus DIRT: Showdown (letzte DVD-Ausgabe PCGH) kein Treiber-High Quality aktiv war? Sieht mir fast so aus.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9815069&postcount=297

PCGH stellt die Treiber seit dem HD-7970-Launch konsequent auf HQ. Wenn da etwas nicht übernommen wurde oder komisch aussieht, muss das andere Ursachen haben. Die noch jungen 320er-Treiber scheinen ja mitunter zu spinnen.

Dem kann ich nichts hinzufügen. Ich habe die letzten Tage eingehend Reviews "studiert" und auch Forenberichte abgegrast. Dabei blieb hängen: Zotacs und Palits 770 = leiser als Referenz, Rest lauter bzw. gleich auf, bei attraktivem Preis, 7970-Serie immer "lauter", leistungshungriger und Wärmer als Konkurrenz, aber dafür fast gleich schnell, mit gleichem Preis sowie dem Spielebundle.

Kurios ist es eigentlich nicht wenn man mal die die-area gegenüber stellt und dann auch noch caches mit einfliessen lässt (welche ja auch relativ viel Energie umwandeln). Man könnte AMD-Karten manuell sicher auch leiser bekommen, aber dann halt auf Kosten der Abwärme.

Ich hätte andere Silent-Tipps (MSI zum Beispiel), aber ja, die Custom-Designs sind fast alle leiser als die (gute) Referenz. Die meisten HD-7970-Karten kommen an das Geräuschniveau nicht heran.

MfG,
Raff

Hübie
2013-06-22, 12:18:56
Meinst du die Lightning oder die TwinFrozr? :confused:

Edit: Ah die haben nur 2GB daher sind die durch mein Suchraster gerasselt ;) Von 1,5 auf 2 GB halte ich angesichts des Preises und der Zukunftsprognose für wenig sinnvoll in meinem Falle.

Raff
2013-06-22, 12:20:38
Beide. ;) Die Twin Frozr Gaming ist auch dank der recht geringen werkseitigen Übertaktung aber leiser.

MfG,
Raff

Hübie
2013-06-22, 12:21:05
Siehe Edit oben.

Raff
2013-06-22, 12:24:41
Verstehe. Na dann Zotac oder Palit – letztere bietet die besseren Temperaturen, ist aber 2,5 Slots breit.

MfG,
Raff

PS: Wir sind offtopic. :D

Hübie
2013-06-22, 12:28:03
2,5 Slots ginge. Der zweite x16 ist 3 entfernt:
http://www.gigabyte.com/fileupload/product/2/3910/4484.jpg

Edit: Uuuuups =)

Butterfly
2013-06-23, 11:34:19
Na dann sende du doch bitte vergleiche! Wenigstens kommen von ihm Bilder, von dir nur Worte.
Ich will halt raus finden was ich mir kaufen soll. Anno interessiert mich nicht, RAGE is so ein beschissenes Spiel das ichs nie durchgezockt hab und Diablo III zock ich nicht mit SGSSAA weils blurred.

Wie man sowas abenteuerliches Sagen kann wie: sogar der Desktop ist schärfer weiß ich nicht, aber da sitzt der Fehler wohl vor dem Bildschirm. ;D
Das ist mir aber schon seit langem immer und immer wieder aufgefallen. Bei nVidia sind die Farbwerte leicht anders. Meiner subjektiven Wahrnehmung immer etwas ins Weiße/hellere verschoben. Keine Ahnung woran das liegt. Eventuell rundet man schlicht anders als AMD. Also z.B. immer auf, oder immer ab, und der andere eben genau umgekehrt.
/QUOTE]
Die unterschiedliche Farbgebung fällt mir auch immer wieder auf (meiner Frau habe ich eine 460 verbaut, ich habe noch die 4850). Auch kommt mir AMD (out of the box) schärfer vor, ohne dass ich sagen könnte woran das eigentlich liegt (und ohne, dass ich Nvidia als unscharf bezeichnen würde - im direkten Vergleich wird es mir erst offenbar).
Wie 90% aller PC Probleme. :D
Ich bin ja scheinbar nicht allein, dem etwas aufgefallen ist im direkten Vergleich.
Der Monitor und das Kable waren zumindest die selben, sogar das System an sich war identisch nur die Karten getauscht.

Hier mal DS mit Crysis 3:
http://abload.de/thumb/crysis3_2013_03_03_00qykc9.jpg (http://abload.de/image.php?img=crysis3_2013_03_03_00qykc9.jpg) http://abload.de/thumb/crysis3_2013_03_03_005qkok.jpg (http://abload.de/image.php?img=crysis3_2013_03_03_005qkok.jpg) http://abload.de/thumb/crysis3_2013_03_03_00qnk9f.jpg (http://abload.de/image.php?img=crysis3_2013_03_03_00qnk9f.jpg) http://abload.de/thumb/crysis3_2013_03_03_0088ksq.jpg (http://abload.de/image.php?img=crysis3_2013_03_03_0088ksq.jpg) http://abload.de/thumb/crysis3_2013_03_03_00s0jxu.jpg (http://abload.de/image.php?img=crysis3_2013_03_03_00s0jxu.jpg) http://abload.de/thumb/crysis3_2013_03_03_0064jd5.jpg (http://abload.de/image.php?img=crysis3_2013_03_03_0064jd5.jpg) http://abload.de/thumb/crysis3_2013_03_03_00bjkjt.jpg (http://abload.de/image.php?img=crysis3_2013_03_03_00bjkjt.jpg) http://abload.de/thumb/crysis3_2013_03_03_00n2ksd.jpg (http://abload.de/image.php?img=crysis3_2013_03_03_00n2ksd.jpg)

Interessant für Ego-shooter ist MLAA, das blurt bei Schrift zwar etwas, kommt SSAA relativ nahe aber braucht nicht soviel Ressourcen, sprich die FPS brechen nicht so stark ein.
Hier gibt es ein guten Artikel über die Filter Methoden von nv und AMD: http://www.tomshardware.com/reviews/anti-aliasing-nvidia-geforce-amd-radeon,2868.html

MfG

Raff
2013-06-23, 11:55:18
MLAA mag optional und vor allem für Screenshots ein nettes Gimmick sein, aber an SSAA kommt es nicht im Ansatz heran. Die währe Qualität eines Anti-Aliasing-Verfahrens zeigt sich in Bewegung, denn hier gilt es zeitliches Aliasing zu bekämpfen. Hier bringen MLAA und FXAA fast nichts und SMAA wenig.

MLAA/FXAA + Downsampling (also OGSSAA) kann tatsächlich hübsch sein.

MfG,
Raff

robbitop
2013-06-23, 13:42:45
Wen wundert es? MLAA und FXAA sind halt keine AAs. Sondern nur Filter, die Kontraste zermatschen, aber keine Ahnung haben, was wirklich geometrisch hinter dem zu verwischenden Bild passiert. Das Bild wird verwischt - aber nicht ge-AAt.

Knuddelbearli
2013-07-20, 00:34:48
http://geizhals.de/xfx-radeon-hd-7970-ghz-edition-fx-797g-tdfc-a827777.html

7970 GHz 302€

Weiss einer ob die massiv zum fiepen neigt? glaube die kauf ich sonst ^^ kommt aber natürlich unter Wasser

Hübie
2013-07-20, 08:20:46
Ich seh da 352 € lieferbar. :|
XFX hat eigene Board-Designs und ist eigentlich nicht für Billigkram bekannt. Also sollte die erst in hohen fps-Bereichen fiepen (wenn überhaupt).

Edit: 342 € nicht lieferbar.

HarryHirsch
2013-07-20, 08:28:25
Hier 342€. :freak:

Die Double Dissipation Edition hatte nur am Anfang das AMD Design, später wurde das geändert. Nur als Anmerkung wegen dem Wakühler. ;)

Hübie
2013-07-20, 08:46:35
Oh mein Fehler. 342 nicht lieferbar und 359 lieferbar.

Skysnake
2013-07-20, 10:12:15
http://geizhals.de/xfx-radeon-hd-7970-ghz-edition-fx-797g-tdfc-a827777.html

7970 GHz 302€

Weiss einer ob die massiv zum fiepen neigt? glaube die kauf ich sonst ^^ kommt aber natürlich unter Wasser
Die XFX neigt kaum zum fiepen. Wenn sind es schon dreistellige FPS, also Richtung 200FPS.

Am Kühler haben Sie angeblich auch mal was gemacht, die Spannungswandler sollen dadurch wohl etwas kühler bleiben. Genaues kann ich dazu aber nicht sagen, da ich das nicht nachprüfen kann

Knuddelbearli
2013-07-20, 11:20:53
Ich seh da 352 € lieferbar. :|
XFX hat eigene Board-Designs und ist eigentlich nicht für Billigkram bekannt. Also sollte die erst in hohen fps-Bereichen fiepen (wenn überhaupt).

Edit: 342 € nicht lieferbar.

wenn ich 302€ schreibe war sie da für 302€ drinn siehe Verlauf :deal:

Hübie
2013-07-20, 12:03:40
Ja im Verlauf ist nur ein kurzer Einbruch zu sehen. Hast du die denn bestellt?

Knuddelbearli
2013-07-20, 13:34:29
nope da die nicht nach AT liefern ^^