PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Single-GPU-Krone 2012


Spasstiger
2011-12-13, 14:55:11
Was denkt ihr, wer sich in 2012 länger mit dem schnellsten Grafikchip rühmen darf ausgehend von Performanceratings in den üblichen Reviews? Es zählt die jeweils schnellste Single-GPU-Grafikkarte, SLI- und Crossfire-Lösungen bleiben außen vor.

Im Moment hält ja unbestritten Nvidia die Krone, aber schon im Januar wird sich AMD auf dem Thron niederlassen. Gerüchteweise bringt NV die große Kepler-GPU auch erst später im Jahr und kontert erstmal mit einem Performancechip (GK104). Und ob der GK104 oder Tahiti die Nase vorne haben wird, ist noch nicht absehbar. Vom GK110 - oder wie auch immer der große Kepler heißen wird - erwarte ich eine Performance oberhalb von Tahiti auf Basis der bisherigen Gerüchte und Fakten. Einen Refresh von AMD zum Ende des Jahres würde ich nicht ausschließen, so dass AMD auch die Antwort auf den GK110 parat halten könnte.
Viele Szenarien sind denkbar, sicher ist imo nur, dass es ein spannendes Thronrennen geben wird.

Ich hab mich für [x] Nvidia entschieden. Es bestehen Verträge mit Cray über Kepler-Teslas, die im ersten Halbjahr 2012 abgewickelt werden, deshalb denke ich, dass NV früh den großen Kepler bringen kann. Vielleicht bei nicht optimaler Verfügbarkeit, aber zumindest hoffe ich auf einen Release gegen März oder April. AMD wird dann imo 2012 keine Antwort mehr darauf finden, um auf den Single-GPU-Thron zurückzufinden.

Käsetoast
2011-12-13, 15:10:54
Solange keine Überraschung blüht wird das NVIDIA sein. Nicht weil deren Chip bzw. Architektur "besser" ist, sondern weil die im High-End Bereich einfach den größeren Chip anbieten werden, der dann entsprechend auch mehr Leistung liefert...

w0mbat
2011-12-13, 15:20:37
Solange keine Überraschung blüht wird das AMD sein. Nicht weil deren Chip bzw. Architektur "besser" ist, sondern weil die im High-End Bereich einfach den größeren Chip anbieten werden, der dann entsprechend auch mehr Leistung liefert...

Hugo78
2011-12-13, 15:52:36
Solange keine Überraschung blüht wird das NVIDIA sein. Weil deren Chip bzw. Architektur besser ist, und weil die im High-End Bereich einfach den größeren Chip anbieten werden, der dann entsprechend auch mehr Leistung liefert...

:D

w0mbat
2011-12-13, 15:59:46
bitte bei den fakten bleiben Hugo78. jeder hier weiß, dass AMD die bessere und effizientere architektur hat!!!

Ailuros
2011-12-13, 16:03:15
bitte bei den fakten bleiben Hugo78. jeder hier weiß, dass AMD die bessere und effizientere architektur hat!!!

Momentan gibt es lediglich Cayman vs. GF110 bzw. GF114. Besser und effizienter ist Cayman in dem Fall nicht, sonst waere GCN lediglich ein einfacher refresh mit mehr Einheiten. Was jetzt die noch nicht veroeffentlichten Architekturen beider Seiten betrifft, will ich beide erstmal im Vergleich von unabhaengigen Quellen in Echtzeit sehen bevor ich zu einer so objektiven wie moeglich Schlussfolgerung kommen kann.

Hugo78
2011-12-13, 16:15:31
bitte bei den fakten bleiben Hugo78. jeder hier weiß, dass AMD die bessere und effizientere architektur hatte!!!

Ich habs mal berichtigt für dich. :D

boxleitnerb
2011-12-13, 17:12:46
Besser und effizienter im Bezug auf was? Da lässt sich trefflich drüber streiten. Ich glaube, dass Nvidia AMD recht zügig die Krone wieder abnehmen wird, also [x] Nvidia.

Käsetoast
2011-12-13, 19:29:33
Solange keine Überraschung blüht wird das AMD sein. Nicht weil deren Chip bzw. Architektur "besser" ist, sondern weil die im High-End Bereich einfach den größeren Chip anbieten werden, der dann entsprechend auch mehr Leistung liefert...
Diese Umkehr schwächelt allerdings in Punkto Plausibilität. AMD fährt seit längerem die Strategie keine sehr großen Chips mehr zu produzieren. Auch die Gerüchteküche spricht ja von keinem deutlich größerem Chip als in den letzten Generationen. Dementsprechend wäre ein großer Chip von AMD schon überraschend...

Die Architektur würde ich erstmal außen vor lassen, denn hier haben bislang beide Hersteller eine gute Leistung gezeigt - die Leistungsstärke wird meiner Meinung nach daher primär über die Chipgröße (natürlich zulasten von Stromverbrauch & Co) bestimmt. Natürlich unter der Voraussetzung, dass GCN tatsächlich für das bessere Rundumpaket sorgt und nicht wie Bulldozer einige Vorteile mit vielen Nachteilen koppelt...

Dural
2011-12-13, 19:51:27
bitte bei den fakten bleiben Hugo78. jeder hier weiß, dass AMD die bessere und effizientere architektur hat!!!


Jeder weis das? Soso...
Fakt ist das GTX570 und 6970 im gleichen Verbrauchs und Leistungs Region sind.

Das selbe mit GTX 560 und 6950

Zudem weis auch jeder das die AMD Presse Karten schon mal öfter deutlich weniger Verbrauchen als die Karten die später in den Handel kommen, man könnte da auch von bewusster Kunden Täuschung sprechen... Komischer weisse ist es bei NV genau anders rum, spätere Karten verbrauchen weniger.

Fakt ist auch das die AMDs besser nach unter Skalieren, Fakt ist jedoch auch das NV deutlich besser nach oben Skaliert!

Ich bin mir sicher das AMD gar nicht in der Lage wäre einen Chip mit der Cayman Architektur zubauen der die selbe Leistung und mit dem selben Verbrauch wie die GTX580 hat.

AMD hat ja offensichtlich auch eingesehen das ihre Extrem ineffiziente Architektur (wenn man durch 100% mehr Einheiten nur 50% auf den Schirm bringt ist das brutal Ineffizient) am Ende ist sonst würden sie ja jetzt auch nicht mit Skaler Einheiten daher kommen. Übrigens hab ich schon vor drei Jahren vermutet das AMD früher oder später mit Skaler Einheiten daher kommt ;)

Coda
2011-12-13, 20:06:34
Solange keine Überraschung blüht wird das NVIDIA sein. Weil deren Chip bzw. Architektur besser ist, und weil die im High-End Bereich einfach den größeren Chip anbieten werden, der dann entsprechend auch mehr Leistung liefert...
GCN.

Gipsel
2011-12-13, 20:08:45
Zudem weis auch jeder das die AMD Presse Karten schon mal öfter deutlich weniger Verbrauchen als die Karten die später in den Handel kommen, man könnte da auch von bewusster Kunden Täuschung sprechen... Komischer weisse ist es bei NV genau anders rum, spätere Karten verbrauchen weniger.Bei herstellerspezifischen Modellen kennt man ja Abweichungen in beide Richtungen (die löten halt andere Spannungswandler auf, ändern eine Handvoll Komponenten, whatever), aber ist das auch bei Referenzmodellen so?

AMD hat ja offensichtlich auch eingesehen das ihre Extrem ineffiziente Architektur (wenn man durch 100% mehr Einheiten nur 50% auf den Schirm bringt ist das brutal Ineffizient) am Ende ist sonst würden sie ja jetzt auch nicht mit Skaler Einheiten daher kommen.
Gut, daß uns da mal einer so richtig die Zusammenhänge erklärt hat. ;D

Zur Frage:
Kommt darauf an, wann genau nVidia mit GK100 kommt und (falls das vor dem 01.07. passiert ist [wahrscheinlich]) dann AMD noch 2012 einen Refresh bringt (glaube ich ehrlich gesagt nicht, höchstens zu Weihnachten).

LovesuckZ
2011-12-13, 20:18:27
AMD's Refreshes waren bis jetzt immer belanglos, wenn es um High-End ging. Weder rv670, rv790 noch Cayman haben die Führung übernommen. Wenn also Tahiti nicht am schnellsten ist, wird es keine SingleGPU im 28nm Verfahren sein.

Sonyfreak
2011-12-13, 20:26:10
[x] Nvidia

Ich kann mir nicht vorstellen, dass AMD plötzlich von der Strategie der letzten Jahre abweicht und das maximal technisch Machbare auf den Markt wirft.

mfg.

Sonyfreak

Hugo78
2011-12-13, 21:51:16
GCN.

Hmm, hmm :| ... G C N ... ist das wichtig, muss man das kennen, kommt das von Nvidia?

Zephyroth
2011-12-13, 22:03:58
[x] NVidia

Einfach weil es nVidia's Strategie ist, die Performance-Krone zu haben. Ebenso will AMD diese gar nicht. AMD konzentrieren sich auf den unteren Enthusiastenmarkt und macht ihr Geld mit kleinen (im Sinne von geldmäßig) effizienten Chips.

nVidia klotzt ran und baut Siliziumfliesen, das es schöner nicht mehr geht. Denen ist die Die-Size (fast) egal. So hat jeder seinen Markt kein Grund was zu ändern.

nVidia funktioniert wie amerikanische Motoren. Jede Menge Zylinder und Hubraum bringen die Fuhre auch in Fahrt. AMD steht eher für die aufgeladenen europäischen, bzw. japanischen Motörchen. Ähnliche Leistung, ganz anders erreicht. Wesentlich weniger Materialeinsatz...

Darum geht's aber nicht. Mir als User ist es egal, ob ein kleiner kostengünstiger Chip oder ein Siliziumziegel meine Grafik beschleunigt. Solange die Preise vergleichbar sind und für mich ein Mehrwert (Treiber & Tools) auf der Seite von nVidia ist, bleib' ich da...

Grüße,
Zeph

Henroldus
2011-12-14, 08:56:57
Solange keine Überraschung blüht wird das NVIDIA sein. Weil deren Chip bzw. Architektur besser ist, und weil die im High-End Bereich einfach den größeren Chip anbieten werden, der dann entsprechend auch mehr Leistung liefert...

:D
... und dementsprechend teurer ist
[x] Nvidia

V2.0
2011-12-14, 09:03:23
AMD weil GK100/110 kaum vor dem 3Q verfügbar sein dürfte.

Begründung: GK107 1Q12 (Feb/März) -> GK104 1-2 Monate später (März-Mai) -> GK110 3-4 Monate später (Juni-September)

Hugo78
2011-12-14, 11:51:32
... und dementsprechend teurer ist

High End ist keine Massenware.

Das Besondere hat immerschon besonders viel Geld gekostet.
Rückblickend mag das nicht unbedingt rational erscheinen, aber man lebt nur einmal also wayne ... :freak:

http://www9.pic-upload.de/thumb/14.12.11/b1iyelu19ukg.jpg (http://www.pic-upload.de/view-12299949/MC462.jpg.html)

Henroldus
2011-12-14, 12:31:26
High End ist keine Massenware.

Das Besondere hat immerschon besonders viel Geld gekostet.
Rückblickend mag das nicht unbedingt rational erscheinen, aber man lebt nur einmal also wayne ... :freak:

http://www9.pic-upload.de/thumb/14.12.11/b1iyelu19ukg.jpg (http://www.pic-upload.de/view-12299949/MC462.jpg.html)
Es ging mir darum, dass die Nvidia Highendkarte stehts teurer war als das AMD Pendant und nicht was Highend absolut kostet, bzw ob es sinnvoll ist :rolleyes:

Hugo78
2011-12-14, 13:46:27
Es ging mir darum, dass die Nvidia Highendkarte stehts teurer war als das AMD Pendant und nicht was Highend absolut kostet, bzw ob es sinnvoll ist :rolleyes:
Kann ich Gedanken lesen? :rolleyes:

BAGZZlash
2011-12-14, 13:59:02
AMD's Refreshes waren bis jetzt immer belanglos, wenn es um High-End ging. Weder rv670, rv790 noch Cayman haben die Führung übernommen. Wenn also Tahiti nicht am schnellsten ist, wird es keine SingleGPU im 28nm Verfahren sein.
R580+?

Gipsel
2011-12-14, 14:01:18
Rückblickend mag das nicht unbedingt rational erscheinen, aber man lebt nur einmal also wayne ... :freak:

http://www.pic-upload.de/view-12299949/MC462.jpg.html
Hey, das Teil habe ich zu Hause auch noch rumliegen! Der zugehörige Lüfter auf vollen Touren ist schon ein echtes Gebläse. Heute kann ich mir kaum noch vorstellen, daß ich mir so ein Teil mal in den Rechner geklemmt habe. :freak:

LovesuckZ
2011-12-14, 14:02:33
R580+?

Da war man aber auch auf Augenhöhe zur damaligen Zeit. Und mit r420 hatte man sogar die schnellste GPU.

Hugo78
2011-12-14, 14:13:16
Hey, das Teil habe ich zu Hause auch noch rumliegen! Der zugehörige Lüfter auf vollen Touren ist schon ein echtes Gebläse. Heute kann ich mir kaum noch vorstellen, daß ich mir so ein Teil mal in den Rechner geklemmt habe. :freak:

Den Lüfter hab ich damals auch schon sofort gegen was leiseres getauscht. ;)

Kinman
2011-12-14, 14:18:41
Wenn es um die reelle Verfügbarkeit geht, würde ich sagen, in etwa gleich lange. Ich kann mir nämlich vorstellen, dass man den GK110 anfangs schwer bis gar nicht bekommt, da er eben auch für Supercomputer eingesetzt wird.

Ich schätze schon, dass GK110 etwas schneller als R1000 sein wird, aber der Unterschied wird nicht so groß sein.

GTX 570 vs. HD6970:
Also ich sehe da schon beide auf einer Augenhöhe, sowohl beim Strombedarf, als auch bei der Leistung.

lg Kinman

Labberlippe
2011-12-14, 23:46:45
Hi

Beide.

Genauer gesagt zuerst AMD und dann nVIDIA ich denke das AMD durch deren neuen Architektur sicherlich noch nicht auf "Vollspeed" fahren kann und auch wird, da wird dann sicherlich später nach gelegt.
Beide kochen quasi nur mit Wasser und beide können nicht zaubern.

Gruss Labberlippe

patrese993
2011-12-15, 00:13:17
performance wohl nv, allerdings Performance pro Watt wohl weiterhin ATI, dementsprechend die imo bessere Wahl, außer man hat absolute high end Ansprüche

Zergra
2011-12-15, 15:53:56
Wie gesagt... erst AMD wie lange und was da wirklich kommt ist unbekannt...
Btw AMD hat gerade die schnellste Dual-Gpu karte auf den markt aber eher unwichtig....
AMD will könnte warscheinlich eine Viel Bessere Karte Rausbringen.... doch lohnt sich das einfach bei Kosten/Leistung einfach nicht... deswegen bieten sich im Mittelfeld die Besseren und Günstigeren karten an das wird sie auf lange sich vor Nv bringen

MadManniMan
2011-12-15, 17:06:53
AMD kommt im Frühjahr, nVidia wohl etwas bis weit später - deswegen wäre alles andere als eine Übergabe der Performancekrone von nV zu AMD und dann zurück zu nV wohl nicht sonderlich naheliegend.

Ailuros
2011-12-15, 17:59:06
GCN.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9080420&postcount=1481

Bisher war der angebliche groessere Unbekannte GCN. Heute ist es wohl doch Kepler am Ende.

***edit: nicht dass es jemand interessiert, aber ich warte lieber etwas noch bevor ich hier abstimme ;)

Mancko
2011-12-16, 01:09:58
AMD will könnte warscheinlich eine Viel Bessere Karte Rausbringen.... doch lohnt sich das einfach bei Kosten/Leistung einfach nicht... deswegen bieten sich im Mittelfeld die Besseren und Günstigeren karten an das wird sie auf lange sich vor Nv bringen

Der Blick auf die Marktanteile und Geschäftszahlen sagt aber das Gegenteil. In beiden hat Nvidia gegenüber AMD über die letzten Quartale zugelegt. Gerade im Performance Segment sind die GTX460 und 560 ein Renner. Ich kann nicht erkennen das AMD sich hier vor Nvidia gebracht hat. Man sollte dabei auch nicht unterschätzen, dass die Leute in Summe für Nvidia bereit sind einen Preisaufschlag zu zahlen. Ich würde für AMD auf keinen Fall das gleiche bezahlen, wenn die Performance in etwa gleich ist. Nvidia's Produkte sind in der Regel in der Summe der Features, Treiber und des Supports der Spieleindustrie einfach nen Tick runder und das gibt dann auch einen gewissen Ausschlag bei der Zahlungsbereitschaft.
Es ist ja nun kein großes Geheimnis, dass der Herausforderer in der Regel weniger verlangen muss als der Platzhirsch. Das lässt sich in so ziemlich jedem Geschäftszweig / Marktsegment beobachten.

Knuddelbearli
2011-12-16, 01:55:12
wobei ich das nicht verstehe die 6850 ist nicht nur meiner meinung besser sondern auch laut Leonidas ..., ( ok bis auf den stock kühler ) die nv und ati only features spielen in der perfomanceklasse kaum ne rolle. zu lahm für dickes ssaa eyefinity 3d usw

LovesuckZ
2011-12-16, 01:57:12
Downsampling und HQ-AF. Offene Profile über ein Jahrlang, GPU-PhysX, geringer Verbrauch bei Videodekodierung. Da fällt mir so einiges ein, das die GTX460 besser macht.

Und ja - das ist alles auch verwendbar. :D

Knuddelbearli
2011-12-16, 02:30:18
bessere P/L je nach Modell gibt es noch freischaltbarkeit, weniger idle verbrauch*, weniger last verbrauch*, mehr speicher , eyefinity abseits von 3D gaming.

einfach nur Sachen aufzählen kann ich auch ^^

fakt ist NV hat unter den topmodell nichts einzigartiges außer man ergötzt sich an halbwegs realistisch zerspringenden Fensterscheiben ^^

das selbe trifft aber halt auch auf amd zu, freischaltbarkeit ist ja inzwischen eher selten, nur noch restposten und einige sapphire modelle

* Wie oft schaust du Videos im Gegensatz zu den 3d und idle ? ... typische LZ antwort ...

rudl
2011-12-16, 19:39:10
Gerade bei den letzten spielen anno2070 und skyrim zeigt amd das sie mit der 6970 mindestens so schnell sind wie die gtx580 und weniger verbraucht.

Meine vermutung ist auch das viele spiele eher nvidia optimiert sind.

Die vliw 4 architektur ist imho leider ein rückschritt im vergleich zur vliw5 architektur, das zeigt sich ganz stark bei gpgpu, die die 5d units besser auslasten kann, da sind die 68x0 und 59x0 karten fast so schnell wie die 69x0 karten.
Mit ein wenig mehr optimierung wären die alten karten viel schneller :-( auch bei spielen.

Amd hat imho die nase vorn, aber diese diskussion ist sowieso sinnlos, die neuen grafikkarten stehen ja auch in absehbarer zeit vor der tür.

rudl
2011-12-16, 19:44:49
.... und eine kristallkugel hab ich leider nicht^^

Spasstiger
2012-05-07, 09:22:24
Kleiner Zwischenstand zu Beginn der Kalenderwoche 19:
AMD - 11 Wochen (Radeon HD 7970)
Nvidia - 7 Wochen (GeForce GTX 680)

GK104 ist zumindest für mich überraschend stark geworden und angesichts des noch bevorstehenden GK110-Releases dürfte das Jahr 2012 an NV gehen. Ich glaube nicht, dass AMD in 28 nm noch genug nachlegen kann, um den GK110 zu schlagen.

boxleitnerb
2012-05-07, 09:38:19
Das ist jetzt schwierig zu sagen. GK104 liegt in manchen Reviews vorne, in anderen gleich auf, in anderen sogar ganz leicht zurück. Ich müsste AMD sagen, denn einen wirklichen Sieger bei der Performance mag ich beim Duell GK104 vs. Tahiti nicht sehen, wenn es nur um eine Karte geht.

desert
2012-05-07, 10:00:09
Das ist jetzt schwierig zu sagen. GK104 liegt in manchen Reviews vorne, in anderen gleich auf, in anderen sogar ganz leicht zurück. Ich müsste AMD sagen, denn einen wirklichen Sieger bei der Performance mag ich beim Duell GK104 vs. Tahiti nicht sehen, wenn es nur um eine Karte geht.

sorry in welchen Reviews liegt sie denn zurück? Habe keines in erinnerung.

AnarchX
2012-05-07, 10:11:51
Bei Hardware.fr hat man eine Handelsversion die nur auf ~1,08GHz boostet anstatt dem Review Sample mit >1,1GHz.

Damit liegt diese 680 leicht hinter einer 7970: http://www.hardware.fr/articles/864-17/recapitulatif-performances.html

AffenJack
2012-05-07, 10:15:52
Auch die Reviewversion liegt 4% hinter der 7970, damit hat das nix zutun. Es ist nur ne Sache der getesteten Spiele. Die Handelsversion ist 1,5% langsamer als die Reviewversion die sie haben.

@Coda unter mir, auch da ist der Unterschied nur 1%, der Parcour spielt ne viel größere Rolle.

Coda
2012-05-07, 10:16:06
Vor allem geht der Boost auch zurück nach ein paar Minuten. Lest mal das HT4U-Review.

Die Chips sind im Mittel ungefähr gleich schnell.

boxleitnerb
2012-05-07, 10:36:55
HT4U. Und der CB Nachtest mit weiteren Spielen sah auch nicht so prickelnd aus.

aufkrawall
2012-05-07, 10:48:25
Man kriegt ja von der 7970 gute Custom Designs mit, wenn man ein bisschen Glück hat, sehr gutem OC-Potential.
Mich schreckt dabei allerdings ab, dass die bei manchen Spielen mit AA enorm einbrechen, sodass GK104 dabei immer noch schneller ist.
Ich kauf mir nicht für 400€ eine neue Karte, die bei BF3 mit 1,3 MP vielleicht 40% schneller ist als meine GTX 570 OC...
Da muss doch AMD irgendwas verbockt haben, wenn Kepler mit geringerer Speicherbandbreite dieses Problem überhaupt nicht hat.

Knuddelbearli
2012-05-07, 10:55:38
naja dafür kackt der gk104 in anderen ( und vor allem mehr ) spielen massiv gegenüber ab

finde da sollte man eher die AMD karte als referenz nehmen und die NV Karte ist dann je anch game entweder am abkacken ( metro, crysis, Alan Wake, ArmA2 ) oder performt besonders gut ( Skyrim, BF3, Crysis 2 )

aufkrawall
2012-05-07, 10:59:12
finde da sollte man eher die AMD karte als referenz nehmen und die NV Karte ist dann je anch game entweder am abkacken ( metro, crysis, Alan Wake, ArmA2 ) oder performt besonders gut ( Skyrim, BF3, Crysis 2 )
Crysis kann man nicht vergleichen, weil Wasserreflexionen und AA nicht richtig auf AMD funktionieren.
Die anderen genannten Spiele, na ja. Hab ich nie lange Zeit für aufbringen wollen...

Mancko
2012-05-07, 11:44:00
Nvidia ist aktuell vorne. Auch die Effizienz für den privaten Endverbraucher ist besser. Ich denke die meißte Zeit des Jahres 2012 wird auch Nvidia vorne bleiben. Somit bleibt AMD halt wie gehabt Platz 2.

Blediator16
2012-05-07, 12:24:56
Nvidia ist aktuell vorne. Auch die Effizienz für den privaten Endverbraucher ist besser. Ich denke die meißte Zeit des Jahres 2012 wird auch Nvidia vorne bleiben. Somit bleibt AMD halt wie gehabt Platz 2.

Im Endeffekt wirds daraus hinauslaufen was am Ende dabei rauskommt. Wenn Platz 2 in absoluter Geschwindigkeit ausreicht um mal wieder Gewinn einzufahren ist ja alles wieder ok:tongue:

V2.0
2012-05-07, 13:42:29
Die 1GHz Edition der 7970 wird den Führungsanspruch von AMD festigen.

CyLord
2012-05-07, 15:31:39
Warum wird über die ,,Krone 2012" diskutiert, wenn das Jahr noch nicht zu Ende ist und die Hersteller sich bedeckt haben?

Iruwen
2012-05-07, 15:45:59
Weil wir im Spekulationsforum sind? :freak:

Mancko
2012-05-07, 16:38:06
Im Endeffekt wirds daraus hinauslaufen was am Ende dabei rauskommt. Wenn Platz 2 in absoluter Geschwindigkeit ausreicht um mal wieder Gewinn einzufahren ist ja alles wieder ok:tongue:

Darauf wirds hinauslaufen. Denke schon das die Grafiksparte Gewinne machen wird, wenngleich nur kleine. AMD als Ganzes wird aber wahrscheinlich aufgrund des ersten Quartals das Jahr 2012 in rot abschließen.

OgrEGT
2012-05-07, 19:14:21
Crysis kann man nicht vergleichen, weil Wasserreflexionen und AA nicht richtig auf AMD funktionieren.
(...)

Was genau funktioniert da nicht?

HarryHirsch
2012-05-07, 19:52:23
bei "normal-usern" liegen die 680er und die 7970er gleich auf.
bei "oc-usern" liegt die 7970er vor der 680er. (kann sich mit 680er custom-designs aber noch ändern)

edit:

aso und die single-gpu-krone gehört 2012 mit ziemlicher sicherheit nv.

Blediator16
2012-05-07, 20:01:11
bei "normal-usern" liegen die 680er und die 7970er gleich auf.
bei "oc-usern" liegt die 7970er vor der 680er. (kann sich mit 680er custom-designs aber noch ändern)

edit:

aso und die single-gpu-krone gehört 2012 mit ziemlicher sicherheit nv.

Wenn AMD keinen Monsterchip baut :D

boxleitnerb
2012-05-07, 20:06:28
Wie definieren wir das eigentlich? Wenn es darumgeht, wer am längsten die schnellste Karte hatte, dann dürfte das AMD sein. Sie hatten 9 Wochen lang die schnellste und ab da ist es eher unentschieden, wenn man kein Cherrypicking betreibt.

Zergra
2012-05-07, 20:10:50
Wie definieren wir das eigentlich? Wenn es darumgeht, wer am längsten die schnellste Karte hatte, dann dürfte das AMD sein. Sie hatten 9 Wochen lang die schnellste und ab da ist es eher unentschieden, wenn man kein Cherrypicking betreibt.
Habe ich mich auch gerade schon gefragt, und was wäre mit den Custom OC Karten ? Oder würde jetzt nur die Ghz Edition zählen, welche ja die eigentlich Geplante 7970 wäre ?

Blaire
2012-05-07, 20:15:25
HT4U. Und der CB Nachtest mit weiteren Spielen sah auch nicht so prickelnd aus.

Tests mit mehr Games sind für mich generell aussagekräftiger. Ich sehe die GTX680 leicht schneller, bei besserer Bildqualität und Features.
http://alienbabeltech.com/main/?p=29157
Für mich kommt ohnehin schon lange nicht mehr an, wer wo schneller ist, sondern wer das bessere Package abliefert, von mir aus könnte auch AMD 20% schneller sein, ich würde trotzdem bei NV bleiben dafür hab ich ganzen Extras einfach zu sehr schätzen gelernt.

HarryHirsch
2012-05-07, 20:15:37
Wenn AMD keinen Monsterchip baut :D

ati baut keine high-end gpus mehr...

Schaffe89
2012-05-07, 22:50:00
Ich sehe die GTX680 leicht schneller, bei besserer Bildqualität und Features.


Liegt eher daran, dass du ein Nvidia Fan bist.
BQ ist mit Nichten besser, Features gibt es mehr, das stimmt.

y33H@
2012-05-07, 22:53:39
Fanboy-Unterstellungen kommen idR von Leuten, die selbst biased sind ;-) Blaire spricht vermutlich von den AA-Bits.

Raff
2012-05-07, 22:54:40
GK104 ist Tahiti XT nicht überlegen, ergo muss es GK110 richten.

MfG,
Raff

-GENO-
2012-05-07, 23:04:13
naja dafür kackt der gk104 in anderen ( und vor allem mehr ) spielen massiv gegenüber ab

finde da sollte man eher die AMD karte als referenz nehmen und die NV Karte ist dann je anch game entweder am abkacken ( metro, crysis, Alan Wake, ArmA2 ) oder performt besonders gut ( Skyrim, BF3, Crysis 2 )
Der Unterschied ist das die AMD Top-Games allesamt entweder recht alt (Metro, Crysis) oder Nischenprodukte (Alan Wake, Arma 2) sind während die nVidia Performance-Games fast allesamt Top-Seller (BF3, Skyrim) sind. :biggrin:

Blaire
2012-05-07, 23:27:06
Liegt eher daran, dass du ein Nvidia Fan bist.
BQ ist mit Nichten besser, Features gibt es mehr, das stimmt.

Und du AMD Fan...who cares?
Bild-Qualitäts-Fanatiker passt eher, nicht umsonst hatte ich schon vor vielen Jahren Grafikkarten gemocht, die Supersampling AA beherrschten so habe ich das eigentlich bis heute gehalten. Man könnte genug Argumente austauschen, was wo besser ist, das HQ-AF ist seit G80 genau nach meinen Geschmack, kein Downgrading bei der Bildqualität so muss das sein. Ati hatte ich zwischendurch immer wieder mal, richtig warm wurde mir dabei nie , zuviele Ungereimtheiten trübten das Bild um am Ende dann doch wieder bei NV zu landen. Warum zu AMD greifen? (Tesselation-Schalter, Rumgepfusche beim AI durch alle API.., mieser CF-Support seit Jahren, keine offenen Profile, kein nativer 3D-Support, Features nur nach Druck von Außen usw.) Warum sich also einschränken, wenn es die Konkurrenz besser macht?

Schaffe89
2012-05-08, 00:31:22
Der Unterschied ist das die AMD Top-Games allesamt entweder recht alt (Metro, Crysis) oder Nischenprodukte (Alan Wake, Arma 2) sind während die nVidia Performance-Games fast allesamt Top-Seller (BF3, Skyrim) sind.

Naja Trine 2, Metro 2033, sowie Risen 2, Deus EX; Anno 2070 usw.. sprechen eigentlich gegen das was du sagst.

Warum sich also einschränken, wenn es die Konkurrenz besser macht?

Ach komm, jeder User weiß dass der Unterschied nicht so groß ist wie du ihn beschreibst.

Du zählst ja auch Sachen auf, die gar keinen Belang haben, wie Tess Schalter, AI ( gibts nicht mehr), sowie angeblich mieser CF Support. Gut jetzt mag Nvidia was µruckler angeht wiedermal was verbessert haben, bessere Skalierung oder die öftere Unterstützung von Multi GPU in Spielen kenne ich bei Nvidia nicht, zumindest nicht aus den hiesigen Tests.

=Floi=
2012-05-08, 00:59:59
Ach komm, jeder User weiß dass der Unterschied nicht so groß ist wie du ihn beschreibst.


er ist (leider) eklatant groß!
die vorteile durch die bits und durch die tools/der offenen api sind teils gigantisch.
ATI pfercht einem ein wo es geht und bei der qualität der hardware und der kühlung muss manauch oft abstriche machen.

w0mbat
2012-05-08, 01:07:47
er ist (leider) eklatant groß!
die vorteile durch die bits und durch die tools/der offenen api sind teils gigantisch.
ATI pfercht einem ein wo es geht und bei der qualität der hardware und der kühlung muss manauch oft abstriche machen.

SSAA mit LOD Anpassung ist das wichtigste. Und da kann NV nicht mithalten. Also, schlechter. Ganz klar. Fankt und so!!!

ndrs
2012-05-08, 01:12:06
und bei der qualität der hardware [...] muss manauch oft abstriche machen.
Du redest von Spulenfiepen, oder? ;)

Schaffe89
2012-05-08, 01:37:59
die vorteile durch die bits und durch die tools/der offenen api sind teils gigantisch.


Ich kann das nicht nachvollziehen. Ich hab auch ne GTX 480 und das mit den Bits mag Bastler was besonderes sein, aber out of the box ist AMD´s LOD Anpassung deutlich handsamer, das kann wohl niemand abstreiten, jedenfalls sieht das Computerbase ebenso.

BQ mäßig hinkt AMD doch gar nicht hinterher.

Abstriche bei der Qualität der Hardware?
Von sowas hab ich noch nie etwas gelesen, zumindest nicht aus einem sachlichen Bericht.
Davon abgeseen ging es gar nicht um Qualität der Hardware, oder Kühlung.

Nvidias Referenzdesign ist mit 52 DB, gemessen bei CB, auch alles andere als leise.
Die Qualität bei der GTX 480 hast du da sicherlich nicht kritisiert, davon gesehen bieten beide Hersteller ihren Partnern an, leise Custom Designs herzustellen, ich denke da muss man sich nicht drüber steiten wer die leiseren Karten hat.

AMD bevorzugt es bei den Referenzlösungen eben die Luft aus dem Gehäuse zu pusten, das ist eben immer etwas lauter.

SSAA mit LOD Anpassung ist das wichtigste.

Naja, jetzt übertreib mal nicht.
Nvidia hat zumindest bis zur LOD Anpassung von AMD relativ konkurrenzlose BQ bei directx11/10 gehabt.

Blaire
2012-05-08, 04:20:51
Ach komm, jeder User weiß dass der Unterschied nicht so groß ist wie du ihn beschreibst.

Irgendwie kommt mir dieser Satz bekannt vor, die gleichen Leute wollten vor Jahren auch kein AF-Flimmern sehen. :D

Du zählst ja auch Sachen auf, die gar keinen Belang haben, wie Tess Schalter, AI ( gibts nicht mehr), sowie angeblich mieser CF Support.

Hat man ja gesehn wie nützlich der Tesselation-Schalter war... :freak:
AI gibts nicht mehr? :eek: Warum wird dann selbst unter DX11 am Texturfilter rumgepfuscht?
http://www.tomshardware.com/reviews/image-quality-driver-optimization-graphics,3173.html
http://www.computerbase.de/artikel/grafikkarten/2012/bericht-amd-catalyst-12.4-whql/3/#abschnitt_anisotrope_filterung_wurde_geaendert
CF:
http://www.hardocp.com/article/2012/01/17/amd_crossfirex_drivers_opportunity_lost
http://hardocp.com/article/2012/03/28/nvidia_kepler_geforce_gtx_680_sli_video_card_review/9

aufkrawall
2012-05-08, 05:20:18
Naja Trine 2, Metro 2033, sowie Risen 2, Deus EX; Anno 2070 usw.. sprechen eigentlich gegen das was du sagst.

Bei Computerbase ist die 680 bei Risen 2 mit 16xAF schneller als die 7970, bei Trine 2 liegt es am OGSSAA (höhere Auflösung).
Außerdem kommt man bei 1080p, zumindest mit OC, konstant auf 60fps.
Wo ist das Problem? Leidet der Spielspaß, weil der Balken theoretisch noch länger sein könnte? :freak:

Das wichtigste ist doch, dass sich alle Spiele gut spielen lassen, und bei der 7970 gibt es da teilweise beinahe Totalausfälle.
Skyrim mit SGSSAA oder Battlefield 3 sind jedenfalls mit der Radeon viel schlechter spielbar.

SSAA mit LOD Anpassung ist das wichtigste. Und da kann NV nicht mithalten. Also, schlechter. Ganz klar. Fankt und so!!!
Was ist so schwer da dran, eben den LOD selbst einzustellen?
Dass es bei DX11 nicht geht, ist allerdings ein Nachteil.
Mal gucken, was draus wird.

Die AA-Bits liefern aber bei DX9 häufig eine perfekte Glättung, wo im Gegensatz bei AMD oftmals gar keine Glättung möglich ist.

TobiWahnKenobi
2012-05-08, 06:25:41
ich würde da gar nicht auf der darstellungsqualität rumreiten.. *kopfschüttel* das was optisch hinten rauskommt, kann bei der HD7970 und auch bei sämtlichen NV-karten gut aussehen..

AMD macht den nicht-dauerhaft-spielenden mittelalten anwender mit anderen mittel "weich".

ich pers. würde die im vergleichbaren preissegment angeordneten NV-karten sogar dann noch "bevorzugen" (was den kaufentscheid angeht), wenn die NVidia durch die bank 10% langsamer als das AMD-pendant wäre.

(..)

mfg
tobi

aufkrawall
2012-05-08, 06:29:37
ich würde da gar nicht auf der darstellungsqualität rumreiten.. *kopfschüttel* das was optisch hinten rauskommt, kann bei der HD7970 und auch bei sämtlichen NV-karten gut aussehen..

Kann. ;)
Gibt natürlich auch bei AMD Anwendungen, bei denen AA perfekt greift und die Texturfilterung mit SGSSAA ist wohl perfekt.

Spasstiger
2012-05-08, 09:17:04
Würdet ihr die Wochen seit dem GTX-680-Release eher als Gleichstand werten und Niemanden die Performancekrone zuschieben? Es stimmt schon, dass GK104 und Tahiti sich in vielen Benchmarks ein Kopf-und-Kopf-Rennen liefern. Wenn dazu die Review-Karten anscheinend etwas aggressiver mit dem Turbo umgehen als die Karten im Handel, dann wäre es vielleicht wirklich nicht ganz fair, Nvidia die eindeutige Single-GPU-Performancekrone zuzugestehen, auch wenn die meisten Reviews im Mittel einen leichten Vorteil für die GTX 680 sehen.

Knuddelbearli
2012-05-08, 10:15:25
wenn nv nicht bald in die hufe kommt und ssaa samt lod Einstellung in den Treiber packt wird meine nächste Karte jedenfalls eine AMD jetzt wo dort auch DS geht

habe einfach nicht mehr den Bock immer alles manuell einzustellen, sowas mag vielleicht für einen 20 Jährigen Studenten ok sein, aber für mich nicht ...
Das auto einstellungs tool von NV wird ja wohl kein ssaa usw beherrschen :-/

boxleitnerb
2012-05-08, 12:12:30
wenn nv nicht bald in die hufe kommt und ssaa samt lod Einstellung in den Treiber packt wird meine nächste Karte jedenfalls eine AMD jetzt wo dort auch DS geht

habe einfach nicht mehr den Bock immer alles manuell einzustellen, sowas mag vielleicht für einen 20 Jährigen Studenten ok sein, aber für mich nicht ...
Das auto einstellungs tool von NV wird ja wohl kein ssaa usw beherrschen :-/

Witzbold. Glaubst du, du kannst ein Knöpfchen drücken und dann geht DS automatisch mit 3840x2160? Bitte sei mal objektiver, das grenzt schon ziemlich an Gebashe. Man kann sich sowas auch konstruieren...einmal eingestellt für ein Spiel und fertig. Profil exportiert, ein Knopfdruck und auch fertig, dann musst dich nie wieder drum kümmern.

aufkrawall
2012-05-08, 12:16:27
Und boxleitnerb ist bestimmt auch nicht mehr 20. :D

boxleitnerb
2012-05-08, 12:17:23
Leider...leider...

Knuddelbearli
2012-05-08, 12:54:15
wie du auf einmal auf ds kommst wo ich ds nur 1 mal kurz am Rande angehe frage ich mich auch ... und guck einfach mal in den ds thread da sind genug posts von mir. Kannst mir ja dann weiterhelfen wenn du schon so pro bist ;-)

ja pro spiel solange kein bit gefrickel dazukommt ( was gott sei dank nicht so häufig passiert ) mit einem externen tool. wieso zum teufel kann NV das nicht im treiber einbauen so wie amd?

sorry aber das muss sich nv gefallen lassen, beide bieten bei SSAA merh oder weniger das gleiche an aber bei amd ist es viel leichter erreichbar.

dazu kommt noch das ich bis heute kein brauchbares tutorial gefunden habe das die ganzen Einstellungen im Inspector erklärt

@ aufkrawall dann eben im geiste 20 ^^

boxleitnerb
2012-05-08, 13:03:58
Du sagst, du willst es einfach haben und widersprichst dir selber, weil DS eben nicht einfach ist. Niemand zwingt dich, das "Bitgefrickel" zu machen. Im Zweifelsfall ist es das, was auf einer Geforce AA ermöglicht, während es bei AMD nicht geht.

Es gibt ein Tutorial hier im 3DC und im AA-Bit Thread stehen viele Informationen im ersten Post. Und ob man jetzt den Inspector aufruft oder sich mit dem Treiberpanel herumschlägt (das ich übrigens sowohl bei AMD als auch bei Nvidia sehr unkomfortabel und unübersichtlich finde), ist doch total egal. Das eine heißt A, das andere B. Big Deal. Du musst den Inspector ja nichtmal installieren, er ist klein und ressourcenschonend und schickt auch nichts nach Hause. Es wird immer drauf rumgehackt, dass SSAA nicht im Treiber angeboten wird, dabei macht das für den halbwegs versierten Anwender Null Unterschied. Beim DAU ist das anders, aber du bist ja kein DAU...oder?

Knuddelbearli
2012-05-08, 13:17:56
bei dem Tutorial hast du mich falsch verstanden meinte damit die ganzen einstellungen des Inspector nicht die AA Bits explizit. und treiber panel finde ich beide eigentlich ganz komfortabel :-/
und bei amd hat man exe remining was aber noch unkonfortabler ist :-/

boxleitnerb
2012-05-08, 13:30:25
Von den Einstellungen im Inspector benutze ich nur einen Bruchteil. Für den Rest müsste man sich die Dokumentation der NVAPI durchlesen. Wenn man den Filterbutton klickt, wird das Unwichtige, das niemand braucht, ausgeblendet.

TobiWahnKenobi
2012-05-08, 13:31:05
die profiloptionen, auf die man per NVI zugreifen kann, sind doch schon anhand ihrer bezeichnungen selbsterklärend.. naja.. sagen wir zu 98%.. nur bietet der NVI halt alles an, was die hardware samt treiber können, wohingegen das controlpanel auf die populärsten und gängigsten stellschrauben beschränkt ist.

würde man im treiber alles justieren können, wie der profilverwaltung mit dem NVI wären doch auch nur wieder alle am mekkern, dass es zuviel ist oder dass irgendwas nicht läuft weil content oder einstellungen untereinander inkompatibel sind.

ich finds weder gut noch schlecht, dass ich das LOD mit der hand anpassen kann, denn so kann ich selbst "meine" mitte zwischen glatt und scharf ermitteln und muss nicht das nehmen, was man mir vorsetzt.


(..)

mfg
tobi

fondness
2012-05-08, 13:38:07
ich finds weder gut noch schlecht, dass ich das LOD mit der hand anpassen kann, denn so kann ich selbst "meine" mitte schwischen glatt und scharf ermitteln und muss nicht das nehmen, was man mir vorsetzt.


Einstellen lässt es sich nur unter DX9, genau das ist ja der Kritikpunkt. Und selbst wenn du es einstellst ist der Filter bei NV mit LoD-Verschiebung nicht sauber. Darüber hinaus hast du bei AMD eine ordentlichen Tent-Downsamling-Filter, bei NV Fehlanzeige. Mischmodi (sogar mit ordentlicher Sampleverteilung) gibt es inzwischen auch bei AMD, nennt sich EQAA. Wo liegen die IQ-Vorteile bei NV? Ich habe mir vor kurzem seit Ewigkeiten wieder mal eine AMD gekauft und den Schritt bis dato nicht bereut.

Ronny145
2012-05-08, 13:40:31
Darüber hinaus hast du bei AMD eine ordentlichen Tent-Downsamling-Filter


Ich dachte den gibt es nicht mehr für GCN GPUs.

fondness
2012-05-08, 13:45:06
Ich dachte den gibt es nicht mehr für GCN GPUs.

Edge-Detect gibt es noch. Die anderen leider(?) nicht mehr.

aufkrawall
2012-05-08, 13:49:36
Und selbst wenn du es einstellst ist der Filter bei NV mit LoD-Verschiebung nicht sauber.

Merkst du bei vernünftigen Texturen gar nicht, mit zig Shadern sowieso nicht.


Wo liegen die IQ-Vorteile bei NV?

Wiederholung: In den Custom Bits für DX9.

boxleitnerb
2012-05-08, 13:53:51
Merkst du bei vernünftigen Texturen gar nicht, mit zig Shadern sowieso nicht.

Da muss man fairerweise jetzt sagen, dass das auch beim AMD-AF immer gesagt wurde ;)
Aber da sich darüber bisher niemand beschwert hat (VOR dem Lesen des entsprechenden Threads), würde ich sagen, es ist ein praktisch non-existentes Problem in der Realität.

aufkrawall
2012-05-08, 14:03:36
Da muss man fairerweise jetzt sagen, dass das auch beim AMD-AF immer gesagt wurde ;)

Ich denke, so schlimm wie Flimmer-NI ist es nicht.
Die Texturen flimmern eh, auch auf SI mit 8xSGSSAA.

Bei Crysis kann man den LOD auch auf -2 stellen und es flimmert nichts.

Raff
2012-05-08, 14:32:48
Bei Crysis kann man den LOD auch auf -2 stellen und es flimmert nichts.

Äh, wat? Du meinst Turok (1997), oder? :biggrin: Bei Kreysis wird man mit 'nem Minus-Zweier-LOD auf der Stelle blind (=> Bäumchen).

MfG,
Raff

aufkrawall
2012-05-08, 15:33:47
Äh, wat? Du meinst Turok (1997), oder? :biggrin: Bei Kreysis wird man mit 'nem Minus-Zweier-LOD auf der Stelle blind (=> Bäumchen).

Mit 8xSGSSAA per Custom Bit natürlich. ;)
Wenn mans nur erweitert greift es ja nicht überall, da ist die LOD-Anpassung dann bestimmt Gift.

-GENO-
2012-05-08, 20:59:32
Wieso wird die Möglichkeit das LOD bei nVidia manuell einzustellen eigentlich als Nachteil gewertet? Ich persönlich finde es deutlich besser so da es mir mehr Freiheiten lässt aber ich bin auch allgemein kein Freund von automatischen Settings.

Raff
2012-05-08, 21:03:32
Negativ ist, dass keine Automatik drin ist, die das Optimum einstellt. Dass man es manuell befummeln kann ist ja nicht schlecht – aber man muss, damit die Texturen knackig bleiben.

MfG,
Raff

-GENO-
2012-05-08, 21:04:54
Da bin ich aber ehrlich gesagt lieber gezwungen das LOD von Hand einzustellen als das mir sämtliche Möglichkeiten per Automatik geraubt werden. Btw kann das "Optimum" für jeden ein wenig anders aussehen und muss nicht unbedingt dem entsprechen was der AMD Mitarbeiter beim Treiber programmieren vorgibt.

Raff
2012-05-08, 21:13:08
Ich weiß zwar nicht, wie's mitterweile um die HD-7000-Kompatibilität der Ati Tray Tools bestellt ist, aber die Automatik bedeutet keineswegs, dass man bei AMD nichts ändern kann. Zu HD-5000-Zeiten war's zumindest kein Problem (unter DX9 und älter, wie bei Nvidia). Da ich diese Funktion nie für mehr als einen Funktionstest nutzte – die Automatik ist ideal –, kann ich nicht mehr dazu sagen.

MfG,
Raff

Ronny145
2012-05-08, 21:18:19
Unter Dx10+ lässt sich das nicht zurückstellen bei AMD, was zum Nachteil führen kann.

Raff
2012-05-08, 21:21:53
Wo genau?

MfG,
Raff

Ronny145
2012-05-08, 21:24:18
Wo genau?

MfG,
Raff


In Project CARS und allen anderen Spielen wo erweitertes SGSSAA nur mäßig greift. Denn dann flimmert es an den Stellen wo kein SGSSAA greift wie Hölle.

Raff
2012-05-08, 21:26:38
Mir sind solche Spiele nicht bekannt, daher die Frage. :) Nun ja, das Auto-Projekt ist ja noch weit von der Gammaversion entfernt, da wird sich schon noch etwas tun.

MfG,
Raff

Blaire
2012-05-08, 22:01:24
Ich denke, so schlimm wie Flimmer-NI ist es nicht.
Die Texturen flimmern eh, auch auf SI mit 8xSGSSAA.

Bei Crysis kann man den LOD auch auf -2 stellen und es flimmert nichts.

Eigentlich darf man das Intern aufgewertete SGSSAA garnicht so nennen, so wie das flimmert. Erst mit AA-Bits wirkt es wie aus einem Guss, softig im Background, scharf im Vordergrund und trotzdem flimmerfrei, schade nur das man das nicht unter DX10 ans Laufen bekommt.

aufkrawall
2012-05-08, 22:32:45
Mir sind solche Spiele nicht bekannt, daher die Frage. :) Nun ja, das Auto-Projekt ist ja noch weit von der Gammaversion entfernt, da wird sich schon noch etwas tun.

Wie wärs mit BF3? ;)

Eigentlich darf man das Intern aufgewertete SGSSAA garnicht so nennen, so wie das flimmert. Erst mit AA-Bits wirkt es wie aus einem Guss, softig im Background, scharf im Vordergrund und trotzdem flimmerfrei, schade nur das man das nicht unter DX10 ans Laufen bekommt.
Ist für Screenshots doof, weil man so nicht das DX10 Downsampling nutzen kann.
Aber im Spiel hat man mit dem DX9 Renderer doch keine Abstriche.

Spasstiger
2012-06-22, 13:00:57
AMD hat sich mit der HD 7970 GHz Edition wieder knapp die Performancekrone zurückgeholt:
http://www.3dcenter.org/artikel/launch-analyse-amd-radeon-hd-7970-ghz-edition/launch-analyse-amd-radeon-hd-7970-ghz-edition-.
Wenn GK110 bzw. die GeForce GTX 780 erst 2013 erscheint, geht das Jahr 2012 insgesamt an AMD, was den Erwartungen der meisten Umfrageteilnehmer widerspricht.

Winter[Raven]
2012-06-22, 13:14:31
Ah Spasstiger, sehen wir es doch von der einen Seite, Nvidia kann jetzt sagen egal, wir haben das bessere Produkt auf dem Markt, und das ist nunmal FAKT. Vielleicht legt aber NV eine Ultra auf und kann immer noch von sich stolz sagen leiser und sparsamer zu sein mit besseren Features :P

btw. welche Erwartungen und Teilnehmer? Wenn ich mir oben die Statistik anschau ist NV ein unerreichter Favorit.

aufkrawall
2012-06-22, 13:16:32
Hätte man eine Umfrage gestartet, wär die lauteste Karte dieses Jahr im Angebot haben wird, hätten sich die Teilnehmer genau so geirrt. :D

Knuddelbearli
2012-06-22, 13:22:13
also ich sehe da eher ein unentschieden und zwar seit dem erscheinen der 680

also hat NV noch bis mitte ende September zeit danach würde es nimmer reichen ^^

wer hätte das 2011 schon geglaubt ? ^^

Spasstiger
2012-06-22, 13:42:15
Enthusiasten mit drei Monitoren bekommen mittlerweile bei AMDs schnellster Single-GPU-Karten 10-20% mehr Performance als bei Nvidias schnellster Single-GPU-Karte und da jetzt auch ein Gleichstand bei weniger fordernden Settings besteht, würde ich den Gesamtvorteil schon AMD zusprechen.
Auf jeden Fall packt Nvidia in diesem Jahr nicht den erhofften High-End-Hammer aus, der 28-nm-Prozess muss wohl einige Zeit reichen. ;)

Winter[Raven]
2012-06-22, 13:44:36
würde ich den Gesamtvorteil schon AMD zusprechen.

So, jetzt zähl mir mal die Vorteile auf...

Spasstiger
2012-06-22, 13:49:55
;9355796']So, jetzt zähl mir mal die Vorteile auf...
AMD hat sich mit der HD 7970 GHz Edition wieder knapp die Performancekrone zurückgeholt:
http://www.3dcenter.org/artikel/launch-analyse-amd-radeon-hd-7970-ghz-edition/launch-analyse-amd-radeon-hd-7970-ghz-edition-.
Beachte auch das Thema des Threads:
Was denkt ihr, wer sich in 2012 länger mit dem schnellsten Grafikchip rühmen darf ausgehend von Performanceratings in den üblichen Reviews? Es zählt die jeweils schnellste Single-GPU-Grafikkarte, SLI- und Crossfire-Lösungen bleiben außen vor.

aufkrawall
2012-06-22, 13:53:08
Wobei die Unterschiede je nach Anwendung wohl selten so ausgeprägt wie derzeit waren.

Neurosphere
2012-06-22, 14:28:28
Lässt man mal außen vor das die GTX in für 90% der User uninteressanten Anwendungen langsamer ist sehe ich mehr einen Gleichstand. Dazu kommt die Perf/Watt und das man Ausschläge unter 10% nur messen aber nicht wirklich wahrnehmen kann.

Allerdings dürfte die GPU-Krone wohl an AMD gehen sofern sie ihren neuen Chip noch dieses Jahr bringen können. Bei NV wird es vor 2013 nämlich nüx.

Mancko
2012-06-24, 16:13:24
AMD hat sich mit der HD 7970 GHz Edition wieder knapp die Performancekrone zurückgeholt:
http://www.3dcenter.org/artikel/launch-analyse-amd-radeon-hd-7970-ghz-edition/launch-analyse-amd-radeon-hd-7970-ghz-edition-.
Wenn GK110 bzw. die GeForce GTX 780 erst 2013 erscheint, geht das Jahr 2012 insgesamt an AMD, was den Erwartungen der meisten Umfrageteilnehmer widerspricht.

Primär mal in Sachen Leistungsaufnahme und Lautstärke und zwar im negativen Sinne. Das war aber schon vor der GHz Edition so. AMD beschreitet da GTX480 Pfade nur nicht mit dem Performance Vorteil der GTX480.

Knuddelbearli
2012-06-24, 17:07:17
ach wer außer wakü benutzter kauft bei MD schon Referenz ? ^^

es geht eher um die leute die sehen die 680 ist die schnellste und kaufen dann eine 660 nur weill NV im Spitzenfeld die schnellere hat

Und solche Idioten gibt es leider genug

Man_In_Blue
2012-06-25, 00:22:47
ach... die Kühllösungen der Ref. Karten sinde ich eh zuvernachlässigen da bringen die AIBs hinterher doch entsprechende Lösungen... wenn mans leise will in den Preisklassen tuts dann die besagte WaKü.

Auch die letzten paar % Performancevorteil oder das bei 300% gezoomten bild doch noch irgendwie etwas bessere AA sind für mich keine echten "Vorteile" da es hier zu sehr im Gebiet des "noch messbar aber nichtmehr fühlbar" geht.

Wesentlich wichtiger sind mir da direkt sichtbare und und nutzbare Vorteile.
zB. bietet es nVidia momentan im Treiber an auf alle DX11 Titel diese verbesserte Licht/Schattenbrechnung an zu wenden. (mir ist der Name aktut entfallen) Das wertet das Spielerlebnis aber so enorm auf das ich gerade nach weit über einem Jahrzehnt in welchem ich quasie ausschließlich AMD/ATi Karten genutzt habe auf eine mehr oder minder aktuelle nVidia Karte umsteige. - PhysiX war da in der Verganenheit auch schon ein netter Ansatz und Hingucker der mich vor etwa 1,5 Jahren hat schonmal so einen Umstiegsversuch hat starten lassen. (Damals haben aber die Nachteile der NV Lösung in einer Produktionsumgebung die Vorteile beim Zocken überwogen)

Ob Radeon 7970 oder 7970 GHE wäre mir jedenfall total wurscht wenn ich eine neue AMD Karte suchen würde... =P (wieso haben se das Teil eigentlich nicht einfach 7980 genannt? naja egal)

Sören

john carmack
2012-06-25, 12:50:17
Ob Radeon 7970 oder 7970 GHE wäre mir jedenfall total wurscht wenn ich eine neue AMD Karte suchen würde... =P (wieso haben se das Teil eigentlich nicht einfach 7980 genannt? naja egal)

Sören


Ich wäre sowieso mal für eine ganz neue NamesKonvention von AMD...

Kommt wohl aber erst mit der "HD10000"

Spasstiger
2012-06-25, 12:56:05
AMD sollte sich aber besser nicht an der Namensgebung der CPU orientieren, sonst haben wir am Ende eine AMD R4-3300 oder eine AMD R8-3850.

Schaffe89
2012-06-26, 15:07:30
Ich geh mal davon aus, dass wenn AMD bei 9XXX angelangt ist wieder von vorne anfängt, also bei 1XXX.

Ailuros
2012-06-26, 15:19:33
AMD hat sich mit der HD 7970 GHz Edition wieder knapp die Performancekrone zurückgeholt:
http://www.3dcenter.org/artikel/launch-analyse-amd-radeon-hd-7970-ghz-edition/launch-analyse-amd-radeon-hd-7970-ghz-edition-.
Wenn GK110 bzw. die GeForce GTX 780 erst 2013 erscheint, geht das Jahr 2012 insgesamt an AMD, was den Erwartungen der meisten Umfrageteilnehmer widerspricht.

Unter der Vorraussetzung dass NVIDIA dieses Jahr wirklich keine schnellere GPU als die GTX680 veroeffentlicht. Ob 7970 vs. GTX680 oder 7970GHz edition vs. GTX680 sind die Unterschiede so relativ gering dass der Titel "single GPU Krone" so oder so ziemlich albern ist. Dieser Albernheit zu Liebe ist GK104 wohl nicht der einzige performance chip der in Planung steht; die Frage ist fuer wenn und wohl nicht welche GPU genau nur um einen geringen Furz schneller ist.

boxleitnerb
2012-06-26, 15:46:39
Du meinst auf Nvidia-Seite? GK104+ oder GK114? Vor Herbst wirds wohl nichts Neues geben bei Nvidia, wenn überhaupt...schätze ich.

TobiWahnKenobi
2012-06-26, 15:52:42
ich finde auch, dass die diskussion um die schnellste single-gpu-karte nie so albern und affig war wie im moment.. die beiden topmodelle schenken sich im alltag echt nichts..

btw,
kriegt man auf der 7970 TES5 irgendwie auf die optik einer NVidia mit umgebungsverdeckung?



(..)

mfg
tobi

aufkrawall
2012-06-26, 15:54:10
btw,
kriegt man auf der 7970 TES5 irgendwie auf die optik einer NVidia mit umgebungsverdeckung?

Per ENB-Gefrickel geht das.

HOT
2012-06-26, 16:54:34
Was gerne vergessen wird: AMD liefert die Tahiti-Karten mit 1GB mehr RAM aus als NV. Das mag momentan nicht wichtig zu sein, aber so eine Karte hält gut und gerne 2 Jahre... Allein die 3GB sind schon ein echtes Kaufkriterium für die AMD-Karten. Zudem ist klar, dass der GK104 eigentlich von der Effizienz her mit dem Pitcairn vergleichen werden müsste, wegen der DP-Leistung. Tahiti spielt da in einer komplett anderen Liga. Auch die kann in Zukunft interessanter werden, wenn viel GP-Kram genutzt wird. Auch das ist eine Stärke des Tahiti, die bisher nicht zutage tritt, im Laufe der Zeit aber deutlich an Bedeutung gewinnen kann. Wer die beiden Chips vergleicht, vergleicht momentan eigentlich Äpfeln mit Birnen. Der Benchmark-Status-Quo ist ebenfalls nicht unbedingt aussagekräftig für die Zukunft. Das war der Grund, warum ich letztendlich eine 7950 nahm und mich gegen eine 670 entschied (natürlich kam hinzu, dass das Angebot wirklich gut war). So kam ich nach 3 1/2 Jahren NV-Karten wieder zurück nach AMD :D.

Iruwen
2012-06-26, 16:58:58
Hat es sich in der Vergangenheit irgendwann mal rentiert eine Grafikkarte "für die Zukunft" zu kaufen? das war schon bei der überlegenen Tesselationsleistung der GTX 500er ein doofes Argument. Ich bezweifle das sich in den nächsten zwei Jahren etwas weltbewegendes tut.

dargo
2012-06-26, 17:11:40
Ob 7970 vs. GTX680 oder 7970GHz edition vs. GTX680 sind die Unterschiede so relativ gering dass der Titel "single GPU Krone" so oder so ziemlich albern ist.
Was AMD wirklich mal verbessern sollte ist die Treiberpflege. Sehr gute Hardware haben sie schon. Wo es noch etwas fehlt ist der Feinschliff bei den Treibern. Wie man an den neuen Treibern sieht verhaut die Ghz-Edition eine GTX680 bsw. in Skyrim um 30%. Das war vorher Nvidia Gebiet.
5-10% sind mir egal und nicht kaufentscheidend. Bei 30% sieht das schon etwas anders aus.

y33H@
2012-06-26, 17:14:25
Allein die 3GB sind schon ein echtes Kaufkriterium für die AMD-Karten. Zeig mir mal, wo das bei spielbaren Fps und all den Konsolen-Ports einen Unterschied macht.

Zudem ist klar, dass der GK104 eigentlich von der Effizienz her mit dem Pitcairn vergleichen werden müsste, wegen der DP-Leistung. GK104 liefert aber die höhere Spieleleistung und seit wann wird bei Consumer-Karten nach DP-Perf verglichen?

Tahiti spielt da in einer komplett anderen Liga. Auch die kann in Zukunft interessanter werden, wenn viel GP-Kram genutzt wird. Auch das ist eine Stärke des Tahiti, die bisher nicht zutage tritt, im Laufe der Zeit aber deutlich an Bedeutung gewinnen kann. Wer die beiden Chips vergleicht, vergleicht momentan eigentlich Äpfeln mit Birnen. Abwarten - davon ab kosten Apfel und Birne beide das Gleiche und sind jeweils Obst, also gleiche Liga ;-)

EDIT
Wie man an den neuen Treibern sieht verhaut die Ghz-Edition eine GTX680 bsw. in Skyrim um 30%. Das war vorher Nvidia Gebiet. What? ;D

http://www.anandtech.com/show/6025/radeon-hd-7970-ghz-edition-review-catching-up-to-gtx-680/12
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/54954-amd-radeon-hd-7970-3gb-ghz-edition-review-12.html
http://www.techpowerup.com/reviews/AMD/HD_7970_GHz_Edition/22.html
http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7970-ghz-edition/20/
http://www.pcgameshardware.de/aid,907095/Test-der-Radeon-HD-7970-GHz-Edition/Grafikkarte/Test/?page=2
http://ht4u.net/reviews/2012/amd_radeon_hd_7970_ghz_edition_tahiti_xt2_test/index23.php

Skyrim war und ist eine Kepler-Domäne! [mit neuen wie alten Treibern]

dargo
2012-06-26, 17:24:57
EDIT
What? ;D

http://www.anandtech.com/show/6025/radeon-hd-7970-ghz-edition-review-catching-up-to-gtx-680/12
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/54954-amd-radeon-hd-7970-3gb-ghz-edition-review-12.html
http://www.techpowerup.com/reviews/AMD/HD_7970_GHz_Edition/22.html
http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7970-ghz-edition/20/
http://www.pcgameshardware.de/aid,907095/Test-der-Radeon-HD-7970-GHz-Edition/Grafikkarte/Test/?page=2
http://ht4u.net/reviews/2012/amd_radeon_hd_7970_ghz_edition_tahiti_xt2_test/index23.php

Skyrim war und ist eine Kepler-Domäne! [mit neuen wie alten Treibern]
http://www.tomshardware.de/radeon-hd-7970-ghz-edition-review-benchmark,testberichte-241046-10.html

In Metro sinds auch immerhin noch +26%.
http://www.tomshardware.de/radeon-hd-7970-ghz-edition-review-benchmark,testberichte-241046-13.html

Edit:
Den Test von Anandtech in Skyrim kannst du schon mal in die Tonne kloppen. Unglaublich, dass die Reviewer nicht merken, dass sie sich im heftigen CPU-Limit befinden. :facepalm:

y33H@
2012-06-26, 17:38:06
Tom's Hardware mit FXAA *meh* aber ja, bei Anand hast du Recht - dennoch sprechen die anderen Skyrim-Werte alle eine klare Sprache: GTX 680 < HD 7970 GE

dargo
2012-06-26, 17:41:40
Tomaten auf den Augen? :D

Selbst in deinen Links sehe ich zb. bei techpowerup die 7970GE 22% vor der GTX680. Scheinbar verhalten sich die Testszenen in diesem Spiel sehr unterschiedlich.

Edit:
Boah... überall sehe ich nur Ungereimtheiten weil ständig Grafikkarten mit unterschiedlichen Treibern und nie mit den aktuellsten verglichen werden. :motz:

7970 = 58,6fps
7970GE = 70,3fps

Was fällt auf? Völlig unmöglich bei 13,5% mehr GPU- und 9% mehr Speichertakt. Aber nicht verwunderlich wenn erstere mit Cat 12.3 getestet wurde. :mad:

y33H@
2012-06-26, 18:19:42
Gut, der Treiber-Mix ist natürlich tödlich.

Thunder99
2012-06-26, 18:27:40
Der Thread hat seine Daseinsberechtigung!

Wann zuletzt konnte AMD eine Karte präsentieren die mit dem Flagschiff der Konkurenz mithalten konnte? :up:

Gut, dank nvidia und ihrem Strategiewechsel aber dennoch eine beachtliche Leistung

aufkrawall
2012-06-26, 18:44:53
Zeig mir mal, wo das bei spielbaren Fps und all den Konsolen-Ports einen Unterschied macht.
Mods, DS, Fehler & große Texturen im Auslieferungszustand.
aerofly FS braucht z.B. mit 1080px4 sicherlich über 2 GB.
Crysis 2 mit Maldo greift sich auch einiges.
Bei Nvidia fressen AA-Bits auch gerne mal ordentlich.

Blaire
2012-06-26, 18:49:25
Hat es sich in der Vergangenheit irgendwann mal rentiert eine Grafikkarte "für die Zukunft" zu kaufen? das war schon bei der überlegenen Tesselationsleistung der GTX 500er ein doofes Argument. Ich bezweifle das sich in den nächsten zwei Jahren etwas weltbewegendes tut.

HighEnd war noch nie eine gute Wertanlage.;) Aber das weiss man vorher. Da NV jedoch die Games sponsort, die mich auch interessieren, war die Wahl nicht sonderlich schwer, hinzu kommen die ganzen Features die man bei AMD vergeblich sucht. Allerdings ist derzeit ziemlich Flaute was Games betrifft, nächstes Jahr wird es da hoffentlich spannender, wenn Metro Last Light, Crysis3 & Co aufschlagen. :)

HOT
2012-06-26, 19:23:50
Hat es sich in der Vergangenheit irgendwann mal rentiert eine Grafikkarte "für die Zukunft" zu kaufen? das war schon bei der überlegenen Tesselationsleistung der GTX 500er ein doofes Argument. Ich bezweifle das sich in den nächsten zwei Jahren etwas weltbewegendes tut.
Oh ja, natürlich hat es das. Ich kaufte damals eine X1900 und die hielt echt lange obwohl damals zu Beginn von dessen Ära die NVs deutlich besser und vor allem energieeffizienter waren. Auch diese Karte hatte große Mengen Rechenleistung ggü. den NV-Karten, was sich hinterher ganz krass auswirkte - das nur als Beispiel. Oder auch als die Geforce kam war TnL noch Zukunftsmusik und es war lange die Rede davon, dass es kaum Sinn ergibt. Gibt etliche solcher Beispiele, bei denen die Zukunfttauglichkeit durchaus ein Kaufkriterium war. Wenns nicht so wäre hätte sich niemals die Voodoo Graphics durchgesetzt...

Zeig mir mal, wo das bei spielbaren Fps und all den Konsolen-Ports einen Unterschied macht.

Das ist mir doch jetzt scheissegal... Hey, die erste echte 64Bit-Spiele-Generation steht an...

GK104 liefert aber die höhere Spieleleistung und seit wann wird bei Consumer-Karten nach DP-Perf verglichen?

Wer redet von momentan? Ich glaub du hast mein Posting nicht verstanden...

Abwarten - davon ab kosten Apfel und Birne beide das Gleiche und sind jeweils Obst, also gleiche Liga ;-)

Etwas Differenzierung hat noch niemandem geschadet ;).

EDIT
What? ;D

http://www.anandtech.com/show/6025/radeon-hd-7970-ghz-edition-review-catching-up-to-gtx-680/12
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/54954-amd-radeon-hd-7970-3gb-ghz-edition-review-12.html
http://www.techpowerup.com/reviews/AMD/HD_7970_GHz_Edition/22.html
http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7970-ghz-edition/20/
http://www.pcgameshardware.de/aid,907095/Test-der-Radeon-HD-7970-GHz-Edition/Grafikkarte/Test/?page=2
http://ht4u.net/reviews/2012/amd_radeon_hd_7970_ghz_edition_tahiti_xt2_test/index23.php

Skyrim war und ist eine Kepler-Domäne! [mit neuen wie alten Treibern]

Der letzte Betatreiber brachte nochmal richtig ordentlich bei Skyrim. Ist alles eine Sache der Optimierung. Letztendlich würde ich sagen, dass die 79xx als Sieger da hervorgehen werden. MMn sieht das auch bei anderes Spielen so aus. Ich würde sagen, dass der Sprung von VLIW auf GCN einfach größer war und man viel weniger Erfahrungswerte hatte bei der Treiberentwicklung. Folglich dauert es einfach eine Weile, bis man gut optimiert hat. GCN ist grad mal ein halbes Jahr verfügbar.

Edit:
Nur um das klarzustellen: Momentan ist die 680 das rundere Produkt, aber das muss nicht so bleiben...

Gipsel
2012-06-26, 19:27:26
Den Test von Anandtech in Skyrim kannst du schon mal in die Tonne kloppen. Unglaublich, dass die Reviewer nicht merken, dass sie sich im heftigen CPU-Limit befinden. :facepalm:
TPU kannst Du fast noch mal dazunehmen. Da liefert das Spiel auf der HD7970GE bei 1920x1200 4xAA exakt gleich viele fps wie bei 1280x800 2xAA. :freak:
Erst beim Sprung auf 2560x1600 4xAA verliert die dann ~7% (fängt also gerade an, sich aus dem CPU-Limit zu lösen), während die GTX680 bei dem Schritt bereits ~26% einbricht (demzufolge ist eine HD7970GE dort auch klar schneller [+22%]).
Als Fazit aus den verschiedenen Testszenen bleibt eigentlich nur, daß je nach Szene mal eine GTX680 oder die HD7970 (egal ob GE oder nicht) vorne liegen kann, wenn die CPU nicht limitiert.

aufkrawall
2012-06-26, 19:30:59
UE4 Benchmarks mit Compute-Partikeln wären langsam mal interessant.
Schon möglich, dass die Radeon dort ihren Vorteil in die Praxis umsetzen kann.

Bei 1080p mit 8xMSAA hat sie eigentlich eh schon die Krone, wenn man die denn unbedingt vergeben will.
Zu schade, dass man bei DX9/OpenGL nicht so gutes AA wie bei Nvidia erzwingen kann.

Die Hardware an sich ist aber top und kann das bei modernen DX11 Spielen auch zeigen.

V2.0
2012-06-26, 20:00:33
Ich denke dass die 1GHz die Krone ganz klar an AMD gegeben hat, auch wenn ich schon vorher die 7970 vorne sah.

y33H@
2012-06-26, 20:34:58
Mods, DS, Fehler & große Texturen im Auslieferungszustand. aerofly FS braucht z.B. mit 1080px4 sicherlich über 2 GB.
Crysis 2 mit Maldo greift sich auch einiges. Bei Nvidia fressen AA-Bits auch gerne mal ordentlich.Aerofly habe ich nie installiert, aber u.a. Maldo ist's selbst mit DS egal ob die GTX 680 nur zwei oder vier GB hat.

dargo
2012-06-26, 20:39:55
TPU kannst Du fast noch mal dazunehmen.
Was ist denn TPU jetzt für eine Abkürzung? Ich blicke bei den ganzen Abkürzungen bald nicht mehr durch. :freak:

aufkrawall
2012-06-26, 20:42:32
Aerofly habe ich nie installiert, aber u.a. Maldo ist's selbst mit DS egal ob die GTX 680 nur zwei oder vier GB hat.
Egal wofür?
Das nimmt sich gerne 2,5 GB RAM. Nur weil die fps beim Benchen nicht niedriger werden, muss das nicht heißen, dass es nicht doch Stocker geben kann.
Wenn es sich so viel RAM nehmen will, ist es natürlich gut, ihn auch zu haben.

y33H@
2012-06-26, 20:42:41
@ dargo

TechPowerUp

http://www.techpowerup.com/

@ aufkrawall

Nur weil Tools das auslesen, muss es nicht stocken oder die Fps niedriger werden ;-)

dargo
2012-06-26, 20:43:40
Achso... X-D

Edit:
Lol... jetzt sehe ich erst, dass bei TPU die GE in 1680 langsamer ist als die non GE. :crazy:

Wie ich das immer liebe... einfach drauf losbenchen und sich die Ergebnisse nicht mal in Ruhe anschauen ob die überhaupt Sinn ergeben. Entweder wurden beide Karten hier vertauscht oder ich stelle langsam exakte Reproduzierbarkeit bei einigen Reviews echt in Frage.

Aber im Prinzip sieht man, dass man mit der GE bis hin zur 2560-er Auflösung noch heftig im CPU-Limit ist. Eigentlich müsste man nur die 5760-er Auflösung alleine betrachten. Und selbst hier hat man keine 100%-ige Gewissheit ohne Gegentests ob man sich jetzt endlich voll im GPU-Limit befindet.

aufkrawall
2012-06-26, 20:46:44
Nur weil Tools das auslesen, muss es nicht stocken oder die Fps niedriger werden ;-)
Mit meiner GTX 570 1,3 GB läuft es bei 1,3 MP stellenweise total beschissen.
700 MB mehr bei 1080p oder höher werden da nicht immer ausreichen.

y33H@
2012-06-26, 20:48:15
Das ist alles Konjunktiv - 700M mehr sind mal eben +50 % ... 1080p mit Maldo und 2G reichen easy. Crysis 2 hat kein MSAA oder dergleichen, was noch mal massiv Speicher frisst. Praxis schlägt Theorie ;-) ich bin seit Jahren ein VRAM-Verfechter, aber in dem Fall ist's echt unnötig.

aufkrawall
2012-06-26, 20:53:22
Wenn denn meinst.
Crysis 3 wird aber welches haben. Das + richtig gute Texturen = Fail bei 1080p und höher.

y33H@
2012-06-26, 20:55:06
Warten wir es ab - ich bezweifle, dass Crysis 3 im Auslieferungszustand nennenswert von 4G statt 2G in 1080p profitiert. Mit Texturmod könnte dies anders sein, das schaue ich mir dann beizeiten an.

aufkrawall
2012-06-26, 20:56:47
Warten wir es ab.
Soll ja nur noch etwas über ein halbes Jahr dauern. ;)
So viel zum Thema zukunftstauglich.
Bei +400€ müssen es mittlerweile einfach mehr als 2 GB sein.

y33H@
2012-06-26, 21:03:16
GK104 samt 256er SI und 2G ist halt kein High-End, sondern "nur" Performance - auch wenn's nicht als solches verkauft wird. Daher lasse ich auch derzeit die Finger davon.

schreiber
2012-06-26, 21:08:05
Soll ja nur noch etwas über ein halbes Jahr dauern. ;)
So viel zum Thema zukunftstauglich.
Bei +400€ müssen es mittlerweile einfach mehr als 2 GB sein.
Es hindert dich Niemand daran, zu einer 4GB-Version der 680er zu greifen.

Blaire
2012-06-26, 21:13:55
Warten wir es ab - ich bezweifle, dass Crysis 3 im Auslieferungszustand nennenswert von 4G statt 2G in 1080p profitiert. Mit Texturmod könnte dies anders sein, das schaue ich mir dann beizeiten an.

Bei nur "einer" Grafikkarte eh sehr unwahrscheinlich. Selbst bei Crysis2 3840x2160 kriegst mit einer SingleGPU garkeine spielbaren Ergebnisse hin, während der VRAM locker reichen würde.

aufkrawall
2012-06-26, 21:41:56
Es hindert dich Niemand daran, zu einer 4GB-Version der 680er zu greifen.
Mit noch unverschämterem PL-Verhältnis und womöglich weniger taktfreudigem Speicher?
Doch, die Vernunft.

dargo
2012-06-26, 21:50:38
Alter... was ist denn hier kaputt? :|
http://ht4u.net/reviews/2012/amd_radeon_hd_7970_ghz_edition_tahiti_xt2_test/index34.php

In 2560 4xAA ist die 7970GE 46% schneller als die GTX680? Und das trotz nur Cat. 12.4? :|

Irgendwas stimmt da mit dem Nvidiatreiber nicht. Kepler kann sich auch gar nicht von Fermi lösen. :confused:

Edit:
Die bei ht4u werden mir immer sympatischer.
Aber nicht immer sind die beliebtesten Spiele geeignet, um für Grafikkarten-Vergleiche herzuhalten. Beispielsweise Spiele, welche sich überwiegend CPU-limitiert zeigen, disqualifizieren sich für unseren Grafikkarten-Testparcours. Dafür findet man solche Titel dann in unserem CPU-Benchmarkparcours wieder.

Da hat wohl einer was von Spielebenchmarks verstanden. =)

Schaffe89
2012-06-26, 22:00:03
Praxis schlägt Theorie ;-) ich bin seit Jahren ein VRAM-Verfechter, aber in dem Fall ist's echt unnötig.

Bei der GTX 570 war es beisspielsweise nötig, auch bei der HD 5870 1GB.
Alles V-ram Krüppel erster Güte. Noch schnell genug, aber für einige Settings zu lahm.

Ähnlich wirds wohl auch der GTX 680 ergehen, oder eher noch der GTX 660 die angeblich mit schnöden 1,5gb daherkommen soll.

rgendwas stimmt da mit dem Nvidiatreiber nicht. Kepler kann sich auch gar nicht von Fermi lösen.

DAs ist doch bei mehreren Spielen so, ergo nicht ungewöhnlich.
Hat sich schonmal einer den Performancesprung von GCN bei Dirt 3 reingezogen? Sind teilweise satte 20%.

dargo
2012-06-26, 22:04:35
Hat sich schonmal einer den Performancesprung von GCN bei Dirt 3 reingezogen? Sind teilweise satte 20%.
Ja... das ist zumindest mir bekannt. Schön wäre es wenn AMD in Zukunft direkt solche "Lecks" beseitigt. Dann kann man auch in den ersten Reviewtests sofort glänzen. ;)

Und was sehe ich bei Dirt: Showdown... X-D
http://ht4u.net/reviews/2012/amd_radeon_hd_7970_ghz_edition_tahiti_xt2_test/index32.php

+53% dürfte wohl der Höchststand sein. Hier haut selbst Pitcairn die GTX680. :crazy:

Knuddelbearli
2012-06-26, 22:32:26
die sollen mal lieber sc2 fixen da sieht es ja leider mit aa umgekehrt aus

dargo
2012-06-26, 22:40:02
Hehe... ich wäre für BF3. Damit verbringe ich wohl die meiste Zeit. :D

Aber da BF3 locker bis ins Jahr 2013 am Leben bleibt kommt vielleicht dafür auch ein Hornytreiber. :upara:

Knuddelbearli
2012-06-26, 22:40:51
ach die paar prozent bei so nem schrottgame jucken mich nicht ^^

Iruwen
2012-06-27, 10:00:11
Die zugrundeliegende Frostbite 2 Engine wird für diverse kommende Spiele unter EAs Fuchtel genutzt werden, neben den Battlefield Ablegern z.B. auch Mirror's Edge und Need for Speed.
Warum will eigentlich keiner die Crytek Engines haben? Die Liste der Spiele die die verwenden ist, wenn der Wikipedia Artikel korrekt ist, mehr als mau.

HOT
2012-06-27, 10:53:50
Es hindert dich Niemand daran, zu einer 4GB-Version der 680er zu greifen.
Ähm Lieferbarkeit + Preise?
Warten wir es ab - ich bezweifle, dass Crysis 3 im Auslieferungszustand nennenswert von 4G statt 2G in 1080p profitiert. Mit Texturmod könnte dies anders sein, das schaue ich mir dann beizeiten an.
Warum nicht? Ich würde sagen, es kommt darauf an. Sollte Crysis 3 wirklich High-End werden und vor allem nurnoch 64Bit unterstützen, wird das mit den 2GB-VRAM bei sehr hohen Details unter Garantie knapp, weil man dann ganz andere Datengrößen verarbeiten kann. Sollte ein Unreal3 kommen (oder etwas ähnliches), wie von Epic als PC-Only-Titel angekündigt, werden auch dort die 2GB unter Garantie nicht mehr reichen, wenn man alle Register zeihen will... Auch EAs Frostbyte2 64Bit-Generation, die angekündigt wurde durch EA, dürfte an der ein oder anderne Stelle den 2GB-Rahmen sprengen. Wir stehen an der Schwelle zu einer Spielegeneration, die mit der jetzigen absolut nicht vergleichbar ist. Es wird wieder einige Titel geben, die Technologieträger für die Engines sind und dort werden Details wieder eine größere Rolle spielen als Marktgröße (und sie werden trotzdem Hits, so wie in der Vergangenheit auch).

Knuddelbearli
2012-06-27, 11:02:44
hmm verbesser mich wenn ich micht täusche aber das 64 bit betrifft doch nur den Ram des PCs nicht den VRAM der GPU die ist doch davon unabhängig

dargo
2012-06-27, 11:03:31
@HOT
Öhm... was haben 64Bit jetzt mit den 2GB Vram zu tun? Ich glaube du verwechselst da was.

dildo4u
2012-06-27, 11:04:53
Die 64Bit Frostbite Spiele beschränken sich wohl erstmal nur auf das PC only Game Generals 2,alles was für Konsole kommt wird weiter 32bit sein genau wie Crysis 3.

Knuddelbearli
2012-06-27, 11:06:17
naja 32bit ohne flag kann ca 2gb pro prozess beinhalten aber wie gesagt das ist meines wissens nur für den Ram nicht für den Vram von belang