PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - 2900Pro-Review-Thread


Seiten : 1 2 [3]

Mumins
2007-10-15, 17:57:30
Da mir dieses Zeichen assoziert, dieses Game müsste einer ATI Karte gerade zu auf den Leib geschneidert sein.
Oder taucht dieses Zeichen einfach nur wegen marketing technischen Gründen im Graphikmenü auf ?

Wie viele TWIMTBP Titel gibt es die auf ATI Hardware besser laufen? Richtig zig Titel.

Cubitus
2007-10-15, 18:05:42
Wie viele TWIMTBP Titel gibt es die auf ATI Hardware besser laufen? Richtig zig Titel.

sicher gibt es auch Titel die mit der 8800er Probleme hatten
wie z.b Republic Commando, aber ich kann mich noch gut daran erinnern, dass HL2 anno 2004 wirklich mit einer ATI besser bedient war.
man erinnere sich an die DX8 Begrenzung bei der 5000er Serie.

Trotzdem liegt NV atm ganz klar vorne, nenn mir nur einen TWIMTBP Titel wo die 2900er Serie mehr Details darstellt als die 8800er Generation.

The_Invisible
2007-10-15, 18:05:58
Wie viele TWIMTBP Titel gibt es die auf ATI Hardware besser laufen? Richtig zig Titel.

mit der aktuellen generation sicher nicht. außerdem gehts hier um details und nicht performance.

mfg

Gast
2007-10-15, 18:23:59
EDIT: Mit Cheatvermutungen wär ich an deiner Stelle generell eher vorsichtig. Denn diesbezüglich tun sich zB gerade beim integrierten WiC-Benchmark ein paar Fragen auf.

Das klingt aber interessant. Könntest du da bitte genauer werden?

PCGH_Carsten
2007-10-15, 18:27:15
Das klingt aber interessant. Könntest du da bitte genauer werden?
^^ich


Ati scheint wieder zu "cheaten" Wieder einmal fehlen Details und Beleuchtungen in HL2 Episode2.

http://enthusiast.hardocp.com/images/articles/1192319993CCET4fmmbJ_7_18_l.png

http://enthusiast.hardocp.com/images/articles/1192319993CCET4fmmbJ_7_15_l.png

Das hab ich alles schon damals bei HL2 Lost Coast bemerkt (X1900XT vs. 7800GTX) alles nix neues für mich. Fehlende Zäune gibts ja auch keine... ;)
Das mit dem Licht ist mir gestern auch aufgefallen, hab's aber nochmal verglichen: Die (körnigen) Schatten sind auch auf den Atis vorhanden, sind nur "schwächer", also nicht so gut sichtbar. Das kann durchaus ein Blending-"Problem" sein oder ist so gewollt, da Ati ja in den Shadern resolved und dadurch ein sehr hochwertiges, programmierbares FSAA zustande bringt. Vielleicht ist das hier ein Resultat des unterschiedlichen Samplings zwischen den beiden?

Coda
2007-10-15, 18:33:54
Das hat sicher nichts mit dem AA-Resolve zu tun.

Gaestle
2007-10-15, 18:36:37
HL² hat für bestimmte HW bestimmte Ingamedetails. Ist eine Grafikkarte nicht bekannt, gibts keine 'vollen' Details.

Wo kann man darüber mehr erfahren?

Mr. Lolman
2007-10-15, 18:45:19
Das klingt aber interessant. Könntest du da bitte genauer werden?

Ich kann erst genaueres sagen, wenn ichs selbst nachtesten kann, aber der fps-Verlauf auf PCPer zeigt, dass NV deutliche Aussreisser nach oben zeigt, während ATI eher gleichmässig (langsam) performt. Da Ingame solche nicht Ausreisser zustande kommen, enstand die Vermutung, dass da ne Erkennungsroutine am Laufen ist, eben wie damals die 'hard coded clipping plane'-Geschichte bei Futuremark....

Wo kann man darüber mehr erfahren?

Hab ich irgendwann im Forum gelesen. Iirc wars so, dass in ner Konfigdatei die einzelnen Grafikchips und die dazugehörigen Settings aufgelistet waren. Bin aber jetzt nicht so der HL²-Geek und weiss das deswegen jetzt auch nicht genauer. Sry.

PCGH_Carsten
2007-10-15, 18:50:17
Das hat sicher nichts mit dem AA-Resolve zu tun.
Das habe ich auch nicht geschrieben. Diese Worte tauchten lediglich in meinem Posting auf.

Es wäre im Übrigen toll, wenn du konstruktiv etwas beitragen könntest, anstatt immer nur zu versuchen, alle außer dir wie dumme Kinder dastehen zu lassen. :)

sklave_gottes
2007-10-15, 18:54:49
Und rechnen und Logik sind nicht so Deine Stärke, oder? Diese "12%" sind ein gewichteter Überblick. In den Spielen, in denen die GTS ihre Stärken hat (und das sind nun wirklich eine ganze Menge), ist sie dann dementsprechend auch vor einer XT, schau doch mal auf den vom Lolman verlinkten Benchmark DX-10 WiC, in 1600*1200 4AA/16AF ist die GTS wieder schneller, nur ein paar % aber immerhin und wir fangen doch nicht wieder mit dem Spielen und Benchen ohne AA/AF an, oder? :rolleyes: Deine Aussagen sind Pauschalaussagen und ich habe lediglich gesagt:

AMC


Ja ist ja gut deine Karte ist die beste.
Ist dir schonmal aufgefallen das für viele Spiele die leistung einer 8800gts 320MB für 4aa/16af garnicht mehr ausreicht ?
Darunter so gut wie alle titel unter dx10 = World in Conflict, Company of Heroes, Call of Juarez, Bioshock und auch etliche dx9 titel die ich jetzt nicht aufzählen will. Also lieber ruckel zuckel mit wenig fps haupsache die gts 320 sieht neben der konkurenz besser aus. Denk mal drüber nach.
Die HD2900xt ist in etwa so schnell wie eine 8800gts. Und die 8800gts 320 bis 1280x1024 bissel schneller als eine HD2900pro.

mfg martin

PCGH_Carsten
2007-10-15, 18:55:54
Ich kann erst genaueres sagen, wenn ichs selbst nachtesten kann, aber der fps-Verlauf auf PCPer zeigt, dass NV deutliche Aussreisser nach oben zeigt, während ATI eher gleichmässig (langsam) performt. Da Ingame solche Ausreisser zustande kommen, enstand die Vermutung, dass da ne Erkennungsroutine am Laufen ist, eben wie damals die 'hard coded clipping plane'-Geschichte bei Futuremark....
Komisch - dass die Jungs bei PCPer überhaupt kaum Verbesserungen mit den neuen Cats erreichen konnten. Beim Raff hat der Treiber richtig was gerissen:
http://www.pcgameshardware.de/screenshots/original/2007/10/WorldinConflict2900XTVistax86.jpg


Hab ich irgendwann im Forum gelesen. Iirc wars so, dass in ner Konfigdatei die einzelnen Grafikchips und die dazugehörigen Settings aufgelistet waren. Bin aber jetzt nicht so der HL²-Geek und weiss das deswegen jetzt auch nicht genauer. Sry.
Das sollte eigentlich nur für die default-Einstellungen gelten, die bei einem HW-Wechsel jedesmal neu geladen werden. So bietet EP2 zum Beispiel auf keiner Karte, die ich ausprobierte "Very High" als default-Textureinstellung an. 512er-Karten bekamen "High", 256er "Medium".

Madkiller
2007-10-15, 19:05:33
Komisch - dass die Jungs bei PCPer überhaupt kaum Verbesserungen mit den neuen Cats erreichen konnten. Beim Raff hat der Treiber richtig was gerissen:
http://www.pcgameshardware.de/screenshots/original/2007/10/WorldinConflict2900XTVistax86.jpg

Ya, solche Unterschiede sind schon seltsam.
Bei Bioshock gibts da auch komische Sachen:
Bei meinen Messungen zieht die 2900XT der 8800GTS mehr als deutlich unter XP32 davon. Auch gibt es deutliche Unterschiede in der Performance zwischen XP32 und Vista64 wo erst vor ein paar Tagen ein Artikel einer anderen Seite hier bei 3DC in den News behandelt wurden, wo alle Werte innerhalb der Messungenauigkeiten sind.

Hängt wohl wirklich sehr stark davon ab, was genau man testet...

AMC
2007-10-15, 19:34:31
Ja ist ja gut deine Karte ist die beste.
Ist dir schonmal aufgefallen das für viele Spiele die leistung einer 8800gts 320MB für 4aa/16af garnicht mehr ausreicht ?
Darunter so gut wie alle titel unter dx10 = World in Conflict, Company of Heroes, Call of Juarez, Bioshock und auch etliche dx9 titel die ich jetzt nicht aufzählen will. Also lieber ruckel zuckel mit wenig fps haupsache die gts 320 sieht neben der konkurenz besser aus. Denk mal drüber nach.
Die HD2900xt ist in etwa so schnell wie eine 8800gts. Und die 8800gts 320 bis 1280x1024 bissel schneller als eine HD2900pro.

mfg martin

Für mich ist mit Dir hier EOD, da Du kaum als Diskussionspartner in Frage kommst. Klar, für einen ATI FB sind nun schwere Zeiten angerückt, für mich, als jemanden, der jede Generation erneut auswürfelt, welche Karte er kauft, allerdings nicht. Ich bin zum Glück noch in der Lage auch die Benchmarks zu akzeptieren, die mir nicht gefallen. Abschliessend sei Dir gesagt, dass die GTS 320 bis 1600*1200 und in vielen Spielen auch darüber fast en par mit der 640er ist und damit schneller oder gleichschnell wie eine XT, in einigen Spielen auch schneller, genau wie die "Große" GTS. Ich könnte jetzt genug Reviews und Spiele aufzällen, lasse es aber gut sein in dem Wissen, das Du zu wissen scheinst, welche Karte ich besitze. :biggrin:

AMC

EOD mit Dir.

Nachtrag: Mal abgesehen davon, dass viele Spiele sogar in Auflösungen > 1600 keine Probleme auf einer 320er GTS machen, aber das ist Dir sicher nicht bekannt...

PCGH_Carsten
2007-10-15, 19:42:21
Ya, solche Unterschiede sind schon seltsam.
Bei Bioshock gibts da auch komische Sachen:
Bei meinen Messungen zieht die 2900XT der 8800GTS mehr als deutlich unter XP32 davon. Auch gibt es deutliche Unterschiede in der Performance zwischen XP32 und Vista64 wo erst vor ein paar Tagen ein Artikel einer anderen Seite hier bei 3DC in den News behandelt wurden, wo alle Werte innerhalb der Messungenauigkeiten sind.

Hängt wohl wirklich sehr stark davon ab, was genau man testet...
Sicher, aber so wie's aussieht, haben die PCPerer wie wir/Raff den integrierten Benchmark benutzt - der sollte ja weniger Varianz aufweisen als zwei unterschiedliche Savegames oder sowas.

Gast
2007-10-15, 19:51:28
Die PCPerer haben auch den 7.10 Beta (8.42) verwendet und nicht den 7.10 Final (8.421) wenn ich das richtig sehe. Wieviel unterschied es in den Version gibt weiß ich jetzt nicht.

Matrix316
2007-10-15, 20:05:30
Was zum Geier ist denn PCP? Eine neue Zeitschrift?:eek::wink:

Was mir nicht gefällt ist, dass alle neueren Karten, selbst eine 8800GTS mit 640 MB, für DX10 Games kaum wirklich gute Performance zeigen, mit viel AA, AF und hoher Auflösung.

Mr. Lolman
2007-10-15, 20:58:32
Exklusiv fürs 3DCenter-Forum - ein paar Vorabergebnisse aus Madkillers kommenden Performancereport:


Bioshock, Fontain Savegame (E6750@3.2GHz, XP 32bit): 1600x1200 16xAF

1900XT: 29.4fps
8800GTS: 33.7fps
2900XT: 53.6fps

LovesuckZ
2007-10-15, 21:02:29
Toll. Das ist bekannt - vielleicht für dich nicht, aber für den geneigten Leser schon.
Wo ist D3D10? Wurde A.I Off gegen HQ verglichen? Wird auf die Lautstärke während des Spielens eingegangen? Wird der Stromverbrauch angegeben?
Aber ey, wenigsten wieder etwas haben, um damit die nächsten 10 Jahre mitzudiskutieren, gell?

desert
2007-10-15, 21:08:03
Ich kann erst genaueres sagen, wenn ichs selbst nachtesten kann, aber der fps-Verlauf auf PCPer zeigt, dass NV deutliche Aussreisser nach oben zeigt, während ATI eher gleichmässig (langsam) performt. Da Ingame solche nicht Ausreisser zustande kommen, enstand die Vermutung, dass da ne Erkennungsroutine am Laufen ist, eben wie damals die 'hard coded clipping plane'-Geschichte bei Futuremark....



Hab ich irgendwann im Forum gelesen. Iirc wars so, dass in ner Konfigdatei die einzelnen Grafikchips und die dazugehörigen Settings aufgelistet waren. Bin aber jetzt nicht so der HL²-Geek und weiss das deswegen jetzt auch nicht genauer. Sry.


warum sagst du nicht die volle wahrheit. das damals der treiber von nvidia sachen die nicht sichtbar waren nicht berechnet hat. hätte ati sowas gebracht, wäre es ja sogar gut gewesen für dich, warum soll die grafikkarte etwas berechnen was man nicht sieht, aber halt nur wenn man ati heisst. Genau wie für dich optimierungen schlecht sind wenn sie von nvidia kommen, von ati hingegen sind sie gott, weil sie der mehrheit nicht auffallen. Das das zwar bei nvidia auch so ist, ist erst mal nebensächlich, weil es ja dir auffällt und du bist schliesslich alle.

Und das plötzlich die ati sowas von abgeht in dem spiel, kommt dir nicht untersuchungswürdig vor? Aber nein warum auch, ist ja halt auch die ati, die machen sowas halt, so ohne grosse probleme.

Würde nvidia so einen schub haben, würde das sofort untersucht werden.

Und wie kommt das das die hd2900 mit a.i. off einbricht wenn af an ist, wo doch das nur shaderreplacements sein sollen, komischerweise das die karte aber kalt lässt ob nun on oder off, wenn aa/af aus ist.

beos
2007-10-15, 21:09:49
So - ich hab mir gestern bei einem Kumpel die 2900pro "angehört" und muss leider feststellen, dass die Karte nur für Leute etwas ist, die mit Kopfhörern vom Rechner sitzen....

Schon im Idle war sie lauter wie seine alte 7900GTO unter Last - im Betrieb denkt man, man hat einen Moped neben sich stehen (naja - ok es sinkt nicht so ;) )

Also muss ich auf die neuen Karten im Nov warten ;(

Jake Dunn
2007-10-15, 21:10:16
Hier stand mist.

Gast
2007-10-15, 21:17:06
@Mr. Lolman
Das ist DX9 ne? :wink: Ich hab die 2900Pro@850/950 im Lani stecken und kann ähnliches bestättigen bei BS, es gibt ein sehr geringen unterschied zu meiner 8800GTX (Ultra Bios) in DX9.

Ich hab letztens die Crysis Beta mal getestet und muß staunen das es auch da wenig unterschied gibt bei 1680x1050 und High Details, wo es auf der OC Pro nicht mehr rund läuft reißt es die 8800GTX auch nicht mehr raus.
Für 220€ super Preis/Leistung.

Mr. Lolman
2007-10-15, 21:24:32
Toll. Das ist bekannt - vielleicht für dich nicht, aber für den geneigten Leser schon.

Erwischt. Es war mir in der Tat nicht bekannt, dass der R600 in Bioshock tw. um 60% flotter als die direkte Konkurrenz ist.


Wo ist D3D10? Wurde A.I Off gegen HQ verglichen?

D3D10 wurde auch verglichen. Dass da die Performance (noch) nicht optimal ist, ist bekannt - vielleicht für dich nicht, aber für den geneigten Leser schon.


Wird auf die Lautstärke während des Spielens eingegangen? Wird der Stromverbrauch angegeben?

Keine Ahnung, ich kenn den Text nicht.


Aber ey, wenigsten wieder etwas haben, um damit die nächsten 10 Jahre mitzudiskutieren, gell?

Nö. Ich wollt nur ein paar vom R600 = Rohrkrepierer-Trip runterholen.

warum sagst du nicht die volle wahrheit. das damals der treiber von nvidia sachen die nicht sichtbar waren nicht berechnet hat. hätte ati sowas gebracht, wäre es ja sogar gut gewesen für dich, warum soll die grafikkarte etwas berechnen was man nicht sieht, aber halt nur wenn man ati heisst. Genau wie für dich optimierungen schlecht sind wenn sie von nvidia kommen, von ati hingegen sind sie gott, weil sie der mehrheit nicht auffallen. Das das zwar bei nvidia auch so ist, ist erst mal nebensächlich, weil es ja dir auffällt und du bist schliesslich alle.

Was laberst du da schon wieder? Clippingplanes wie bei 3dmark waren ein übler Cheat, weil sie nur bei vordefinierten Kamerafarten funktionieren. Also Ingame nicht zu gebrauchen und leistungsverfälschend.


Und das plötzlich die ati sowas von abgeht in dem spiel, kommt dir nicht untersuchungswürdig vor? Aber nein warum auch, ist ja halt auch die ati, die machen sowas halt, so ohne grosse probleme.

Würde nvidia so einen schub haben, würde das sofort untersucht werden.

Es ist sicher untersucht worden, außerdem wär ja rein von den technischen Daten, das Potential ohnehin da. Ein paar Monate vor dem R600-Release waren die Treiber noch nichtmal stabil. Da kannst du dir leicht ausrechnen, was da noch für Optimierungspotential schlummert(e).


Und wie kommt das das die hd2900 mit a.i. off einbricht wenn af an ist, wo doch das nur shaderreplacements sein sollen, komischerweise das die karte aber kalt lässt ob nun on oder off, wenn aa/af aus ist.

Wer behauptet sowas?

desert
2007-10-15, 21:35:08
Exklusiv fürs 3DCenter-Forum - ein paar Vorabergebnisse aus Madkillers kommenden Performancereport:


Bioshock, Fontain Savegame (E6750@3.2GHz, XP 32bit): 1600x1200 16xAF

1900XT: 29.4fps
8800GTS: 33.7fps
2900XT: 53.6fps

und mal ganz ehrlich solange das nicht von neutraler stelle nachgemessen wurde, glaube ich euch erstmal überhaupt nichts mehr.

Erst verliert ja die hd 2900 unter a.i. off nichts, jetzt kommt bei tests heraus das sie wohl doch so mal 20-30 % verliert.

Dann wird hier felsenfest behauptet das die bildqualität vergleichbar ist, komischerweise nur hier. Alle anderen seiten sehen nivida vorne. jetzt schreibt sogar raff das die bildqualität vom r600 a.i. off selbst g80 hq nicht erreicht. aber hauptsache weiterbenchen mit a.i. standard gegen g80 hq.

so kommt das ergebnis schon raus was wir brauchen.

genauso wie bei den perfomancereports, lug und betrug überall. Da verschweigen, da übertreiben.

Da wird dem g80 unterstellt im fazit, ich zitiere jetzt mal :

The Elder Scrolls IV: Oblivion Performance: ausgeglichen
Spielbarkeit: ATI vernünftig, nVidia ungenügend Performance: ausgeglichen
Spielbarkeit: ATI grenzwertig, nVidia ungenügend Performance: ausgeglichen
Spielbarkeit: ATI grenzwertig, nVidia ungenügend.

jo ist klar. aber wird noch besser aus perfomancereport tdu:

Gfx für 1600x1200
16xAF GeForce 7900 GS oder Radeon X1900 XT GeForce 7950 GT oder Radeon X1900 XT GeForce 7900 GS SLI oder Radeon X1900 XT CrossFire GeForce 7900 GS SLI oder Radeon X1900 XT CrossFire

komischerweise ist vorher die 7950 gt fast so schnell wie die x1900xt. nur komischerweise kommt es im fazit so rüber das ich für tdu aufjedenfall sli brauche, während bei ati nur eine wunderkarte langt. Das das denn zwar plötzlich aus der 7950 gt ein 7900gs sli wird, fällt dem leser der einfach nur wissen will was ist schneller gar nicht mehr auf.

Der geht mit der erkenntnis aus dem test das die ati so schnell ist wie 2 karten von nvidia. das aber eine 7950 gt gute 25 % schneller als eine 7900 Gs ist und eine 7900 gtx gute 15 % schneller als eine 7950gt ist und somit ausreichend wäre, wird einfach übersehen oder verschwiegen?

Aber immerhin ist der tag gerettet den ati hat nvidia wieder gezeigt wo der hammer hängt;)

ich wunder mich nur immer wieder wie gut nvidia abschneidet, trotz der ganzen komischen tests.

Bei hardtecs4u wird jetzt auch standard gegen hq gebencht, die angekündigten a.i. ergebnisse werden erst gar nicht veröffentlicht.

Mr. Lolman
2007-10-15, 21:39:38
Nur weil dir die Ergebnisse nicht in den Kram passen, ist Madkiller aufeinmal biased?

...und weder 3DC noch PCGH oder Computerbase benchen R600-default gegen G80-HQ!

Welcome to ATICenter. :biggrin: Aber hey, warten wir einfach auf Lolmans ersten Artikel. Seher: Nur hier wird dann die R600 da sein, wo sie "hingehört", nach ganz vorne. Selbst, wenn dazu unendlich viele Savegames und Einstellungen gesucht werden müssen, um den einen Hotspot zu finden, der im savegame und im Screenshot die R600 vorne sieht, hier gewinnen noch die "richtigen" Karte. Langsam wird es echt lächerlich, sorry.

AMC

Du irrst dich. Der Artikel wird rein von ATis AI handeln und direkte Vergleiche mit NV aussen vor lassen. Außerdem verzögert sich das Ganze ohnehin noch ein bisschen.

AMC
2007-10-15, 21:41:04
und mal ganz ehrlich solange das nicht von neutraler stelle nachgemessen wurde, glaube ich euch erstmal überhaupt nichts mehr.

Erst verliert ja die hd 2900 unter a.i. off nichts, jetzt kommt bei tests heraus das sie wohl doch so mal 20-30 % verliert.

Dann wird hier felsenfest behauptet das die bildqualität vergleichbar ist, komischerweise nur hier. Alle anderen seiten sehen nivida vorne. jetzt schreibt sogar raff das die bildqualität vom r600 a.i. off selbst g80 hq nicht erreicht. aber hauptsache weiterbenchen mit a.i. standard gegen g80 hq.

so kommt das ergebnis schon raus was wir brauchen.

genauso wie bei den perfomancereports, lug und betrug überall. Da verschweigen, da übertreiben.

Da wird dem g80 unterstellt im fazit, ich zitiere jetzt mal :

The Elder Scrolls IV: Oblivion Performance: ausgeglichen
Spielbarkeit: ATI vernünftig, nVidia ungenügend Performance: ausgeglichen
Spielbarkeit: ATI grenzwertig, nVidia ungenügend Performance: ausgeglichen
Spielbarkeit: ATI grenzwertig, nVidia ungenügend.

jo ist klar. aber wird noch besser aus perfomancereport tdu:

Gfx für 1600x1200
16xAF GeForce 7900 GS oder Radeon X1900 XT GeForce 7950 GT oder Radeon X1900 XT GeForce 7900 GS SLI oder Radeon X1900 XT CrossFire GeForce 7900 GS SLI oder Radeon X1900 XT CrossFire

komischerweise ist vorher die 7950 gt fast so schnell wie die x1900xt. nur komischerweise kommt es im fazit so rüber das ich für tdu aufjedenfall sli brauche, während bei ati nur eine wunderkarte langt. Das das denn zwar plötzlich aus der 7950 gt ein 7900gs sli wird, fällt dem leser der einfach nur wissen will was ist schneller gar nicht mehr auf.

Der geht mit der erkenntnis aus dem test das die ati so schnell ist wie 2 karten von nvidia. das aber eine 7950 gt gute 25 % schneller als eine 7900 Gs ist und eine 7900 gtx gute 15 % schneller als eine 7950gt ist und somit ausreichend wäre, wird einfach übersehen oder verschwiegen?

Aber immerhin ist der tag gerettet den ati hat nvidia wieder gezeigt wo der hammer hängt;)

ich wunder mich nur immer wieder wie gut nvidia abschneidet, trotz der ganzen komischen tests.

Bei hardtecs4u wird jetzt auch standard gegen hq gebencht, die angekündigten a.i. ergebnisse werden erst gar nicht veröffentlicht.

Welcome to ATICenter. :biggrin: Aber hey, warten wir einfach auf Lolmans ersten Artikel. Seher: Nur hier wird dann die R600 da sein, wo sie "hingehört", nach ganz vorne. Selbst, wenn dazu unendlich viele Savegames und Einstellungen gesucht werden müssen, um den einen Hotspot zu finden, der im savegame und im Screenshot die R600 vorne sieht, hier gewinnen noch die "richtigen" Karte. Langsam wird es echt lächerlich, sorry.

AMC

Mumins
2007-10-15, 21:41:52
Desert hat wohl zu viel Paranioa. Was sollte Madkiller davon haben Ergebnisse zu fälschen? ATIcenter? Ihr habt null Plan bis zum R580 wollte ATI nichtmal ein Testsample rausrücken.

Blaire
2007-10-15, 21:45:42
Es ist sicher untersucht worden, außerdem wär ja rein von den technischen Daten, das Potential ohnehin da. Ein paar Monate vor dem R600-Release waren die Treiber noch nichtmal stabil. Da kannst du dir leicht ausrechnen, was da noch für Optimierungspotential schlummert(e).

Welches denn? Die ganzen Tests zeigen etwas völlig anderes bis auf ein paar wenige Ausnahmen die ich eher als Bugfixes verstehe die längst fällig waren , wollte man nicht langsamer als eine X1950XTX sein... Und NO FSAA Benches...ach reden wir nicht darüber. :D

AMC
2007-10-15, 21:49:33
und mal ganz ehrlich solange das nicht von neutraler stelle nachgemessen wurde, glaube ich euch erstmal überhaupt nichts mehr.

Wahrscheinlich so eine Stelle wie damals in Oblivion die Portale. Wenn in 99.9% eine GTS in DX-9 eine XT killt, so haben sie hier die eine Stelle gefunden, wo es anders ist. Abgesehen davon ist seit dem HardOCP-Bench bekannt, das die R600 in DX-9 nicht ganz so schlecht dasteht in Bioshock, wie in DX-10 (wo sie inklusive 4AA/16AF gegen die GTS 320/640 verliert.)


Erst verliert ja die hd 2900 unter a.i. off nichts, jetzt kommt bei tests heraus das sie wohl doch so mal 20-30 % verliert.

Zu dem Thema soll angeblich noch etwas kommen, zumindest deutete aths das an.


Dann wird hier felsenfest behauptet das die bildqualität vergleichbar ist, komischerweise nur hier. Alle anderen seiten sehen nivida vorne. jetzt schreibt sogar raff das die bildqualität vom r600 a.i. off selbst g80 hq nicht erreicht. aber hauptsache weiterbenchen mit a.i. standard gegen g80 hq.

Man sucht sich die Rosinen raus, wo sie liegen. ;)


Da wird dem g80 unterstellt im fazit, ich zitiere jetzt mal :

The Elder Scrolls IV: Oblivion Performance: ausgeglichen
Spielbarkeit: ATI vernünftig, nVidia ungenügend Performance: ausgeglichen
Spielbarkeit: ATI grenzwertig, nVidia ungenügend Performance: ausgeglichen
Spielbarkeit: ATI grenzwertig, nVidia ungenügend.

jo ist klar. aber wird noch besser aus perfomancereport tdu:

Gfx für 1600x1200
16xAF GeForce 7900 GS oder Radeon X1900 XT GeForce 7950 GT oder Radeon X1900 XT GeForce 7900 GS SLI oder Radeon X1900 XT CrossFire GeForce 7900 GS SLI oder Radeon X1900 XT CrossFire

komischerweise ist vorher die 7950 gt fast so schnell wie die x1900xt. nur komischerweise kommt es im fazit so rüber das ich für tdu aufjedenfall sli brauche, während bei ati nur eine wunderkarte langt. Das das denn zwar plötzlich aus der 7950 gt ein 7900gs sli wird, fällt dem leser der einfach nur wissen will was ist schneller gar nicht mehr auf.

Der geht mit der erkenntnis aus dem test das die ati so schnell ist wie 2 karten von nvidia. das aber eine 7950 gt gute 25 % schneller als eine 7900 Gs ist und eine 7900 gtx gute 15 % schneller als eine 7950gt ist und somit ausreichend wäre, wird einfach übersehen oder verschwiegen?

Das ist mir auch aufgestossen.


ich wunder mich nur immer wieder wie gut nvidia abschneidet, trotz der ganzen komischen tests.

Das erste Argument hier ist dann, dass alle anderen schlicht zu blöd sind zu benchen, siehe Kommentare zu dem THG DX-10 Test. Ich persönlich halte den Test für glaubwürdig, er demonstriert den grottigen VRAM-Bug ebenso, wie die schlechte Performance der R600. Aber warte mal ab, in 1 Jahr kannst du hier lesen, dass die R600 eigentlich doch sogar schneller war, als der G80, es braucht nur Zeit und ganz viele Wiederholungen desselben Mantras.


Bei hardtecs4u wird jetzt auch standard gegen hq gebencht, die angekündigten a.i. ergebnisse werden erst gar nicht veröffentlicht.

Nicht Dein ernst?

AMC

Gast
2007-10-15, 21:50:49
Desert hat wohl zu viel Paranioa. Was sollte Madkiller davon haben Ergebnisse zu fälschen?ATIcenter? Ihr habt null Plan bis zum R580 wollte ATI nichtmal ein Testsample rausrücken.

Wieso`? vllt. hat er einfach nicht die Ahnung? es gibt 100er seiten wo was anderes zeigen, und mit einmal so ein krasser unterschied? Aber schaun wir mal wie es weiter gayt.

Gast
2007-10-15, 21:50:57
Welcome to ATICenter. :biggrin: Aber hey, warten wir einfach auf Lolmans ersten Artikel. Seher: Nur hier wird dann die R600 da sein, wo sie "hingehört", nach ganz vorne. Selbst, wenn dazu unendlich viele Savegames und Einstellungen gesucht werden müssen, um den einen Hotspot zu finden, der im savegame und im Screenshot die R600 vorne sieht, hier gewinnen noch die "richtigen" Karte. Langsam wird es echt lächerlich, sorry.

AMC

Oh man... Das einzige was hier lächerlich ist, bist du. ;) Inwischen weiß wirklich jeder was du vom R600/ATI hälst. So nun ist aber wirklich langsam gut. Jeder der hier einigermaßen gründlich mitliest weiß um die schwächen des R600. Vielleicht können wir ja mal wieder zu einer gesitteten Diskussion zurückkehren.

desert
2007-10-15, 21:55:45
hier z.b. Robbitop


...Wenn man Benchen wuerde ohne nachzudenken stimmt das in der Tat. Wie schon im BQ Teil beschrieben, sieht man in der Praxis -im Gegensatz zur R580 - keinen Unterschied mehr zwischen AI on und AI off. AI flimmert beim R600 nicht. Da die BQ ausgezeichnet war, entschlossen wir uns, AI on zu benchen. Mit AI off waeren alle gamespezifischen Optimierungen ausgewesen. Das waere was fuer ATI basher geworden. Sinnvolle Messungen waeren das hingegen nicht gewesen...

so und raff hat ja nun gerade in der pcgh dargelegt das das was robbitop hier geschrieben hat einfach nicht stimmt

stalker 1280 x 1024, hd 2900 xt
a.i. on 55,2 fps
a.i. off 55 fps

wo sind denn die optimierungen oder sind es etwa doch nur filteroptimierungen?

stalker 1280 x 1024 16 af hd2900 xt
a.i. on 33,4
a.i. off 27,5

jetzt der test von ut 2004, 2560 x 1600 hd 2900 xt
a.i. on 77,1
a.o. off 77,1

ut2004 ,2560 x 1600 hd2900 xt 16 af

a.i. on 59,4
a.i. off 39,8

hmm a.i. off wirkt sich also nur aus wenn filter ins spiel kommen, dann kann es ja eigentlich nichts mit spiel spezifischen optimierungen zutun haben oder?

und noch was aus dem test...

berücksichtigen sie bei den den aufnahmen, das erst a.i.aund auf einem 5x0 und hohe qualität auf einem g8x das akzeptabel flimmerfrei darstellen. Die bildqualität von hd2900 und geforce 7900 gtx ist verbesserungswürdig...

Für weitergehende informationen empfehle ich das heft zu kaufen.

Genauso so hast du nie darauf geantwortet, als ich expilzit von dir wissen wollte wie es sein kann das bei hq auf g70 ich in hl2 kein moire muster sehen, bei einem r5x0 aber schon, obwohl er auf a.i. standard steht, und das lt. deiner aussage schon exellente bildqualität bietet? Und nur a.i. off das muster verschwinden lässt?

Soll ich etwa annehmen das du etwa übertreibst oder sagen wir einem hersteller positiver beurteilst als einen anderen, und damit deinen ganzen aussagen die bildqualität betreffend deiner motivation hinterfragt werden müssen?

Gast
2007-10-15, 21:59:27
wie in DX-10 (wo sie inklusive 4AA/16AF gegen die GTS 320/640 verliert.)


AMC
Es geht kein 4AA bei Bioshock in DX10 wie oft denn noch :rolleyes:

desert
2007-10-15, 22:01:36
http://www.hardtecs4u.com/reviews/2007/amd_2900pro/index7.php

Bei den Treibereinstellungen setzten wir für die Benchmarks auf „Hohe Qualität“ bei NVIDIA. Bei den ATI/AMD gehen wir weiterhin den Weg die Karten sowohl mit deaktiviertem Catalyst A.I. als auch mit der A.I. Standard-Einstellung zu testen. Für einen – in Bezug auf die GeForce-8-Serie - besser vergleichbaren anisotropen Filter wurde bei ATI das HQ-AF aktiviert. Aufgrund der in vielen Fällen zu hohen Anforderungen an eine Midrange-Karte wurde für diesen Test des Weiteren das Transparenz-Antialiasing deaktiviert. NVIDIA ATI
Systemleistung: Hohe Qualität Catalyst A.I.: Standard
Anti-Aliasing: Anwendungsgesteuert Anti-Aliasing: Anwendungsgesteuert
Anisotrop Filterung: Anwendungsgesteuert Anisotrope Filterung: Anwendungsgesteuert
Trilineare Optimierungen: Aus HQ-AF: Aktiviert
Anisotrope Mip-Filter-Optimierung: Aus MipMap Detaillevel: High Quality
Optimierung des anisotropen Musters: Aus Adaptive Antialiasing: Aus
Transparenz-Antialiasing: Aus


http://www.hardtecs4u.com/reviews/2007/amd_2900pro/index8.php

und schau jetzt bitte mal ob du ein ergebnis von a.i. off findest. nicht eins

AMC
2007-10-15, 22:03:46
hier z.b. Robbitop


...Wenn man Benchen wuerde ohne nachzudenken stimmt das in der Tat. Wie schon im BQ Teil beschrieben, sieht man in der Praxis -im Gegensatz zur R580 - keinen Unterschied mehr zwischen AI on und AI off. AI flimmert beim R600 nicht. Da die BQ ausgezeichnet war, entschlossen wir uns, AI on zu benchen. Mit AI off waeren alle gamespezifischen Optimierungen ausgewesen. Das waere was fuer ATI basher geworden. Sinnvolle Messungen waeren das hingegen nicht gewesen...

so und raff hat ja nun gerade in der pcgh dargelegt das das was robbitop hier geschrieben hat einfach nicht stimmt

stalker 1280 x 1024, hd 2900 xt
a.i. on 55,2 fps
a.i. off 55 fps

wo sind denn die optimierungen oder sind es etwa doch nur filteroptimierungen?

stalker 1280 x 1024 16 af hd2900 xt
a.i. on 33,4
a.i. off 27,5

jetzt der test von ut 2004, 2560 x 1600 hd 2900 xt
a.i. on 77,1
a.o. off 77,1

ut2004 ,2560 x 1600 hd2900 xt 16 af

a.i. on 59,4
a.i. off 39,8

hmm a.i. off wirkt sich also nur aus wenn filter ins spiel kommen, dann kann es ja eigentlich nichts mit spiel spezifischen optimierungen zutun haben oder?

und noch was aus dem test...

berücksichtigen sie bei den den aufnahmen, das erst a.i.aund auf einem 5x0 und hohe qualität auf einem g8x das akzeptabel flimmerfrei darstellen. Die bildqualität von hd2900 und geforce 7900 gtx ist verbesserungswürdig...

Für weitergehende informationen empfehle ich das heft zu kaufen.

Genauso so hast du nie darauf geantwortet, als ich expilzit von dir wissen wollte wie es sein kann das bei hq auf g70 ich in hl2 kein moire muster sehen, bei einem r5x0 aber schon, obwohl er auf a.i. standard steht, und das lt. deiner aussage schon exellente bildqualität bietet? Und nur a.i. off das muster verschwinden lässt?

Soll ich etwa annehmen das du etwa übertreibst oder sagen wir einem hersteller positiver beurteilst als einen anderen, und damit deinen ganzen aussagen die bildqualität betreffend deiner motivation hinterfragt werden müssen?

Hmmm, wow, gut beobachtet! Sieht so aus als wären bei robbi die Einstellungen schlicht nicht korrekt übernommen worden. Absichtliches cheating will ich ihm unter keinen Umständen unterstellen. Ferner ist das schon interessant, da ich immer dachte, dass vor allem Bugfixes aka Shaderreplacement mit A.I. verknüpft sind. Btw, wenn es sich wirklich nur im Filteroptimierungen handeln sollte und diese aus diesem Grund im Treiber nicht zu deaktivieren sind (zumindest waren sie das nicht, hat sich mit aktuellen Treiber vielleicht geändert), dann wäre das ein ganz dicker Hund!

Mal am Rande:

http://enthusiast.hardocp.com/images/articles/1188859168W3Q3PDdCdy_3_5.gif

so sollten Benchmarks aussehen! Ein Frameverlauf sagt mehr als ein Peak, in der eine R600 plötzlich mal doppelt so schnell ist, wie ein G80. :rolleyes:

AMC

AMC
2007-10-15, 22:04:24
Es geht kein 4AA bei Bioshock in DX10 wie oft denn noch :rolleyes:

Mit dem G80 schon, wie oft denn noch? :rolleyes:

StefanV
2007-10-15, 22:09:48
Bei 'nem alten Treiber glaub ich sogar,. dass die Werte stimmen, denn erstmal muss man ja was optimieren, damit man die Optimierungen auch abschalten kann, ohne Optimierungen bringts natürlich nix die abzuschalten, da man ja keine Optimierungen abschalten kann, die nicht vorhanden sind.

Ist doch eigentlich logisch, oider?!

desert
2007-10-15, 22:23:06
oder hier wo sind die schatten hin?

http://enthusiast.hardocp.com/image.html?image=MTE5MjMxOTk5M0NDRVQ0Zm1tYkpfN18xNl9sLnBuZw==

http://enthusiast.hardocp.com/image.html?image=MTE5MjMxOTk5M0NDRVQ0Zm1tYkpfN18xN19sLnBuZw==

oder das gras?

http://enthusiast.hardocp.com/image.html?image=MTE5MjMxOTk5M0NDRVQ0Zm1tYkpfN18xNV9sLnBuZw==


und wo siehst du hier jetzt auffälligkeiten beim test?


http://enthusiast.hardocp.com/image.html?image=MTE5MTc2NTkwM3hlZ0ZoM0hqOHlfNF8yX2wuZ2lm

LovesuckZ
2007-10-15, 22:36:48
Erwischt. Es war mir in der Tat nicht bekannt, dass der R600 in Bioshock tw. um 60% flotter als die direkte Konkurrenz ist.


Da irrst du dich. Es gab am 23.August bei Firingsquad ein "Bioshock Performance Review". Hier ein bild:
http://www.firingsquad.com/hardware/bioshock_directx10_performance/images/1600.gif

Und hier der Link: http://www.firingsquad.com/hardware/bioshock_directx10_performance/page5.asp
Tja, ich kannte den Test schon seit dem August und mir sind die DX9 Ergebnisse bewusst - auch wie es dazu kommt.


D3D10 wurde auch verglichen. Dass da die Performance (noch) nicht optimal ist, ist bekannt - vielleicht für dich nicht, aber für den geneigten Leser schon.

Warum sollte die Leistung unter D3D10 "nicht optimal" sein? AMD hat mit dem 7.10 whatever ihren langersehnten D3D10 Treiber herausgebracht. Aber nun gut, man darf wohl als AMD D3D10 Hardware Besitzer nicht soviel erwarten. 5 Monate reichen nicht für reife Treiber, gell?


Nö. Ich wollt nur ein paar vom R600 = Rohrkrepierer-Trip runterholen.


Na, du wolltest doch eher deine Lieblingsfirma verteidigen - die Hardware spielt hier doch eher eine untergeordnete Rolle.

AMC
2007-10-15, 22:39:13
oder hier wo sind die schatten hin?

http://enthusiast.hardocp.com/image.html?image=MTE5MjMxOTk5M0NDRVQ0Zm1tYkpfN18xNl9sLnBuZw==

http://enthusiast.hardocp.com/image.html?image=MTE5MjMxOTk5M0NDRVQ0Zm1tYkpfN18xN19sLnBuZw==

oder das gras?

http://enthusiast.hardocp.com/image.html?image=MTE5MjMxOTk5M0NDRVQ0Zm1tYkpfN18xNV9sLnBuZw==


und wo siehst du hier jetzt auffälligkeiten beim test?


http://enthusiast.hardocp.com/image.html?image=MTE5MTc2NTkwM3hlZ0ZoM0hqOHlfNF8yX2wuZ2lm

Sehr interessant. Wäre wichtig herauszufinden woran das nun liegt. An Lolmans Theorie des nicht-erkannten Chips glaube ich nicht, schliesslich wirbt Valve mit ATI als Partner und sie haben nicht erst seit dem Release der XT angefangenl, EP2 zu entwickeln. :rolleyes: Es dürfte also zu 99.999% nicht an der Erkennung der XT liegen: eher vermute ich a) einen Bug im Treiber, oder b) eine Geschwindigkeitssteigerung durch absichtliche Reduktion von Details. Ehrlich gesagt kann ich mir das aber nicht wirklich vorstellen, dafür ist es (eigentlich) zu offensichtlich.

AMC

Nachtrag: Ok, nur, wenn man beide Karten hat um zu vergleichen.

PCGH_Carsten
2007-10-15, 22:41:22
...und weder 3DC noch PCGH oder Computerbase benchen R600-default gegen G80-HQ!
Doch, wir tun das. Einfacher Grund: Es ist praxisnäher, weil es ein größerer Teil der unserer Leser verwendet:
http://www.pcgameshardware.de/?menu=06020301&poll_id=51960&site_id=24


Nö. Ich wollt nur ein paar vom R600 = Rohrkrepierer-Trip runterholen.

Dass die Leistung des R600 ohne Qualitätseinstellungen äußerst konkurrenzfähig ist, ist bekannt. AF und besonders FSAA ändern dies z.Zt. leider dramatisch.

AMC
2007-10-15, 22:50:08
Doch, wir tun das. Einfacher Grund: Es ist praxisnäher, weil es ein größerer Teil der unserer Leser verwendet:
http://www.pcgameshardware.de/?menu=06020301&poll_id=51960&site_id=24

Hej Carsten, das ist aber ein bissel sehr: :hammer:! Ich verstehe natürlich, worauf Du hinaus willst, aber rein technisch gesehen ist es nicht gerade fair, auch wenn der G80 tatsächlich nicht so stark von Q auf HQ einbricht. Interessant wäre doch mal eine Umfrage unter euren Lesern die evaluiert, warum sie HQ nutzen! Vielleicht, weil viele glauben das die Bildqualität der G80 analog zum G70/G71 erst auf HQ konkurrenzfähig ist, oder weil es nicht nur sehr gut ausschaut, sondern nur wenig Geschwindigkeit im Vergleich zum Q-Modus kostet? Das wäre doch mal interessant.

AMC

PCGH_Carsten
2007-10-15, 22:53:18
Wir evaluieren die Situation konstant und werden unsere Methoden zu gegebener Zeit möglicherweise anpassen.

=Floi=
2007-10-15, 22:58:28
weil es beim G80 egal ist. Ich fahre auch bei meinem g71 HQ, weil ich mir die karte gekauft habe, damit ich auch gute qualität zu sehen bekomme
eine HD2900XT ohne AA und AF ist ja irgendwo auch sinnfrei...


zitat
Wir evaluieren die Situation konstant und werden unsere Methoden zu gegebener Zeit möglicherweise anpassen.

rofl ;D wo wurde denn der text geklaut? ;) :D

The_Invisible
2007-10-15, 22:59:49
Hej Carsten, das ist aber ein bissel sehr: :hammer:! Ich verstehe natürlich, worauf Du hinaus willst, aber rein technisch gesehen ist es nicht gerade fair, auch wenn der G80 tatsächlich nicht so stark von Q auf HQ einbricht. Interessant wäre doch mal eine Umfrage unter euren Lesern die evaluiert, warum sie HQ nutzen! Vielleicht, weil viele glauben das die Bildqualität der G80 analog zum G70/G71 erst auf HQ konkurrenzfähig ist, oder weil es nicht nur sehr gut ausschaut, sondern nur wenig Geschwindigkeit im Vergleich zum Q-Modus kostet? Das wäre doch mal interessant.

AMC

würde mich auch interessieren, jedenfalls hat man bei beiden den gleichen aufwand um die einstellung zu ändern.

mfg

desert
2007-10-15, 23:10:11
sollte man das nicht irgendwo kenntlich machen in den tests?

weil ich doch jetzt ziemlich enttäuscht von euch bin.

damit ist es wohl amtlich das mit der nächsten generation der nvidiagrafikkarten wieder schlechtere bildqualität haben werden wie schon mal. ATi macht etwas vor mit dem grottigen winkelabhängigen af, nivida zieht nach, weil kein schwein darauf hinweist das das af der gf 3, und auch das der gf5 besser als das der ati 9x00 aussah.

genauso wird es auch jetzt wieder passieren, alle lassen ati gewähren weil ati sagt, das spiele optimierungen drinne sind, was laut den tests wohl so nicht stimmt. keiner sagt was, das ende vom lied ist, nivida zieht nach um nicht in den benchmarks abgezogen zu werden, von schlechterer qualität und leute wie lolmann können sich dann wieder über nvidia aufregen das sie schleche bildqualität bringen, und ati wieder loben was für tolle bildqualtät sie haben.

PCGH_Carsten
2007-10-15, 23:11:58
Wir weisen laufen darauf hin – eigentlich sind wir sogar ziemlich "stolz" darauf, dass unsere Benchmarks mit die transparentesten überhaupt sind, da in jedem Benchmarkkasten in der Fußzeile System und Settings angegeben werden.

desert
2007-10-15, 23:15:58
stimmt hast recht, ist mir nie aufgefallen :redface:

sorry


robbitop scheint seine meinung über den gleichstand von a.i. on zu q geändert zu haben, zitiere ihn jetzt einfach mal:

Hochfrequenztexturen flimmern. Beispiele gibt's genug, aber ich nenne die typischsten nochmal:

-HL2 (bsw Bahnschienen)
-WoW
-Oblivion (wenn man sich die Sandwege, Steinwege genauer anschaut, wenn man auf ihnen läuft)

Also im Prinzip alle HF-Texturen flimmern. Natürlich ist das Meckern auf hohem Niveau. Sie flimmern mir nicht die Augen raus (wie es meine PS2 tut). Aber G80 hat nunmal einen AF-Meilenstein gelegt. R580 flimmert mit AI off übrigens auch nicht mehr (oder fast nie). Was das für Füllrate kostet sieht man dann beim Einbruch (gute Filterung muss Texelfüllrate kosten).
G8x hat mehr als genug Texelfüllrate, also konnte man sich so ein AF leisten.


und wer jetzt immer noch fordert das standard gegen q gebencht werden muss, dem ist glaube ich nicht mehr zu helfen. am besten aber noch standard gegen hq, dann ist es erst so richtig fair :(

robbitop
2007-10-15, 23:54:49
Naja die AF-Qualität soll im RV670 laut der geleakten Folie verbessert werden.

AMC
2007-10-16, 00:03:14
Naja die AF-Qualität soll im RV670 laut der geleakten Folie verbessert werden.

Schauen wir doch erst einmal, welche Änderungen es überhaupt geben wird und welcher Art diese sind. Irgendwelche handfesten News dazu schon verfügbar? Ich persönlich gehe vor allem von einer Verringerung der Verlustleistung aus, was sich dann sicher in leiseren und kühleren Kühllösungen äussern wird, ebenso ein/zwei bugfixes. Generelle Designänderungen sind doch aber sehr unwahrscheinlich. Glaube kaum, dass AMD/ATI in ein paar Monaten mal eben ein neues Design aus dem Boden stampft und die Texelfüllrate stark erhöhen kann.

AMC

desert
2007-10-16, 00:07:41
habe ich nichts dagegen würde mich sogar freuen wenn ati einen chip hätte der nvidia wieder das fürchten lehrt, auch mit aa/af. und hoffentlich den g80/g92 bq technisch auch übertrifft, nur so bekommen wir doch das was wie wollen. billige und schnelle grafikkarte. ich meine wann gab es das zuletzt das solange eine grafikkarte ungefährdet an der spitze steht.

besser wäre es für uns alle gewesen wenn der r600 schon 10 - 20 % schneller als g80 gewesen wäre mit aa/af bei selber bq, dann würde der g92 heute wahrscheinlich anders aussehen, so sieht es doch wohl eher einfach nur nach dieshrink aus.

desert
2007-10-16, 00:08:40
Schauen wir doch erst einmal, welche Änderungen es überhaupt geben wird und welcher Art diese sind. Irgendwelche handfesten News dazu schon verfügbar? Ich persönlich gehe vor allem von einer Verringerung der Verlustleistung aus, was sich dann sicher in leiseren und kühleren Kühllösungen äussern wird, ebenso ein/zwei bugfixes. Generelle Designänderungen sind doch aber sehr unwahrscheinlich. Glaube kaum, dass AMD/ATI in ein paar Monaten mal eben ein neues Design aus dem Boden stampft und die Texelfüllrate stark erhöhen kann.

AMC

wieso nicht? r520 und r580 liegen wieweit auseinander,3 monate?

AMC
2007-10-16, 00:22:21
wieso nicht? r520 und r580 liegen wieweit auseinander,3 monate?

Weiß nicht mehr, wieviel Zeit zwischen beiden lag, aber es ist nicht ersichtlich ab wann ATI am r580 gearbeitet hat. Es steht also in den Sternen, ob es der RV670 nun reissen können wird. Traditionsgemäß wurden in der Vergangenheit mit den RV-Serie Chips Mainstreamchips bezeichnet. wikipedia X1.... Serie (http://de.wikipedia.org/wiki/ATI-Radeon-X1-Serie) Dazu passen auch ATIs Pläne, einen Dual-RV670 gegen die GTX/Ultra antreten zu lassen. Das wäre dann die GX2 auf ATIs Seite. Bin ja mal gespannt, ob sie hier auch dieselbe Schelte beziehen wird, wie einst die GX2-Serie. :rolleyes:

AMC

deekey777
2007-10-16, 00:38:10
oder hier wo sind die schatten hin?

http://enthusiast.hardocp.com/image.html?image=MTE5MjMxOTk5M0NDRVQ0Zm1tYkpfN18xNl9sLnBuZw==

http://enthusiast.hardocp.com/image.html?image=MTE5MjMxOTk5M0NDRVQ0Zm1tYkpfN18xN19sLnBuZw==
Wo die Schatten sind, willst du wissen? Da ist blasser Schatten bei der Radeon und dunkler Schatten bei der FX. Genau so blass ist der Schatten bei meiner X1950GT, genau so wie bei der 8800 ist der Schatten dunkel auf einer
6800er. Wo ist das Problem?

oder das gras?

http://enthusiast.hardocp.com/image.html?image=MTE5MjMxOTk5M0NDRVQ0Zm1tYkpfN18xNV9sLnBuZw==

Wo ist das Gras. Hm. Also ich habe es. Und es dreht sich herrlich mit. Ist das Fehlen dieser so qualitativ hochwertigen Pflanzen ein Grund sich aufzuregen? Eher nicht.
Vielleicht schützt ATi/AMD die Käufer einer 2900 vor dieser Grausamkeit.

deekey777
2007-10-16, 00:41:29
Sehr interessant. Wäre wichtig herauszufinden woran das nun liegt. An Lolmans Theorie des nicht-erkannten Chips glaube ich nicht, schliesslich wirbt Valve mit ATI als Partner und sie haben nicht erst seit dem Release der XT angefangenl, EP2 zu entwickeln. :rolleyes: Es dürfte also zu 99.999% nicht an der Erkennung der XT liegen: eher vermute ich a) einen Bug im Treiber, oder b) eine Geschwindigkeitssteigerung durch absichtliche Reduktion von Details. Ehrlich gesagt kann ich mir das aber nicht wirklich vorstellen, dafür ist es (eigentlich) zu offensichtlich.

AMC

Nachtrag: Ok, nur, wenn man beide Karten hat um zu vergleichen.
Schließlich wirbt VALVe mit ATi. Wenn du Rainbow Six: Raven Shield installierst, siehst du auch ein ATi-Logo. Und blasse Schatten mit einer Radeon. Und wenn du Far Cry mit einer nVidia spielst, siehst du dunkle harte Schatten, mit einer Radeon dagegen weiche blasse.
Leider gibt es keine dxlevel.cfg im Ep.2-Ordner, so könnte man leicht herausfinden, ob eine 2900 dabei ist bzw. erkannt wird.

Voyager
2007-10-16, 00:42:49
Im Fazit steht:Eine GeForce 8800 GTS mit 320 MB Hauptspeicher, dürfte dagegen einer HD2900 Pro unterlegen sein

Schade das diese Karte nicht bei den Benchmarks ist.

AMC
2007-10-16, 00:53:42
Im Fazit steht:Eine GeForce 8800 GTS mit 320 MB Hauptspeicher, dürfte dagegen einer HD2900 Pro unterlegen sein

Aber genau diese Karte fehlt bei den Benchmarks :(

In welchem Test und Fazit? Sorry, hab gerade den Überblick verloren. Schau mal hier Neoseeker 2900 Pro Review (http://www.neoseeker.com/Articles/Hardware/Reviews/pc_hd2900pro/) hier liegt die GTS320 im Mittel 12% vor der 2900Pro, wenn Du Dir die Benchmarks auf HardOCP und THG ansiehst, etwa auf/über der 2900XT, je nach Spiel auch in hohen bis sehr hohen Auflösungen.

AMC

James Ryan
2007-10-16, 05:49:43
Wo ist das Gras. Hm. Also ich habe es. Und es dreht sich herrlich mit. Ist das Fehlen dieser so qualitativ hochwertigen Pflanzen ein Grund sich aufzuregen? Eher nicht.
Vielleicht schützt ATi/AMD die Käufer einer 2900 vor dieser Grausamkeit.

Sorry, aber das kann ja wohl nicht dein Ernst sein! :|

MfG :cool:

Mr. Lolman
2007-10-16, 06:51:26
Wo ist das Problem bei default vs Q?

seahawk
2007-10-16, 07:57:48
Default vs. Q ist völlig ok. Bemerkenswert finde ich auch wie sehr die R600 mit jedem neune Trieber an Leistung gewinnt und die Dominanz in Bioshock ist bemerkenswert.

MadManniMan
2007-10-16, 08:20:02
Default vs. Q ist völlig ok. Bemerkenswert finde ich auch wie sehr die R600 mit jedem neune Trieber an Leistung gewinnt und die Dominanz in Bioshock ist bemerkenswert.

*seufz* Quellen? Und komm nich mit Crossfire!

Gast
2007-10-16, 08:25:22
*seufz* Quellen? Und komm nich mit Crossfire!

Dein ernst? Der will nur trollen.

seahawk
2007-10-16, 08:36:52
Exklusiv fürs 3DCenter-Forum - ein paar Vorabergebnisse aus Madkillers kommenden Performancereport:


Bioshock, Fontain Savegame (E6750@3.2GHz, XP 32bit): 1600x1200 16xAF

1900XT: 29.4fps
8800GTS: 33.7fps
2900XT: 53.6fps

*seufz* Quellen? Und komm nich mit Crossfire!

Bitte sehr.

The_Invisible
2007-10-16, 08:40:41
Wo ist das Problem bei default vs Q?

und wer bencht bitte so?

bisher sah ich nur immer AI on vs HQ. ich wette die werte über mir sind mit genau den selben settings ermittelt.

mfg

seahawk
2007-10-16, 08:42:37
A.I. low + HQ AF gegen HQ ist ja auch ok. Wichtig ist halt die praxisnahe Vergleichbarkeit und niemand sollte bei ATI A.I. ausstellen, da es eben auch bugfixende Tweaks abschaltet.

MadManniMan
2007-10-16, 08:59:45
Bitte sehr.

Ich meinte die Treibereien, nicht Bioshock.

Dein ernst? Der will nur trollen.

Manchmal fürchte ich das auch.

A.I. low + HQ AF gegen HQ ist ja auch ok. Wichtig ist halt die praxisnahe Vergleichbarkeit und niemand sollte bei ATI A.I. ausstellen, da es eben auch bugfixende Tweaks abschaltet.

Es ist eben nur dann OK, wenn der Kontext klar ersichtlich ist - aber wie groß ist der Anteil an Lesern, die diesen in Gänze begreifen?

Es bleibt, wie es immer war: es ist ATis Problem, daß sie die Filter- und Spiele-Optimierungen nicht trennen. Konsequentes boykottieren seitens der Fachpresse könnte Abhilfe schaffen, aber so langsam haben sich die Mühlen festgefahren.

seahawk
2007-10-16, 09:16:57
Da kannst Du gar nichts machen. ATI könnte Filteroptimierungen auch in A.I. off einbauen, die wären dann gar nicht abstellbar und der Unterschied zu A.I low wäre gering. (ich halte das bereits heute in einzelnen Fällen, bei denen der Verlsut bei A.I off auffällig minimal ist, für möglich)

So gesehen muss man ein Setting wählen, dass möglichst vergleichbar ist.

Da ist A.I low + HQ AF vs HQ eine brauchbare Option.

Popeljoe
2007-10-16, 09:23:52
Öhm: wann kommt denn nu der angekündigte Artikel von Madkiller? ;(

Lolli@work
2007-10-16, 10:37:34
Das dauert noch ein bisschen, da er erst vertextet werden muss - und dafür wohl erst am Wochenende Zeit ist.

robbitop
2007-10-16, 10:59:15
Und HTMLiesiert..von Leo...

Ri*g*g*er
2007-10-16, 12:08:38
Hi all,

sagt mal hat einer schon ne Pro mit 1 Gig Speicher im Einsatz ?
Es soll sich dabei ja sogar um DDR4 Ram handeln und für den Preis ist das Teil ja mehr als heiss würde ich sagen.

Gruss
Ri*g*g*er

deekey777
2007-10-16, 12:51:49
Sorry, aber das kann ja wohl nicht dein Ernst sein! :|

MfG :cool:
Natürlich ist das mein Ernst. Wo ist das genaue Problem? Es ist eindeutig ein Treiberfehler, aber wieso wird jetzt darauf rumgepocht?
Aber so einen Standpunkt wie meinen kann nur jemand vertreten, der ein Praktiker ist und Spiele spielt, anstatt gegenseitig anzuschwärzen und den Fanboy-Krieg zu führen.

The_Invisible
2007-10-16, 12:57:07
er meinte damit eher nicht den treiberfehler sondern deine meinung dazu: "ach, ist eh egal oder sogar besser". zu g7x zeiten war es zumindest "in" auf jeden pixelfehler hinzuweisen :)

mfg

deekey777
2007-10-16, 13:04:44
er meinte damit eher nicht den treiberfehler sondern deine meinung dazu: "ach, ist eh egal oder sogar besser". zu g7x zeiten war es zumindest "in" auf jeden pixelfehler hinzuweisen :)

mfg
Du musst aber zugeben, dass es ein Riesenunterschied ist, wenn zB Q oder AI oder sonst was wie Sau flimmert oder bloß bei der Zuschaltung des 4xAAA dieses hässliche Gras fehlt.
Wieviele von euch spielen schon Ep. 2? Ep. 2 hat neben Ingame-MSAA die Möglichkeit, Alpha-2-Coverage zu aktivieren (bei meiner X1950GT per default an). Und das ist der viel wichtigere Punkt und nicht das, was eine Einstellung im CCC abliefert.

Gast
2007-10-16, 13:08:47
Bitte sehr.

Klasse fake. Oder Zudämlich zum testen.

ich hab hier zb. andere zahlen
Bioshock
1x 8800 GTS, 16x12 1xAA/16xAF
ForceWare 163.75 34,6 fps

Bioshock
HD 2900 XT, 16x12 1xAA/16xAF
Catalyst 7.10 34,5 fps

Und solche werte findet man durch die bank wett. Aber "deine" werte -rofl- will ich doch gern nochmal von anderen/besseren Quellen sehen.

Cubitus
2007-10-16, 13:15:01
Ach die 8800er sind auf TMSAA bzw. auf TSSAA, ja gar nicht angewiesen, es gibt ja die Hybriden AA modis und 4xS kriegt z.b auch eine GTX in Episoden 2 hin.

deekey777
2007-10-16, 13:25:21
Ach die 8800er sind auf TMSAA bzw. auf TSSAA, ja gar nicht angewiesen, es gibt ja die Hybriden AA modis und 4xS kriegt z.b auch eine GTX in Episoden 2 hin.
Ep. 2 ist grafisch unspekulär. 4xS ist im Vergleich zu 4fachem Transparenz-AA qualitativ schlechter (abgesehen von Supersampling-Vorteilen wie etwas schärfere Texturen oder als Maßnahme gegen Shader-Aliasing).

sklave_gottes
2007-10-16, 13:32:15
Klasse fake. Oder Zudämlich zum testen.

ich hab hier zb. andere zahlen
Bioshock
1x 8800 GTS, 16x12 1xAA/16xAF
ForceWare 163.75 34,6 fps

Bioshock
HD 2900 XT, 16x12 1xAA/16xAF
Catalyst 7.10 34,5 fps

Und solche werte findet man durch die bank wett. Aber "deine" werte -rofl- will ich doch gern nochmal von anderen/besseren Quellen sehen.

das sind dx10 werte die anderen sind dx9.
Ich finde es schon richtig scheisse das ati die Optimierungen mit dem AI Schalter verbindet.
Gerade bei der Geforce8 sollte man gegen die ATI HD reihe auf standart@HQAF immer in Q messen. Denn in erster linie soll ja der speed verglichen werden bei möglichst gleicher Bildqualität. Weiter sollte man dann stark drauf hinweisen das ATI einen sehr blöden weg geht mit den AI einstellungen. Und das eine Geforce8 mit HQ sogut wie keine leistung verliert und deshalb in der Praxis dieser modus besser ist. Zum Vergleich sollte man aber wie gesagt Q nehmen. Denn nur weil ein Porsche z.b. nehr Top speed hat als ein Golf vergleicht man den Bremsweg ja auch bei beiden bei 100kmh z.b.
Und nicht 200kmh VS 270kmh

Gast
2007-10-16, 13:37:47
das sind dx10 werte die anderen sind dx9.
Ich finde es schon richtig scheisse das ati die Optimierungen mit dem AI Schalter verbindet.
Gerade bei der Geforce8 sollte man gegen die ATI HD reihe auf standart@HQAF immer in Q messen. Denn in erster linie soll ja der speed verglichen werden bei möglichst gleicher Bildqualität. Weiter sollte man dann stark drauf hinweisen das ATI einen sehr blöden weg geht mit den AI einstellungen. Und das eine Geforce8 mit HQ sogut wie keine leistung verliert und deshalb in der Praxis dieser modus besser ist. Zum Vergleich sollte man aber wie gesagt Q nehmen. Denn nur weil ein Porsche z.b. nehr Top speed hat als ein Golf vergleicht man den Bremsweg ja auch bei beiden bei 100kmh z.b.
Und nicht 200kmh VS 270kmh

Bioshock isn DX10 Game, und wir haben 2 Karten die DX10 Können. Also warum sucht man sich Dx9 dazu aus? weil vorteil ATI oder was? weil da kein AA geht oder was? für mich is das nen fake.

sklave_gottes
2007-10-16, 13:59:38
Bioshock isn DX10 Game, und wir haben 2 Karten die DX10 Können. Also warum sucht man sich Dx9 dazu aus? weil vorteil ATI oder was? weil da kein AA geht oder was? für mich is das nen fake.

Vieleicht weil die meisten user noch auf winXP fahren weil ausgereifter, bekannt und vollkommen unterstützt! Sowie keine neue inverstition.
Ich habe ja nicht gesagt das die dx10 werte falsch sind, nur solltest du nicht so einen änge Stirn haben und die dx9 werte auch Akzeptieren. Zumal meiner meinung nach die Optik von dem Spiel sowieso niemanden zu Dx10 bewegen sollte und eher abschreckt als ein gutes zeichen für dx10 ist.

Übrigens mit nichtmal 40fps im schnitt sind die fps für einen shouter sowieso für mich unspielbar also erstmal was mit den einstellungen runter! Oder dx9 auf der ATI Karte :-) .

mfg martin

Gast
2007-10-16, 14:24:41
Vieleicht weil die meisten user noch auf winXP fahren weil ausgereifter, bekannt und vollkommen unterstützt! Sowie keine neue inverstition.
Ich habe ja nicht gesagt das die dx10 werte falsch sind, nur solltest du nicht so einen änge Stirn haben und die dx9 werte auch Akzeptieren. Zumal meiner meinung nach die Optik von dem Spiel sowieso niemanden zu Dx10 bewegen sollte und eher abschreckt als ein gutes zeichen für dx10 ist.

Übrigens mit nichtmal 40fps im schnitt sind die fps für einen shouter sowieso für mich unspielbar also erstmal was mit den einstellungen runter! Oder dx9 auf der ATI Karte :-) .

mfg martin

Es gibt auch noch viele die ein SC im rechner haben ;) nur mal so als beispiel.
Also das ist eine glatte ausrede. Die 36fps sollen aber gut spielbar sein für nen Shooter. Zur not kannst auch nur eine 1280x1024 Auflössung nutzen ;)

robbitop
2007-10-16, 16:47:11
und mal ganz ehrlich solange das nicht von neutraler stelle nachgemessen wurde, glaube ich euch erstmal überhaupt nichts mehr.

Erst verliert ja die hd 2900 unter a.i. off nichts, jetzt kommt bei tests heraus das sie wohl doch so mal 20-30 % verliert.

Dann wird hier felsenfest behauptet das die bildqualität vergleichbar ist, komischerweise nur hier. Alle anderen seiten sehen nivida vorne. jetzt schreibt sogar raff das die bildqualität vom r600 a.i. off selbst g80 hq nicht erreicht. aber hauptsache weiterbenchen mit a.i. standard gegen g80 hq.

so kommt das ergebnis schon raus was wir brauchen.
Wie ich bereits oft genug gesagt habe, ist der gesamte R600-Test (Text, Korrektur, Erstellungen von Grafiken, Screenshots, Messungen, Überlegungen...) an einem Wochenende entstanden. Ursache: ATI hat sämtlichen Redaktionen die R600 schon 2 Wochen vor dem Launch geschickt nur uns erst 2,5 Tage vor dem Launch.
Dass sich dort einige faktische Fehler einschleichen, sollte IMO verzeihbar sein. Dafür, dass ich praktisch keinen Schlaf und keine Testzeit hatte, war der Test einer der besseren Launchtests im Netz. Bis auf B3D hat sich kaum jemand mal die ALUs genauer angesehen (bzw nur Whitepapers und bei 3DC/B3D geklautes Halbwissen abgeschrieben). Es hat kaum mal über die Funktionsweise von CFAA und dem Edge-Detection nachgedacht. Oder sind viele auf das AAA reingefallen. (was eigentlich EATM war)

Klar haben viele nachträglich nochmal neuere Artikel mit mehr Zeit (und auch damit verbundenen Erkenntnissen) veröffentlicht. Launchartikel sind selten wirklich richtig gut.


genauso wie bei den perfomancereports, lug und betrug überall. Da verschweigen, da übertreiben.
Schere nicht alle über einen Kamm. Jeder Redakteur schreibt seine eigenen Artikel. Madkiller, Lolman, ich, aths, BBSR, Raff. Da redet niemand dem anderen rein. Insofern ist eine Generalisierung in diesem Punkt eher unteres Denkniveau.

Absichtlich wird bei keinem Artikel gelogen, betrogen und verschwiegen. Ich weiß nicht wie du darauf kommst. Wir führten sogar als erste die Timedemos ad absurdum und versuchten Messungen analytisch zu gewichten, inwiefern AVG Timedemo Werte nun Sinn machten. Dank der Worst-Case-Savegames und mehrfacher Messung, wird ein Benchmark endlich mal so aussagekräftig, dass es das Spielgefühl ähnlich widergibt.

Ich schlage jedoch vor, dass du eine andere Seite und ein anderes Forum besuchst, welches vieleicht eine Zielgruppe hat, in die du besser passen würdest.

Ich frage mich sowieso, wie man sein Herz an einen kapitalistischen Konzern hängen kann, der sowieso nur auf Profit aus ist. Man kauft nach P/L und Erfüllung seiner individuellen Bedürfnisse.


Dass Lolman sich hier eine schöne Rosine rauspickt und in einen solchen Thread diese loslässt, ist natürlich nicht gut. Das gibt nur Ärger. Aber Forenposts haben IMO nichts mit Artikeln zu tun.

Lolman@work
2007-10-16, 17:08:41
Dass Lolman sich hier eine schöne Rosine rauspickt und in einen solchen Thread diese loslässt, ist natürlich nicht gut. Das gibt nur Ärger. Aber Forenposts haben IMO nichts mit Artikeln zu tun.

Interessanterweise, war das gar keine Rosine. Du hast eh Zugriff auf die Benchmarks. Da gibts durchaus noch extremere Werte...

Blaire
2007-10-16, 17:09:10
Ep. 2 ist grafisch unspekulär. 4xS ist im Vergleich zu 4fachem Transparenz-AA qualitativ schlechter (abgesehen von Supersampling-Vorteilen wie etwas schärfere Texturen oder als Maßnahme gegen Shader-Aliasing).

Auf letzteres kommt es schließlich auch an... Da wohl recht viele UE3 Games kommen sind die Hybriden ein Segen, besonders krass sind die Unterschiede bei Jericho 4xS schaut besser aus als 16xQ eben weil es Shaderaliasing schon recht ordentlich eliminiert. Da sind die Coverage/MSAA Modis ein Witz gegen...

BlackBirdSR
2007-10-16, 17:16:00
Interessanterweise, war das gar keine Rosine. Du hast eh Zugriff auf die Benchmarks. Da gibts durchaus noch extremere Werte...

Was nichts daran ändert. Einen Wert in den Raum zu stellen, ohne Backup, Vergleiche und fundierte Hintergründe kann nur schief gehen.
Ich denke so eine Lektion muss und kann man lernen.

Die Leser/User sollten sich alle selbst ein Bild machen, sobald der Artikel Online steht. Bis dahin sind Diskussionen über diese einen Wert ein wenig sinnlos, nein schaden uns natürlich sogar.

Normalerweise gibts ja auch keine Einzelergebnisse aus einem Artikel einfach ohne den zusammenhägenden Artikel. Daher bitte ich um Entschuldigung und Nachsicht.

AMC
2007-10-16, 17:18:09
Du irrst dich. Der Artikel wird rein von ATis AI handeln und direkte Vergleiche mit NV aussen vor lassen. Außerdem verzögert sich das Ganze ohnehin noch ein bisschen.

Gerade erst gesehen, da Du nach 'oben' zitiert hast. :rolleyes:

Warum eigentlich? Das ist doch _die_ Gelegenheit, A.I. off vs. HQ zu vergleichen, ein paar Benchmarks lassen sich doch auch neben den Hauptartikel einfügen. Wer schreibt den Artikel, bzw. wenn Du es bist (ich hoffe, aths ist dabei), liegt es dann daran, dass Du keinen G80 zum Vergleich hast?

Interessanterweise, war das gar keine Rosine. Du hast eh Zugriff auf die Benchmarks. Da gibts durchaus noch extremere Werte...

Juhu, darf ich mich dann hier auf das erste Review freuen, dass den R600 vor dem G80 sieht? Ich verbuche es vielleicht im Geiste wohl besser schon mal direkt unter "Comedy". :|

AMC

Pirx
2007-10-16, 17:38:01
...
Juhu, darf ich mich dann hier auf das erste Review freuen, dass den R600 vor dem G80 sieht? Ich verbuche es vielleicht im Geiste wohl besser schon mal direkt unter "Comedy". :|

AMC
Das wäre aber ziemlich voreingenommen.

Lolman@work
2007-10-16, 17:49:03
Gerade erst gesehen, da Du nach 'oben' zitiert hast. :rolleyes:

Warum eigentlich? Das ist doch _die_ Gelegenheit, A.I. off vs. HQ zu vergleichen, ein paar Benchmarks lassen sich doch auch neben den Hauptartikel einfügen. Wer schreibt den Artikel, bzw. wenn Du es bist (ich hoffe, aths ist dabei), liegt es dann daran, dass Du keinen G80 zum Vergleich hast?

Weil ich, wenn ich AI umfassend behandle, das Gleiche auch mit NV machen müsst. Und das würde den Rahmen des Artikels sprengen. Natürlich werd ich auch NV- und ATi-BQ in nem späteren Review vergleichen. Der AI-Artikel hat aber höhere Priorität, da ja noch einer von R580-Zeiten ausstehend ist. Nen G80 hab ich mittlerweile.

robbitop
2007-10-16, 18:19:40
Interessanterweise, war das gar keine Rosine. Du hast eh Zugriff auf die Benchmarks. Da gibts durchaus noch extremere Werte...
Ja in der Tat liegt die HD2900XT in allen Savegames deutlich vor der GTS in Bioshock unter WinXP. Treiber scheinen ziemlich aktuelle zu sein. Madkillers Werte sind IMO auch sehr präzise (er misst mehrfach) und objektiv.
Allerdings ist seit längerem bekannt, dass die R600 in Bioshock sehr stark ist (bzw die G80 nicht so stark ist). Das meinte ich mit Rosine (gibt ja noch viele viele andere Spiele).

LovesuckZ
2007-10-16, 18:24:33
Ich verstehe nicht, wieso niemand einfach mal das Wort Rechenleistung in den Raum wirft. Bioshock ist unter DX9 eine reine Xbox360 Portierung. Fast alle Xbox360 Portierungen zeigen ein ähnliches Bild. Die Rechenleistung der 2900XT ohne SFUs liegt wesentlich höher als die der 8800GTS. Da man davon ausgehen kann, dass bei optimaler Ausnutzung von Xenos auch der r600 davon profitiert, ist das Ergebnis weder verwundelich noch ungeheuerlich.

desert
2007-10-16, 18:26:32
Wie ich bereits oft genug gesagt habe, ist der gesamte R600-Test (Text, Korrektur, Erstellungen von Grafiken, Screenshots, Messungen, Überlegungen...) an einem Wochenende entstanden. Ursache: ATI hat sämtlichen Redaktionen die R600 schon 2 Wochen vor dem Launch geschickt nur uns erst 2,5 Tage vor dem Launch.
Dass sich dort einige faktische Fehler einschleichen, sollte IMO verzeihbar sein. Dafür, dass ich praktisch keinen Schlaf und keine Testzeit hatte, war der Test einer der besseren Launchtests im Netz. Bis auf B3D hat sich kaum jemand mal die ALUs genauer angesehen (bzw nur Whitepapers und bei 3DC/B3D geklautes Halbwissen abgeschrieben). Es hat kaum mal über die Funktionsweise von CFAA und dem Edge-Detection nachgedacht. Oder sind viele auf das AAA reingefallen. (was eigentlich EATM war)

Klar haben viele nachträglich nochmal neuere Artikel mit mehr Zeit (und auch damit verbundenen Erkenntnissen) veröffentlicht. Launchartikel sind selten wirklich richtig gut.



Schere nicht alle über einen Kamm. Jeder Redakteur schreibt seine eigenen Artikel. Madkiller, Lolman, ich, aths, BBSR, Raff. Da redet niemand dem anderen rein. Insofern ist eine Generalisierung in diesem Punkt eher unteres Denkniveau.

Absichtlich wird bei keinem Artikel gelogen, betrogen und verschwiegen. Ich weiß nicht wie du darauf kommst. Wir führten sogar als erste die Timedemos ad absurdum und versuchten Messungen analytisch zu gewichten, inwiefern AVG Timedemo Werte nun Sinn machten. Dank der Worst-Case-Savegames und mehrfacher Messung, wird ein Benchmark endlich mal so aussagekräftig, dass es das Spielgefühl ähnlich widergibt.

Ich schlage jedoch vor, dass du eine andere Seite und ein anderes Forum besuchst, welches vieleicht eine Zielgruppe hat, in die du besser passen würdest.

Ich frage mich sowieso, wie man sein Herz an einen kapitalistischen Konzern hängen kann, der sowieso nur auf Profit aus ist. Man kauft nach P/L und Erfüllung seiner individuellen Bedürfnisse.


Dass Lolman sich hier eine schöne Rosine rauspickt und in einen solchen Thread diese loslässt, ist natürlich nicht gut. Das gibt nur Ärger. Aber Forenposts haben IMO nichts mit Artikeln zu tun.


habe ich dir auch nie persönlich vorgeworfen, fande es halt nur schade das gerade eine seite wie 3dcenter solch einen test nicht durchführen konnte oder durfte (Zeitproblem).

Ich muss aber auch sagen das mich die artikel erst auf die palme gebracht haben. ich habe immer das produkt gekauft was für mich am besten ist, war mal 3dfx, dannn vidia, dann ati und dann wieder nvidia. Es hat mich damals und auch heute so dermassen angekotzt, das ati immer besser beurteilt wird als nvidia, obwohl das gar nicht stimmt.

mittlerweile ist ja der gedanke verbreitet das ati uns die gute bildqualität gebracht hat, betreffend af. Wenn man denjenigen dann darauf hinweist, das jahrelang nvidia das wesentlich bessere af angeboten hat, ist das alles gar nicht mehr wahr usw.

siehe lolli, geht es gegen nvidia ist er sofort zur stelle. Gewinnt eine karte von nvidia einen benchmark, kann es nur cheat sein. Gewinnt hingegen eine karte von ati plötzlich 80 % hinzu, ist das nur dem genialen treiberteam von ati zu verdanken.

Ich meine damals mit dem g70 war es doch gut das jeder darauf hingewiesen, das er filmmert wie sau am anfang, na 2-3 treiber war es ja auch größtenteils erledigt.

Nun betreibt ati mit a.i. und der bildqualität des r600 schmu, aber nun sind plötzlich die ganzen leute, die vorher augenkrebs selbst vom leichtesten flimmern bekommen haben, plötzlich sehr leidensfähig geworden.

Denn seien wir mal ehrlich, nvidia guckt sich das doch auch an. und die sehen ati kann machen was sie wollen, kriegen immer recht. Also habe ich die befürchtung das nicht unbedingt mit g92 aber auf jedenfall wir mit g100 wieder extreme bq verschlechterungen erleben werden

robbitop
2007-10-16, 18:29:24
Ich verstehe nicht, wieso niemand einfach mal das Wort Rechenleistung in den Raum wirft. Bioshock ist unter DX9 eine reine Xbox360 Portierung. Fast alle Xbox360 Portierungen zeigen ein ähnliches Bild. Die Rechenleistung der 2900XT ohne SFUs liegt wesentlich höher als die der 8800GTS. Da man davon ausgehen kann, dass bei optimaler Ausnutzung von Xenos auch der r600 davon profitiert, ist das Ergebnis weder verwundelich noch ungeheuerlich.
Die R600 hat auf jeden Fall deutlich mehr Rechenleistung als die GTS. Das könnte wirklich ein Grund sein. Ein anderer ist möglicherweise die Bandbreite. Dass R600 mit hohen Taktraten und ohne AA nicht schlecht ist, war ja schon vorher bekannt, insofern kann ich die Verwunderung kaum nachvollziehen.

Bei der GTX hingegen wäre es nicht mehr so eindeutig.

- SFUs nehmen Rechenlast ab
- G80 ALUs sind effizienter

Da wäre eher ein Rechenleistungsgleichstand zu sehen.

Madkiller
2007-10-16, 18:59:59
Juhu, darf ich mich dann hier auf das erste Review freuen, dass den R600 vor dem G80 sieht? Ich verbuche es vielleicht im Geiste wohl besser schon mal direkt unter "Comedy". :|

AMC
Ich werde mich wohl nie an das "Herzblut" gewöhnen, das hier manche bei GraKas zeigen... Aber ok.
Nochmal, das war ein einzelner Wert, von einem Spiel. Wenn ich geahnt hätte, was der hier für Wellen schlägt, hätte ich den ohne konkreten Kontext nie frei gegeben. Ok, kommt nicht mehr vor. Wartet einfach auf den kompletten Report bevor ihr weitere Urteile fällt. Thx.

Rhetorische Frage: Warum eigentlich diese Reaktionen? Ist es so schlimm, wenn die insgesamt oft langsamere Karte mal in einem Spiel unter gewissen Setting und einem OS mal deutlich vorne liegt?

btw
Es wurden in einem G80 vs R600 Artikel (der hoffentlich relativ bald mal rauskommt) beide Karten schon verglichen.
Zum Fazit sage ich mal so viel: Schau mal, welche Karte ich bei mir eingebaut habe. ;)

Mumins
2007-10-16, 19:11:28
Es hat mich damals und auch heute so dermassen angekotzt, das ati immer besser beurteilt wird als nvidia, obwohl das gar nicht stimmt.


Kann ich nicht nachvollziehen. Selbst als ATI die deutlich schnellere Karte hatte wurden ordentlich Nvidia Karten gekauft.

Pirx
2007-10-16, 19:24:18
Es geht nicht ums kaufen, es geht um biased Reviews. Und da ist 3dcenter leider oft ziemlich weit vorne dabei.
Undank ist der Welten Lohn kann man dazu nur sagen. 3DC war immer mit großem Einsatz und Akribie dabei, Verfehlungen/Cheats aller Hersteller zu enttarnen aber auch Verbesserungen zu loben. Das ist bei kaum einer anderen Seite zu beobachten, die meisten spulen doch nur ein Standardprogramm herunter, ohne sich groß um Hintergründe zu scheren. Gut, das es noch Seiten wie 3DC gibt, sonst würde nur noch das Halb- oder Nichtwissen regieren.

Mr. Lolman
2007-10-16, 19:49:32
Ach du meinst das Posten von halbfertigen Benches soll hier jemand gutheißen?
Das ich nicht lache.

Die Benchmarks sind fertig und valid. Ich hätt sie sonst weder gepostet, geschweigedenn überhaupt das ok dafür bekommen. Andererseits war das, in anbetracht der heftigen Reaktionen, wohl ein einmaliger Spoiler und kommt nicht wieder vor.

Ich dachte halt in meiner jugendlichen Naivität, dass sich manche freuen, wenn ich ihnen ein Zuckerl geb. Dass Geschreie von denen, denen das Zuckerl nicht geschmeckt hat, hab ich wohl unterschätzt. ;(

Da meine Posts ja gelöscht wurden - wahrscheinlich von Lolman, frage ich diesmal ganz unverfänglich:
Wie stehst du dazu, dass Lolman Benchergebnisse bereits vor dem Artikel postet - ohne Angaben von Settings etc.
Ist es nicht ersichtlich, dass dies nur genau dann geschieht, wenn man eine Diskussion anzündeln will? Und wieso ist das genau zufällig das Ergebnis, was ATI vorne sieht?

Ich hab kein einziges Post in dem Thread gelöscht, bzw. zur Löschung vorgeschlagen. Jetzt reichts langsam mit den Unterstellungen! :mad:

robbitop
2007-10-16, 19:52:43
@Spamgast
Ich hab deine Posts getrasht, weil nur Spam und Angriffe zu finden sind. Ich empfehle, ein anderes Forum aufzusuchen. Leute wie du sind hier unerwünscht.

AMC
2007-10-16, 21:40:34
Ich dachte halt in meiner jugendlichen Naivität, dass sich manche freuen, wenn ich ihnen ein Zuckerl geb. Dass Geschreie von denen, denen das Zuckerl nicht geschmeckt hat, hab ich wohl unterschätzt. ;(

Rolf, sorry, jetzt kann ich gerade nicht mehr vor :ulol4:. Du postest ein sogenanntes 'Leckerli', einen 'einzigen' Wert, denn du wohlwollend herausgepickt hast, der ausnahmsweise einen R600 mal vor der GTS sieht und wunderst Dich über die Reaktion? Mit der Rosinenpickerei hast Du doch eine Steilvorlage für deinen Thread "Wie biased ist der Lolman wirklich" geliefert, oder in Deinem Terminus: Du gibst dem roten Pferd ein Leckerli und wunderst Dich, dass die Reiter der grünen Pferde kotzen? Aber Du hast Recht 'naiv' trifft es wirklich. :rolleyes:


Weil ich, wenn ich AI umfassend behandle, das Gleiche auch mit NV machen müsst. Und das würde den Rahmen des Artikels sprengen. Natürlich werd ich auch NV- und ATi-BQ in nem späteren Review vergleichen. Der AI-Artikel hat aber höhere Priorität, da ja noch einer von R580-Zeiten ausstehend ist. Nen G80 hab ich mittlerweile.

Äh, nur zum Verständnis: der Artikel, der nun bald kommt, behandelt was? Den R580 :ugly: oder den R600?

AMC

AMC
2007-10-16, 21:43:05
Die R600 hat auf jeden Fall deutlich mehr Rechenleistung als die GTS. Das könnte wirklich ein Grund sein. Ein anderer ist möglicherweise die Bandbreite. Dass R600 mit hohen Taktraten und ohne AA nicht schlecht ist, war ja schon vorher bekannt, insofern kann ich die Verwunderung kaum nachvollziehen.

Bei der GTX hingegen wäre es nicht mehr so eindeutig.

- SFUs nehmen Rechenlast ab
- G80 ALUs sind effizienter

Da wäre eher ein Rechenleistungsgleichstand zu sehen.

Das gilt dann beim R600 ohne AA/AF unter DX9, ok. Trotzdem stellt sich hier dann doch die Frage, wenn die Rechenleistung verhanden ist, warum der R600 so brachial unter DX10 einbricht? (in Bioshock)

AMC

Nakai
2007-10-16, 21:51:06
Kann ich nicht nachvollziehen. Selbst als ATI die deutlich schnellere Karte hatte wurden ordentlich Nvidia Karten gekauft.

Da muss ich zustimmen, aber nur im Bezug auf R5xx und R4xx. Seit G80 ist es genau umgekehrt.

Bioshock isn DX10 Game, und wir haben 2 Karten die DX10 Können. Also warum sucht man sich Dx9 dazu aus? weil vorteil ATI oder was? weil da kein AA geht oder was? für mich is das nen fake.

Der Einzigste der ein Fake ist, bist du. Wenn du dich schon nicht traust zu registrieren oder dich anzumelden, dann halt bitte die Klappe.

Wieso gibt es keine Funktion, dass man Gäste ignoriert?

Mit der Rosinenpickerei hast Du doch eine Steilvorlage für deinen Thread "Wie biased ist der Lolman wirklich" geliefert, oder in Deinem Terminus: Du gibst dem roten Pferd ein Leckerli und wunderst Dich, dass die Reiter der grünen Pferde kotzen? Aber Du hast Recht 'naiv' trifft es wirklich

Mal ne Frage? Gehts hier eher darum, dass Lolman biased ist/sein soll oder um den R600?
Ansonsten seh ich keinen Grund, diese Diskussion fortzuführen...


mfg Nakai

AMC
2007-10-16, 22:18:58
Kann ich nicht nachvollziehen. Selbst als ATI die deutlich schnellere Karte hatte wurden ordentlich Nvidia Karten gekauft.

Er bezog sich nicht auf kaufen, sondern auf die Beurteilung der nVidia Karten hier.

Ich werde mich wohl nie an das "Herzblut" gewöhnen, das hier manche bei GraKas zeigen... Aber ok.

Hat mit Grakas nix zu tun. Ich wette, die meisten hier würden auch bei anderen Dingen, wo augenscheinlich nicht ganz neutralen Behauptungen aufgestellt werden, oder unsachliche Rosinenpickerei stattfindet, etwas für die Richtigstellung dieser Tatsache tun. Man muss immer im Kopf behalten, dass die Dynamik in einem Forum extrem viel Schwachsinn hervorbringen kann, dies gut zu sehen bei Threads, in denen z.B. die Vergangenheit verklärt wird (8500 vs. G4, etc.). Um eben genau solchen endlosen, einseitigen Argumentationen ein Gegengewicht zu liefern, regen sich halt manche auf, davon will ich mich auch nicht ausschliessen. Denn nur weil man 100x postet, dass der R600 in DX9 in Bioshock schnell ist, macht ihn das nicht generell schneller als einen G80. Genau darum geht es aber den Mantra-Postern, sei es nun Lolman mit gezielter Pickerei, oder seahawk, der mich mittlerweile stark an den Irakischen Informationsminister erinnert. Der behauptete auch bis zum Schluss, es gäbe keine US-Soldaten in Baghdad. ;)
Also: nix Herzblut -> Wahrheitsfindung.


Nochmal, das war ein einzelner Wert, von einem Spiel. Wenn ich geahnt hätte, was der hier für Wellen schlägt, hätte ich den ohne konkreten Kontext nie frei gegeben. Ok, kommt nicht mehr vor. Wartet einfach auf den kompletten Report bevor ihr weitere Urteile fällt. Thx.

Das hab ich schon verstanden.


Rhetorische Frage: Warum eigentlich diese Reaktionen? Ist es so schlimm, wenn die insgesamt oft langsamere Karte mal in einem Spiel unter gewissen Setting und einem OS mal deutlich vorne liegt?

Rhetorische Frage:
Warum wird immer gleich "Cheat" geschrien, wenn die oftmals schnellere Karte einen Benchmark mit großem Abstand gewinnt?

Was mich zu einer ganz anderen Eigenart dieses Forums bringt: Ich behaupte, sowohl die THG-Tests, die HardOCP-Tests und andere sind absolut korrekt durchgeführt worden! Warum? Weil die Kollegen das dort auch nicht zum ersten Mal machen und es halt noch andere Menschen ausserhalb 3DC gibt, die *richtig* Ahnung von dieser Materie haben. Das es hier allerdings soviele Schreihälse gibt, die, nach dem sie einige Sekunden die Charts herunterscrollen müssen, um ihren Lieblingschip zu finden, gleich "Cheat!" "Die haben keine Ahnung!" "Lolomfgrofl THG" und ähnliches von sich geben, vergiften Review-Threads wie diesen ebenfalls sehr stark, denn genau darum geht es doch: Reviews = Tests, auch wenn sie ein (o-ton lolman) "einigen nicht schmecken".


Gewinnt eine karte von nvidia einen benchmark, kann es nur cheat sein. Gewinnt hingegen eine karte von ati plötzlich 80 % hinzu, ist das nur dem genialen treiberteam von ati zu verdanken.

Genau darum geht es.


Wieso gibt es keine Funktion, dass man Gäste ignoriert?

Gibt es, schau in Deinem Kontrollzentrum unter "Buddy-/ Ignorier-Liste" nach, ganz unten.


Mal ne Frage? Gehts hier eher darum, dass Lolman biased ist/sein soll oder um den R600?

Mit solchen Aktionen driftet es schnell in diese Richtung. :(

AMC

Mr. Lolman
2007-10-16, 22:32:46
: der Artikel, der nun bald kommt, behandelt was? Den R580 :ugly: oder den R600?

AMC

Beides.

AMC
2007-10-16, 22:39:25
Und extra nochmal für Loli: Digit-Life 2900XT 1GiB Review (http://www.digit-life.com/articles2/video/r600-2-page1.html). Warum ich dieses Review hier poste? Einfach: Auch Digit-Life benutzen den integrierten WiC Benchmark, durch den ja seinerseits die "Vermutung" aufkam, nVidia würde hier "möglicherweise" bescheissen.

Was ich dabei weniger verstehe ist, warum sich ausgerechnet hier die 1GiB Version der 2900XT deutlich von der 512MiB Version absetzen kann, die GTS 320/640 und GTX aber ebenfalls gemäß ihrem Speicherausbau skalieren. (Man schaue hierzu bitte auf diesen link: klick (http://www.ixbt.com/video3/images/r600-2/w.png) der Chart ist zu groß zum einfügen.)

http://www.ixbt.com/video3/images/r600-2/w-pr.png

Für mich sieht das eher so aus, als würde der R600 hier an Architekturproblemen an sich knabbern und in seiner Effizienz behindert, nicht an einem potentiellen "Cheating" Seiten nvidias.

AMC

Abschliessend dazu: Seit wann cheatet die Firma, die vorne liegt?

Nachtrag: Auch wenn das "deutlich" in Prozenten gut aussieht, so handelt es sich um Zahlen im "5 - 12 fps" Bereich, so viel besser schneiden die GTS hier auch nicht ab, auch wenn sie den "spielbaren" Bereich berühren / erreichen. Treiber waren Cat 7.8 und FW 163.44, also bei beiden nicht die alleraktuellsten. Die Benches sind DX10.

Nakai
2007-10-16, 22:46:27
Wenn du Troll nichts dem Thema beizutragen hast, dann halt deine dämliche klappe.

Ich würde jetzt gerne auch persönlich werden, aber dann müsste ich mich auf deine Stufe stellen und das wär mir zu niedrig.;)

Achja mein Post hat mehr Inhalt, als dein Forenleben überhaupt mal haben wird.

Gibt es, schau in Deinem Kontrollzentrum unter "Buddy-/ Ignorier-Liste" nach, ganz unten.

Ja, endlich bin ich diesem optischem Tinitus los...wurde auch mal Zeit...;D
Viele Dank...ich hab zwar schon mal dort geschaut, aber die untere Liste total übersehen.

Mit solchen Aktionen driftet es schnell in diese Richtung.

Ja, das mag zwar stimmen, aber deswegen dauernd in dieser Wunde rumbohren? Selbst wenn Lolmann pro-ATI ist(was ich nicht zu entscheiden vermag), sollte man ihn doch deswegen nicht gleich mir allen Mitteln unterdrücken. Mich kotzt das an...

Die meisten sollten diese Probleme nicht so engstirnig sehen. Dann versuchen sich alle Arten von Fanboys, sich gegenseitig fertig zu machen, um...
1. Leute mit einer anderen Vorstellung irgendwie zu ärgern.
2. Ihr eigenes Ego mit allen Mitteln irgendwie zu stärken.
3. Frust abzulassen.

Die Liste könnte man jetzt noch erweitern, was ich nicht tun werde.
Es ist kindisch und billig und damit Ende.
Ich will nicht Lolmanns Meinung jetzt rechtfertigen, dazu bin ich nicht befugt...


mfg Nakai

robbitop
2007-10-16, 22:50:43
Rolf, sorry, jetzt kann ich gerade nicht mehr vor :ulol4:. Du postest ein sogenanntes 'Leckerli', einen 'einzigen' Wert, denn du wohlwollend herausgepickt hast, der ausnahmsweise einen R600 mal vor der GTS sieht und wunderst Dich über die Reaktion? Mit der Rosinenpickerei hast Du doch eine Steilvorlage für deinen Thread "Wie biased ist der Lolman wirklich" geliefert, oder in Deinem Terminus: Du gibst dem roten Pferd ein Leckerli und wunderst Dich, dass die Reiter der grünen Pferde kotzen? Aber Du hast Recht 'naiv' trifft es wirklich. :rolleyes:
An deinem Ton könntest du wirklich mal arbeiten. ;)
Wenn man diskutiert, dann bitte sachlich. Sonst eskaliert die Situation nur unnötig.

Zu den Fakten: es geht um den Performance Report über Bioshock. Lolman hat mitnichten Rosinen aus dem Artikel gepickt (mea culpa). Die R600 ist in Bioshock sehr stark und die GTS halt nicht so sehr (durchgängig in allen Savegames). Das liegt mitunter an der überlegenen Rechenleistung. (AA wurde mangels Vergleichbarkeit nicht mitgetestet, da IIRC nur G80 das in BS kann. das kommt der R600 hier sicher auch zugute. Dass der R600 ohne AA schon immer ganz gut war, ist ja keine Überraschung)

In anderen Spielen ist diese Führung (besonders, wenn AA zum Einsatz kommt) natürlich nicht der Fall. Besonders nicht seit dem 163.xx Treibern. Es zeigt aber ganz klar den Trend zum steigenden Bedarf nach Shaderleistung. In diesem Punkt ist R600 der GTS überlegen. (der GTX nicht)
Es ist also u.A. eine Frage der Shaderlast, zu wessen Gunsten eine entsprechende Messung ausgeht.



Äh, nur zum Verständnis: der Artikel, der nun bald kommt, behandelt was? Den R580 :ugly: oder den R600?



Es geht um den Bioshock Performance Report von Madkiller. Da werden G80, G71, R580 und R600 getestet.

AMC
2007-10-16, 22:54:29
An deinem Ton könntest du wirklich mal arbeiten. ;)

Nee komm, das war nun wirklich 'zu gut'. :P


Es geht um den Bioshock Performance Report von Madkiller. Da werden G80, G71, R580 und R600 getestet.

Nope, es ging um den Artikel über das A.I. von R580 und R600. :tongue:

AMC

robbitop
2007-10-16, 23:03:57
Nee komm, das war nun wirklich 'zu gut'. :P
Sachlichkeit ist in Diskussionen immer wichtig. :P

Nope, es ging um den Artikel über das A.I. von R580 und R600. :tongue:

AMC
Äh du verwirrst mich. :D
Also die Benches, die Lolman aus dem Ärmel gezaubert hat, sind vom Bioshock Report.


@all
EOD. Es geht jetzt wieder On Topic weiter. Keine Flames, keine Streits, keine Sticheleien!

seahawk
2007-10-17, 06:59:44
Weil ich, wenn ich AI umfassend behandle, das Gleiche auch mit NV machen müsst. Und das würde den Rahmen des Artikels sprengen. Natürlich werd ich auch NV- und ATi-BQ in nem späteren Review vergleichen. Der AI-Artikel hat aber höhere Priorität, da ja noch einer von R580-Zeiten ausstehend ist. Nen G80 hab ich mittlerweile.

Das finde ich nicht. Zum Vergleich bräuchte man nur HQ nehmen, das wäre als Vergleichsmaßstab ausreichend. Ich hoffe allerdings, dass Du mit der A.I. Lüge aufräumst und die vemreindliche bessere BQ von NV widerlegst.

Mumins
2007-10-17, 07:52:43
Er bezog sich nicht auf kaufen, sondern auf die Beurteilung der nVidia Karten hier.

Klar, aber es hat keine Auswirkungen, da der Unwissende sowieso immer Nvidia kauft und das sind nunmal die meisten Leute.

Lolman@work
2007-10-17, 08:00:56
Das finde ich nicht. Zum Vergleich bräuchte man nur HQ nehmen, das wäre als Vergleichsmaßstab ausreichend. Ich hoffe allerdings, dass Du mit der A.I. Lüge aufräumst und die vemreindliche bessere BQ von NV widerlegst.

Werd ich ggf machen, aber erst im späteren Artikel.

Gast
2007-10-18, 13:13:46
Sagt mal geht es nur mir so, oder sind derzeit alle 2900 Pro der Händler ausverkauft... Kriege nirgendwo mehr eine her

ChristianTHB
2007-10-18, 13:29:38
Stimmt schon, die sind derzeit vergriffen. Laut Auskunft eines Händlers gibt desen Lieferant an, dass es frühestens Anfang November wieder Nachschub gibt. Und da is dann sowieso die 8800 GT draußen, also plane Mal lieber diese Karte ein, hab ich mittlerweile auch gemacht ;)

Gast
2007-10-18, 13:37:18
Stimmt schon, die sind derzeit vergriffen. Laut Auskunft eines Händlers gibt desen Lieferant an, dass es frühestens Anfang November wieder Nachschub gibt. Und da is dann sowieso die 8800 GT draußen, also plane Mal lieber diese Karte ein, hab ich mittlerweile auch gemacht ;)
Ist die 8800GT denn schneller/besser als eine 2900 Pro und liegt diese dann auch Preislich im selben Bereich 200-220 EUR?

Weil wollte jetzt eigentlich nen PC zusammenstellen, aber werde das wohl nun vorerst ohne Grafikkarte tun.

seahawk
2007-10-18, 13:55:39
Die 8800GT muss man Anfang Nov. auch erstmal bekommen. Hardlaunch ja, aber die Mengen sollen begrenzt sein.

ChristianTHB
2007-10-18, 15:40:06
Hab mir derzeit auch nur CPU,Mobo und Ram geholt.
Also laut ersten Infos und Benchs soll die 8800 GT ziemlich rocken. Scheinbar auch die GTS mit 640MB übertrumpfen, weshalb diese auch ein Update wiederfährt. Aber erst Mal abwarten, sind ja nicht mal mehr 2 Wochen ;)

James Ryan
2007-10-18, 19:45:14
und die vemreindliche bessere BQ von NV widerlegst.

seahawk, ein G80 hat in HQ eine bessere BQ als jede andere ATi-Karte, das ist keine Lüge sondern Fakt!

MfG :cool:

The_Invisible
2007-10-18, 23:23:18
Du FB nervst echt hier, beim normalen zocken fällt das keinem Menschen auf.

P.S. Ich hab die 8800Gtx und die 2900Pro hier

bei mir ist zwischen 1600pro und 7900gtx auch nichts aufgefallen, also sind mal die ganzen computerbase benches für die katz.

mfg

beos
2007-10-18, 23:29:23
bei mir ist zwischen 1600pro und 7900gtx auch nichts aufgefallen, also sind mal die ganzen computerbase benches für die katz.

mfg

:eek: was...na dann - ich hab noch ne ET4000 ISA Grafikkarte hier - gibt mir Deine 7900er und ich gibt Dir diese Kultkarte ;D

Gast
2007-10-19, 09:15:07
Die 8800GT muss man Anfang Nov. auch erstmal bekommen. Hardlaunch ja, aber die Mengen sollen begrenzt sein.

Wäre eine Großproduktion zum Dezember hin zu erwarten, Seahawk?

seahawk
2007-10-19, 09:32:37
Eher. Im November wird sich die Verfügbarkeit schin einstellen. Nur am Launchtag und 2-3 Wochen danach könnte sie knapp sein. Wie das Verhältnis von 256MB/512MB Karten aussieht kann ich aber nicht sagen.

AnarchX
2007-10-19, 12:21:42
2 Wochen nach Launch soll die Verfügbarkeit der 8800 GT laut meinen Infos sehr gut sein, dazwischen könnte es leichte Probleme geben, wenn die Launchkarten schnell vergriffen sind.

vinacis_vivids
2007-10-19, 19:16:01
Ach Gott, ich hab mir den ganzen Thread durchgelesen und bin ziemlich schockiert.
Diese Hardware-"Tests" werfen teilweise sehr unterschiedliche Ergebnisse auf den Kunden.

Durchgedrungen zu mir ist , dass die 2900 Pro ein extrem gutes Preis/Leistungs- Verhältnis hat. Wohl das Beste im Mid-Range ähnlich der 7900GTO damals. Nur mit miesem Kühler, und genau das ist die Sache, die mich ankotzt. Wie kann so eine Firma nicht in der Lage sein, einen leistungsstarken und leisen Kühler anzubieten.

laser114
2007-10-19, 19:54:31
Das Problem liegt eigentlich nicht mehr beim Kühler, sondern beim Chip. Die Verlustleistung führt der Kühler ganz gut ab ... nur ist davon einfach viel zu viel vorhanden...

AnarchX
2007-10-19, 19:58:59
Das Problem liegt eigentlich nicht mehr beim Kühler, sondern beim Chip. Die Verlustleistung führt der Kühler ganz gut ab ... nur ist davon einfach viel zu viel vorhanden...

Wobei die Pro ja im Bereich der GTX bzw. Ultra liegen sollte, wo man es ja auch geschafft hat ein annehmbare Kühlung zu realisieren.

Imo fehlt ATi da einfach das passende Know-How bzw. gute Partner, aber wenigstens zeigt sich hier eine positive Tendenz, sodass es in der Zukunft wohl besser werden wird.

laser114
2007-10-19, 20:01:25
Naja, die Ultra ist unter Volllast nun auch nicht mehr leise. Und mit der wird ja auch nicht vergleichen, sondern (logischerweise) mit der GTS, wobei letztere gewinnt.

Im Idle hat der Kühler aber die Macke manchmal hochzudrehen ... hier hätte man wohl die Spannung / Taktraten stärker senken sollen - insofern möglich.

ChristianTHB
2007-10-19, 21:34:03
Es wär irgendwie schon vorteilhaft, wenn ATi vor dem Launch der 8800GT ein paar Samples der Refreshkarten (2950Pro/XT oder 3xxx ?) an div Magazine ausgeliefert hat. Dann könnte man wenigstens abschätzen ob sichs lohnt noch 2 Wochen zu warten. Denn wie schon geschrieben wird die 8800 GT wohl ziemlich schnell vergriffen sein, wenn sie wirklich so gut ist...:D

=Floi=
2007-10-19, 23:24:26
und dann werden natürlicjh keine mehr nachproduziert ^^

Gast
2007-10-21, 11:05:33
Wobei die Pro ja im Bereich der GTX bzw. Ultra liegen sollte, wo man es ja auch geschafft hat ein annehmbare Kühlung zu realisieren.

Imo fehlt ATi da einfach das passende Know-How bzw. gute Partner, aber wenigstens zeigt sich hier eine positive Tendenz, sodass es in der Zukunft wohl besser werden wird.


Wenn man sich das mal etwas genauer anschaut dann fehlt es ATI/AMD nicht an den guten Patneren für die Kühler, liegt eher daran das ein niedriger Preis erzielt wird wo man nunmal abstriche machen muss. Von Design und Fertigung erinnert das etwas an die früheren P2 - P3 Kühler.

Schlammsau
2007-11-03, 10:53:46
gibt es eigentlich schon infos, ob und wann die Pro wieder lieferbar wird!?
Momentan ist sie überall ausverkauft! Aber oft mit dem Hinweis, dass sie im Zulauf ist!

Mr. Lolman
2007-11-03, 10:54:55
angeblich wirds keine mehr geben...

Schlammsau
2007-11-03, 11:12:26
:( ....das wäre schade!!!!

Mr. Lolman
2007-11-03, 11:26:07
:( ....das wäre schade!!!!

Absolut. Vor ein paar Tagen erst, wurde mir ne Bestellung einer 1GB 2900 Pro gecancelt ;(

Schlammsau
2007-11-03, 11:29:19
Diese 4 Angebote gibts noch, mal sehen ob ich noch eine ergattern kann!
http://www.hardwareschotte.de/preise.php3?seachrange=all&searchstring=2900pro

Schlammsau
2007-11-03, 11:35:54
grad gesehen bei Alternate ist eine Pro 512MB noch lieferbar!
http://www.alternate.de//html/product/details.html?artno=JBXS1P&artno=JBXS1P&

Gast
2007-11-03, 13:40:14
grad gesehen bei Alternate ist eine Pro 512MB noch lieferbar!
http://www.alternate.de//html/product/details.html?artno=JBXS1P&artno=JBXS1P&
Schau die die HD3xxx dann lieber an, wird ähnlich Günstig und mit verbesserten Features.

Schlammsau
2007-11-03, 13:47:53
da kann man nur hoffen!