PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Werden ATi-Karten von Zeit zu Zeit effizienter?


123456
2006-10-01, 02:06:11
Man möge sich einmal ins Jahr 2002 zurückversetzen, in welchem ATis R300 das Licht der Welt erblickte. Zu der Zeit hieß nVidias Topmodell "GeForce 4 Ti 4600". Während zu Beginn beide Kontrahenten bei damals üblichen 1024 x 768 ohne AA & AF etwa gleichschnell zu sein schienen, zeichneten sich die Vorteile der Radeon von Zeit zu Zeit immer mehr ab, vor allem unter höheren Auflösungen mit eingeschaltetem AA & AF. Dazu ein Satz aus einem älteren Artikel von Computerbase: Dort, wo beide Kontrahenten in den Default-Einstellungen noch möglicherweise eng beieinanderliegen, kann sich die Radeon spätestens mit gesteigerter Bildqualität, des öfteren auch einfach nur bei Anhebung der Auflösung, mehr als nur deutlich absetzen.

Nun gut, wen wunderts? 8 Pixel-Pipelines vs. 4 Pixel-Pipelines, 256 Bit vs. 128 Bit, SM 2 vs. SM 1 ...

Aber worauf ich hinaus will, ist folgendes. Mir persönlich kommt es nämlich so vor, als hätte sich seit damals nicht viel geändert. Während neue VPUs der Kanadier und Kalifornier zu Beginn noch miteinander um die Leistungskrone konkurrieren, ändert sich die Situation nach einigen Monaten, wenn es schon Refresh-Chips von beiden Herstellern gibt und man sich nun auf diese konzentriert, so, dass der ATi-Chip vor dem Refresh deutlich schneller wird als der nVidia-Chip vor dem Refresh.

Denkt mal darüber nach. Erinnert ihr euch noch an den Release des R520 vor einem Jahr? Der Chip hat gerade so mit der 7800 GTX mithalten können. Siehe hier (http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/23/#abschnitt_performancerating_qualitaet) (X1800 XT mit HQ-AF: 72,4 %; 7800 GTX: 74,2 %). Tja, jetzt staunt mal und schaut euch die HEUTIGE Situation (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_xfx_geforce_7950_gt_570m_extreme/20/#abschnitt_performancerating_qualitaet) an. Gleiche Auflösung, gleiche Settings, gleiche Quelle: X1800 XT: 99,7 %; 7800 GTX: 75,9 %.

Erstaunlich, oder? Heute ist eine 7800 GTX keine Konkurrenz mehr für die X1800 XT. Heute konkurriert die X1800 XT mit einer 7950 GT! Selbst die übertaktete Variante "570M" von XFX der 7950 GT kann sich nicht von der X1800 XT absetzen. Und das alles, obwohl die neueren Spiele shaderlastig und nicht füllratenabhängig sind und man der X1800 XT vor einem Jahr nachgesagt hat, ihre 16 Pixel-Pipelines würden in Zukunft nicht ausreichen und die Karte könne nur deshalb mit der 7800 GTX mithalten, weil sie eine hohe Füllrate besitzt.

Jetzt ist die X1800 XT sogar schon in einem OpenGL-Spiel (Doom 3) dem überarbeiteten / übertakteten Chip (GeForce 7950) des Refresh-Chips (GeForce 7900) der GeForce 7800 überlegen.

Leistung der X1800 XT und 7800 GTX in Doom 3 vor einem Jahr:

1280 x 1024, 4x AA & 16x AF:

X1800 XT: 60,9 FPS
7800 GTX: 71,4 FPS

Leistung der X1800 XT und 7800 GTX in Doom 3 heute:

1280 x 1024, 4x AA & 16x AF:

X1800 XT: 87,3 FPS
7800 GTX: 69,2 FPS

Vor einem Jahr hätte ich überlegen müssen, ob 7800 GTX oder X1800 XT. Heute wüsste ich sofort, ob X1800 XT oder 7950 GT.

123456
2006-10-01, 02:10:32
Ich habe wohl den Threadtitel falsch gewählt. Es ist ja nicht so, dass nVidia-Karten schlechter werden. Bitte mal Threadtitel in "Werden ATi-Karten von Zeit zu Zeit effizienter?" umändern. Danke.

Edit: Selbst ist der Mann, ich kann meinen eigenen Thread ja selbst umbenennen. X-D

Gast
2006-10-01, 02:20:04
Da war doch was das der Speichercontroller falsch gesteuert wurde, und Shaderreplacement tut sein übriges. Jede Karte egal welcher Hersteller wird 1-2 Monate nach Release nochmal etwas schneller, da die Treiber ausgereifert sind und man hier und da sieht, gug dir die Gamecoder an, da kannste was verbessern.

Gast
2006-10-01, 02:22:33
Auserdem steht nicht dabei welche X1800XT das ist, gibt ja 3 Varianten.

123456
2006-10-01, 02:26:30
Da war doch was das der Speichercontroller falsch gesteuert wurde

Das galt für die 256 MiB-Variante der X1800 XT.

und Shaderreplacement tut sein übriges

Shader Replacement wurde bei Doom 3 schon mit den X8x0-Karten durch A.I. verwirklicht. Beim Release der X1800 XT also ebenfalls. Die Leistungssteigerung bei Doom 3 hat demnach nichts mit Shader Replacement zu tun. Abgesehen davon ist es ja nicht nur Doom 3, welches heute so viel schneller läuft auf einer X1800 XT.

Auserdem steht nicht dabei welche X1800XT das ist, gibt ja 3 Varianten.

Es wurde die stinknormale X1800 XT 512 MiB @ 625 MHz / 750 MHz benutzt - beidemale. Computerbase gibt definitiv an, wenn es sich um die X1800 XT-PE handelt. Und wenn es sich um die X1800 XT mit 256 MiB handeln würde, die es vor einem Jahr nicht gab, wäre es noch schlimmer für nVidia, das jetzt schon die "kastrierte" Version mit halb so viel Speicher schneller ist.

Jede Karte egal welcher Hersteller wird 1-2 Monate nach Release nochmal etwas schneller, da die Treiber ausgereifert sind und man hier und da sieht, gug dir die Gamecoder an, da kannste was verbessern.

Hier gehts aber um fast 30 % Leistungszuwachs. Die 7800 GTX hat seit damals gar nicht an Leistung gewonnen, maximal 1 %. Das ist nicht so normal. Entweder sind die Treiberentwickler bei ATi Spitzenleute, oder aber die Technologie der Karte an sich war von Anfang an zukunftsträchtiger, was viele ja angezweifelt haben, weil nVidia mit 24 Pixel-Pipelines lockte - und die Treiberentwickler sind scheiße, weil sie ein Jahr gebraucht haben, bis die Karte die Performance lieferte, die sie auch liefern sollte.

Also ich finde es schon sehr amüsant, dass selbst die X1800 XL, welche eigentlich mit der 7800 GT konkurrieren sollte, dieser heute überlegen ist und der 7800 GTX kaum nachsteht.

Ich könnte wetten, dass die X1900 XTX, welche sich zur Zeit auf dem gleichen Niveau wie die 7900 GTX befindet, in einem Jahr deutlich schneller sein wird.

Omee
2006-10-01, 02:36:55
was ist eine 5950U heute noch wert? richtig, weniger als 9700 Pro!

das spricht wohl auch bände. ati war für mich seit der 9700 der überlegenere hersteller die ganze zeit.

tokugawa
2006-10-01, 03:51:23
Shader Replacement wurde bei Doom 3 schon mit den X8x0-Karten durch A.I. verwirklicht. Beim Release der X1800 XT also ebenfalls. Die Leistungssteigerung bei Doom 3 hat demnach nichts mit Shader Replacement zu tun. Abgesehen davon ist es ja nicht nur Doom 3, welches heute so viel schneller läuft auf einer X1800 XT.


Da ist ein Denkfehler - die X1800 XT benötigt anderes Shader Replacement als die X8x0; das ist kein generischer Prozeß! Neue GPU, neue Leistungsmerkmale, daher neue Shaderoptimierungen. Außerdem ist Shader Replacement nur ein Teil von Treiberperformance-Optimierungen. Dass Treiber für eine GPU-Architektur mit der Zeit performanter werden können (und es die meiste Zeit auch sind), ist ja nichts neues.



Das ist nicht so normal. Entweder sind die Treiberentwickler bei ATi Spitzenleute,


ähm, *hust*, frag das lieber keine Entwickler :)


oder aber die Technologie der Karte an sich war von Anfang an zukunftsträchtiger, was viele ja angezweifelt haben, weil nVidia mit 24 Pixel-Pipelines lockte - und die Treiberentwickler sind scheiße, weil sie ein Jahr gebraucht haben, bis die Karte die Performance lieferte, die sie auch liefern sollte.


Gut dass Treiberqualität nicht alleinig von der Performance abhängt, sondern auch von der Robustheit...


was ist eine 5950U heute noch wert? richtig, weniger als 9700 Pro!


Für manche, die sie ausnutzen können und wollen, mehr als eine 9700 Pro. Ehrlich, müsste ich mich zwischen 5950U und 9700 Pro entscheiden, würde ich es - aber das bin nur ich, kann man nicht verallgemeinern - für die 5950U entscheiden. Die 9700U ist shadermäßig einfach zu begrenzt für mich. Die 5950U zwar auch (lieber als beide wären mir sowieso eine Shader Model 3.0 Karte), aber nicht so stark.

Fazit: deine Aussage hier lässt sich nicht verallgemeinern.


das spricht wohl auch bände. ati war für mich seit der 9700 der überlegenere hersteller die ganze zeit.

Ich find, es spricht nicht wirklich Bände. Das mag zwar sein, aber was ist daran so besonders?

Für mich waren beide etwa gleichwertig, überlegen waren beide, in ihren jeweils stärksten Gebieten (ATI für Consumer und Mainstream-Anwendungen, NVIDIA für Entwickler und Forschung).


Zum Thema selbst:
Ich persönlich glaube auch dass es wohl eher am Treiber-Tweaking, AI, sowie dem Memory-Controller-Finetuning liegt. An sich nichts besonderes: die GeForce 7 lehnt sich ja stark an der GeForce 6-Architektur an, die hatte ihr Treiber-Performance-Potential daher wohl schon zu GeForce 6-Zeiten ausgereizt (und war daher eine gute Karte für diejenigen, die performante, stabile/robuste sowie die Karte bereits ausreizende Treiber schon von Tag 1 haben wollten). Die X1x00-Serie dagegen kann man als relativ neu bezeichnen, was ihre Performance-Charakteristika angeht.

tombman
2006-10-01, 04:14:35
das spricht wohl auch bände. ati war für mich seit der 9700 der überlegenere hersteller die ganze zeit.
Kannst dich noch an die Eröffnungsparty der R300 erinnern? Lol, das was kollektives Rudelbumsen der ATI Leute, so dermaßen sind die abgegangen, daß die R300 doppelt so schnell wie die 4600er Dschiforss war ;D;D

Gast
2006-10-01, 04:42:29
Also wer sich mal durch die Computerbase Artikel durchklickert wird sehen das der Catalyst 5.13 für die X1800XT BIS zum Mai 2006 genutzt wurde, bzw. einfach übertragen wurde.

Aber dreh den Spieß mal um und schau genau:

FW 82.12 (78xx) + FW 84.20 (79xx)
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_xfx_geforce_7950_gt_570m_extreme/10/#abschnitt_doom_3

FW 84.43
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/18/#abschnitt_doom_3


Es is der RAM, der die GTs wohl ausbremst, is leider niemals ne 512MB dabei oder?
Seltsam das die 512MB Varianten der NV Karten sichtbar zulegen können.
Kannst auch andere ältere Benches vergleichen, da die X1800XT die einzigste R520 mit 512MB ist, wird sie zulegen, und der Rest bleibt seltsamerweise stehen.

Blöde is aber BF2 *g

ALT: http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/16/#abschnitt_battlefield_2

NEU: http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_xfx_geforce_7950_gt_570m_extreme/8/#abschnitt_battlefield_2

Die X1900XTX lassen wir auch mal ausen vor (93 vs 79 FPS), die is noch seltsamer, der damalige Treiber is besser gewesen für BF2.

Du siehst, is nich alles so superduper durchsichtig was Graka Treiber angeht, als X1900 besitzer krigste das kotzen oder?

Gast
2006-10-01, 04:50:15
Nebenbei, da sieht man vieleicht auch, wer sich bissl Mühe gibt, das sooviele falsch mit der Behauptung liegen 512MB brauch man nicht. Ja in 1280x1024 4xAA sieht mans fast nicht, da schiebt mans auf die Messungenauigkeit. Wenns dann auf jeden FPS ankommt, dann is die Karte mit weniger Speicher halt langsamer, weil schlechter. Aber mal richtig zu vergleichen tut keiner, der 512MB Test hier auf 3DCenter is auch n Witz, was man ja an der nicht aufgenommenen Kritik/Anmerkung zum Artikel sieht.

The_Invisible
2006-10-01, 09:17:27
das sind halt die opengl optimierungen die man nachher "eingefrickelt" hat, non mainstream opengl und ati ist ja ein eigenes kapitel für sich, siehe vergleich wo noch keiner optimieren konnte -> http://www.anandtech.com/printarticle.aspx?i=2828

der opengl part von ati ist fürn ar***, die hoffen das sich d3d10 durchsetzt und von opengl nix mehr zu hören ist

mfg

Gast
2006-10-01, 10:08:39
Heute ist eine 7800 GTX keine Konkurrenz mehr für die X1800 XT.

Das war sie auch nie, die Konkurrenz für die X1800XT war die 7800GTX 512 - da schon vorher abzusehen war das eine X1800XT schneller als eine 7800GTX sein würde.

Regards

deekey777
2006-10-01, 12:01:00
Die CB-Reviews sind hier keine gute Wahl, schließlich sind es Reviews einzelner Grafikkarten.
http://www.digit-life.com/video.html
Wie man sieht, gibt es da Monat für Monat je ein 3Digest mit den zum Zeitpunkt des Benchmark-Marathons aktuellen Treibern.
Wer Lust hat, kann die einzelnen Monate für jeder Grafikkarte auswerten.:)

Gast
2006-10-01, 12:29:50
Das war sie auch nie, die Konkurrenz für die X1800XT war die 7800GTX 512 - da schon vorher abzusehen war das eine X1800XT schneller als eine 7800GTX sein würde.

Regards

Nur weil es NV so sagt, ist es auch so?
ATI hat die X1800XT gegen den 7800GTX laufen lassen. Egal, schließlich geht es nicht um Konkurrenten sondern um das beste Angebot im jeweiligen Segment.

Mr Power
2006-10-01, 13:18:34
Kann es nich auch sein, dass sich mit der Zeit durch schnellere CPUs alte CPU-Limits abbauen (wäre dann bei der 1800er so) oder halt die Karte eben damals schon am Limit war, wo auch heutige schnellere CPUs nichts mehr dran ändern (wäre dann die 7800er)?

Gast
2006-10-01, 13:37:44
Nö, nur in mickrigen Auflösungen und keine quälitätssteigernden Features. Ansonsten limitiert immer die Grafik.

Gast
2006-10-01, 13:59:35
Nur weil es NV so sagt, ist es auch so?
ATI hat die X1800XT gegen den 7800GTX laufen lassen. Egal, schließlich geht es nicht um Konkurrenten sondern um das beste Angebot im jeweiligen Segment.

Eben, und das war High-End, was X1800XT vs. 7800GTX 512 hieß.

Regards

Hvoralek
2006-10-01, 14:24:43
Denkt mal darüber nach. Erinnert ihr euch noch an den Release des R520 vor einem Jahr? Der Chip hat gerade so mit der 7800 GTX mithalten können. Siehe hier (http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/23/#abschnitt_performancerating_qualitaet) (X1800 XT mit HQ-AF: 72,4 %; 7800 GTX: 74,2 %). Tja, jetzt staunt mal und schaut euch die HEUTIGE Situation (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_xfx_geforce_7950_gt_570m_extreme/20/#abschnitt_performancerating_qualitaet) an. Gleiche Auflösung, gleiche Settings, gleiche Quelle: X1800 XT: 99,7 %; 7800 GTX: 75,9 %.In der Zeit wurde auch einiges an Benchmarks ausgetauscht: AoE 3 und Earth 2160 wurden herausgenommen, CoD 2, Serious Sam 2 und Oblivion- Waldgebiete hinzugefügt. Allein das dürfte das Durchschnittsergebnis erheblich zu Gunsten der X1800 verändert haben.

Gast
2006-10-01, 14:27:41
Eben, und das war High-End, was X1800XT vs. 7800GTX 512 hieß.

Regards

Ich hätte lieber Preissegment schreiben sollen oder?
Die 7800GTX 512 war deutlich teuerer als die X1800XT.

Außerdem, wer sagt das die 7800GTX nicht im Highend-Segment war?



In der Zeit wurde auch einiges an Benchmarks ausgetauscht: AoE 3 und Earth 2160 wurden herausgenommen, CoD 2, Serious Sam 2 und Oblivion- Waldgebiete hinzugefügt. Allein das dürfte das Durchschnittsergebnis erheblich zu Gunsten der X1800 verändert haben.

Es wurde eben alles auf den neuesten Stand gebracht.

Gast
2006-10-01, 14:37:26
nein, die ati karten werden nicht effizienter.
nur die ati treiber sind nicht mehr ganz so schlecht wie sie mal waren :D

Hvoralek
2006-10-01, 14:41:29
Ich hätte lieber Preissegment schreiben sollen oder?
Die 7800GTX 512 war deutlich teuerer als die X1800XT.

Außerdem, wer sagt das die 7800GTX nicht im Highend-Segment war?Afair war die X1800XT bis zum Launch des R580 ein Stück teurer als die 7800GTX; der preisliche Gegenspieler wäre eher die X1800XL gewesen.


Es wurde eben alles auf den neuesten Stand gebracht.Die Änderunge im Performance- Rating haben aber zumindest auch (mMn hpts.) etwas mit Änderungen bei den genutzten Benchmarks zu tun und weniger mit wundersamen Sprüngen in der Leistung der Karten. Der einzige größere Unterschied, der mir mal aufgefallen ist, war bei Doom 3 mit AA/AF - dass ATIs OpenGL- Treiber keine Meisterleistung waren und wohl auch heute noch nicht sind, ist aber keine große Neuigkeit.

The_Invisible
2006-10-01, 14:43:21
In der Zeit wurde auch einiges an Benchmarks ausgetauscht: AoE 3 und Earth 2160 wurden herausgenommen, CoD 2, Serious Sam 2 und Oblivion- Waldgebiete hinzugefügt. Allein das dürfte das Durchschnittsergebnis erheblich zu Gunsten der X1800 verändert haben.

warum sie aoe3 rausgenommen haben kann ich nicht ganz verstehen, die engine ist auch heute noch sehr sehenswert. dort hat die x1800 ja sehr schlecht ausgeschaut, so kann sich schnell das ganze ergebnis verändern bzw ist garnicht vergleichbar

mfg

[](-__-)[]
2006-10-01, 14:43:39
Hmm, bis jetzt habe ich Leuten immer eine Radeon empfohlen. Die R300 sitzt noch so fest in meinen Kopf drin, das vergisst man so schnell nicht. Und warum sollte ich eine nVidia kaufen, wenn ich die ganze Zeit mit Radeons zufrieden gewesen bin?

Ich weiß, es klingt naiv. Aber für mich war nVidia immer "die dunkle Seite" und ATI "die Freundlichen". Richtig begründen kann ich das aber nicht, nur das nVidia mir unsymphatischer rüberkommt. Für mich sind die Leute von ATI einfach fähiger, zumindest scheint es so.

Sorry, aber das Beispiel muss ich bringen: Wie kann man es schaffen, eine Grafikkarte zu entwickeln, die im 2D Modus abraucht, wenn der Bildschrimschoner anspringt? Ok, das war ein Treiberproblem, der den Lüfter runterregulierte, da den Bildschrimschoner als 2D Modus erkannte.

Außerdem mag ich Canada mehr als die USA.

The_Invisible
2006-10-01, 14:45:33
(-__-)[]']Hmm, bis jetzt habe ich Leuten immer eine Radeon empfohlen. Die R300 sitzt noch so fest in meinen Kopf drin, das vergisst man so schnell nicht. Und warum sollte ich eine nVidia kaufen, wenn ich die ganze Zeit mit Radeons zufrieden gewesen bin?

Ich weiß, es klingt naiv. Aber für mich war nVidia immer "die dunkle Seite" und ATI "die Freundlichen". Richtig begründen kann ich das aber nicht, nur das nVidia mir unsymphatischer rüberkommt. Für mich sind die Leute von ATI einfach fähiger, zumindest scheint es so.

Sorry, aber das Beispiel muss ich bringen: Wie kann man es schaffen, eine Grafikkarte zu entwickeln, die im 2D Modus abraucht, wenn der Bildschrimschoner anspringt? Ok, das war ein Treiberproblem, der den Lüfter runterregulierte, da den Bildschrimschoner als 2D Modus erkannte.

Außerdem mag ich Canada mehr als die USA.

das sind argumente, ein politiker hätte es nicht besser rübergebracht ;)

mfg

Gast
2006-10-01, 14:47:13
Afair war die X1800XT bis zum Launch des R580 ein Stück teurer als die 7800GTX; der preisliche Gegenspieler wäre eher die X1800XL gewesen.


Die Änderunge im Performance- Rating haben aber zumindest auch (mMn hpts.) etwas mit Änderungen bei den genutzten Benchmarks zu tun und weniger mit wundersamen Sprüngen in der Leistung der Karten. Der einzige größere Unterschied, der mir mal aufgefallen ist, war bei Doom 3 mit AA/AF - dass ATIs OpenGL- Treiber keine Meisterleistung waren und wohl auch heute noch nicht sind, ist aber keine große Neuigkeit.

Ein Stück teurer, für deutlich mehr Performance, ist verkraftbar.


In Benchmarkparcours müssen immer neuere Anwendungen vertretet werden.
Hier hat ATI eben mir ihrem R520 einen besseren Chip für zukünftige Spiele geschaffen, was lobenswert ist. (es gibt keine Hardware die für die Zukunft geeignet ist)

[](-__-)[]
2006-10-01, 15:00:05
das sind argumente, ein politiker hätte es nicht besser rübergebracht ;)

mfg

Ich weiß ;) Aber ein Fanboy bin ich trotzdem nicht, die 7900 GTO ist schon eine Versuchung wert.

Hvoralek
2006-10-01, 15:04:09
Ein Stück teurer, für deutlich mehr Performance, ist verkraftbar.Warum soll das dann für 7800GTX - X1800XT gelten, aber nicht für X1800XT - 7800GTX512?

In Benchmarkparcours müssen immer neuere Anwendungen vertretet werden.Stimmt. Aber damit ist natürlich eine direkte Vergleichbarkeit mit älteren Tests nicht mehr gegeben.

Hier hat ATI eben mir ihrem R520 einen besseren Chip für zukünftige Spiele geschaffen, was lobenswert ist. (es gibt keine Hardware die für die Zukunft geeignet ist)Sie haben einen Chip geschaffen, der für später in CB- Benchmarks vertretene Spiele besser geeignet ist, das ist nicht zwingend mit größerer Zukunftssicherheit gleichzuetzen. Ich halte AoE wegen der hohen Arithmetiklast immer noch für eines der am besten geeigneten Spiele, um die Zukunftstauglichkeit (mit Blick auf UE3 & Co) abzuschätzen. Z.B. SS 2 ist technisch eher altbacken, es frisst fast nur Füllrate und schmiert mit "nur" 256 MB VRAM anscheinend stark ab, was beim Vergleich X1800XT - 7800GTX den R520 besser dastehen lässt, als er ist.

Auch in Oblivion- Außengebieten kann man nach modernen Shadern, die Aussagen über Anforderungen künftiger Spiele zulassen könnten, mit der Lupe suchen. Wenn man nach dem Test geht, müsstest Du dem 580 praktisch seine Existenberechtigung absprechen, der Vorspung ggü. R520 ist nur marginal. Eher aussagkräftig sind da die Innenareale mit reichlich Normal- und Parallax- Mapping. Hier gibt es dann nicht nur einen klaren Vorsprung (http://www.firingsquad.com/hardware/blivion_high-end_performance/page7.asp) für die 7800 GTX, sondern es zeigt sich auch ansatzweise der Nutzen des moderneren R580 ggü. R520.

=Floi=
2006-10-01, 16:26:26
ich will einen chip bei dem ich vom ersten tag an die optimale leistung habe

auch bei der GF3 hat sich gezeigt wie lange die karte durchhält
auch bisher hat mich die schlechte open gl leistung von ati immer fern gehalten...

HOT
2006-10-01, 16:44:02
ATI hatte bei der neuen Architektur ab x1xxx einfach mehr Optimierungspotenzial als NV bei ihrer eher klassischen Architektur. Ein R520 hat auch mehr Transistoren als ein G70/71. Das ist keine Zauberei, ATI hat da einfach mehr Arbeit reingesteckt. Der R520 kam aufgrund seiner neuen Architektur auch stark verspätet, deshalb der kurze Auftritt.
Wenn man die Architektur so drastisch ändert, wie ATI das tat, ist es ganz normal, dass die ersten Treiber noch lange nicht optimal sind und auchnoch haufenweise Fehler enthalten.

dargo
2006-10-01, 16:51:46
Man möge sich einmal ins Jahr 2002 zurückversetzen, in welchem ATis R300 das Licht der Welt erblickte. Zu der Zeit hieß nVidias Topmodell "GeForce 4 Ti 4600". Während zu Beginn beide Kontrahenten bei damals üblichen 1024 x 768 ohne AA & AF etwa gleichschnell zu sein schienen, zeichneten sich die Vorteile der Radeon von Zeit zu Zeit immer mehr ab, vor allem unter höheren Auflösungen mit eingeschaltetem AA & AF.
Du willst doch nicht ernsthaft die AF Qualität der G4 Ti mit der des R300 vergleichen oder?

Mr. Lolman
2006-10-01, 17:00:42
Du willst doch nicht ernsthaft die AF Qualität der G4 Ti mit der des R300 vergleichen oder?

NV war beim AF besser, Ati beim AA.

Gast
2006-10-01, 18:27:32
Du willst doch nicht ernsthaft die AF Qualität der G4 Ti mit der des R300 vergleichen oder?

Ich hab von Geschwindigkeit geredet, nicht von Bildqualität. oO

MechWOLLIer
2006-10-01, 19:13:19
warum sie aoe3 rausgenommen haben kann ich nicht ganz verstehen, die engine ist auch heute noch sehr sehenswert. dort hat die x1800 ja sehr schlecht ausgeschaut, so kann sich schnell das ganze ergebnis verändern bzw ist garnicht vergleichbar

mfg

Das ganze hatte zwei Gründe.
AOE3 ist einfach nur derbe CPU-Limitiert auf modernen GPUs.
Und zweitens, da ATi und nVidia AA in AOE3 komplett verschieden behandeln, war es einfach nicht sinnvoll, den Test drin zu behalten, da das Ergebnis, oder eher die angewandte Methode, komplett unterschiedlich war.

Und Benchmarks müssen immer wieder ausgewechselt werden, um auf der Höhe der Zeit zu bleiben, auch wenn dann die Vergleichbarkeit sinkt - in Kürze ist es dann auch wieder so weit.

Hvoralek
2006-10-01, 19:38:52
Das ganze hatte zwei Gründe.
AOE3 ist einfach nur derbe CPU-Limitiert auf modernen GPUs.Das stimmt, sofern man reale Safegames verwendet. Die Lösung für GraKa- Benchmarks sind - so gaga das auch klingen mag - Timedemos. Die stellen natürlich kein praxisnahes Szenario dar, aber das schadet ja nicht, wenn es darum geht, die Leistungsfähigkeit von GraKaen zu vergleichen. Ist es z.B. praxisnah, eine X1600 in UXGA zu testen, und dann noch mit AA/AF? Bei diesen Benchmarks geht es ja nicht um praktische Aussagen zur Spielbrkeit, sondern um die Fähigkeiten dieser einzelnen Komponente. Dann kommt es nur darauf an, GraKa möglichst zu be- und gleichzeitig die CPU zu entlasten, wobei Timedemos ein Mittel zum Zweck sein können. Dann bekommt man auch bei AoE 3 aussagekräftige Ergebnisse (http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/16/#abschnitt_age_of_empires_3).

Und zweitens, da ATi und nVidia AA in AOE3 komplett verschieden behandeln, war es einfach nicht sinnvoll, den Test drin zu behalten, da das Ergebnis, oder eher die angewandte Methode, komplett unterschiedlich war.Natürlich ist FP16 mit SS und FX10 mit MS nicht vergleichbar. Nach der Überlegung hätte man das Teil gar nicht erst als Benchmark verwenden dürften, hat es aber, wie ich finde, zu recht, dennoch getan.

Und Benchmarks müssen immer wieder ausgewechselt werden, um auf der Höhe der Zeit zu bleiben, auch wenn dann die Vergleichbarkeit sinkt - in Kürze ist es dann auch wieder so weit.Natürlich braucht man heute nicht mehr Q3A zu benchen. :wink: ZB von UT2004 hat man völlig zurecht abgesehen. Ich verstehe nur immer noch noch nicht, warum man auch technisch recht moderne Spiele aus dem Programm wirft und durch solche simplen Füllratenfresser wie SS2 oder Oblivion-Wälder ersetzt. Jedenfalls ist wohl offensichtlich, dass ATI von den Änderungen sehr stark profitiert hat. Dass dadurch wirklich besser die Anforderungen kommender Spiele abgebildet werden, sehe ich nicht, eher das Gegenteil. Es sei denn, die Außenperformance in Oblivion hängt mit Speedtree zusammen, dann hätte Nvidia ein Problem. Da Bethesda aber mW weitgehend auf 9800ern entwickelt hat und zudem Xenos im Hinterkopf haben musste, vermute ich die Ursache eher bei denen.

dargo
2006-10-01, 20:04:56
Ich hab von Geschwindigkeit geredet, nicht von Bildqualität. oO
Richtig. Da aber die AF Qualität bei beiden Karten unterschiedlich ist/war macht ein Performancevergleich unter AF kaum Sinn.

tokugawa
2006-10-01, 20:08:51
(-__-)[]']Hmm, bis jetzt habe ich Leuten immer eine Radeon empfohlen. Die R300 sitzt noch so fest in meinen Kopf drin, das vergisst man so schnell nicht. Und warum sollte ich eine nVidia kaufen, wenn ich die ganze Zeit mit Radeons zufrieden gewesen bin?

Ich weiß, es klingt naiv. Aber für mich war nVidia immer "die dunkle Seite" und ATI "die Freundlichen". Richtig begründen kann ich das aber nicht, nur das nVidia mir unsymphatischer rüberkommt. Für mich sind die Leute von ATI einfach fähiger, zumindest scheint es so.

Sorry, aber das Beispiel muss ich bringen: Wie kann man es schaffen, eine Grafikkarte zu entwickeln, die im 2D Modus abraucht, wenn der Bildschrimschoner anspringt? Ok, das war ein Treiberproblem, der den Lüfter runterregulierte, da den Bildschrimschoner als 2D Modus erkannte.

Außerdem mag ich Canada mehr als die USA.

Wenigstens erkennst du selbst, wie naiv und eigentlich deppert diese Argumentation ist.

Für mich sind in Bezug auf "Freundlichkeit" ATI und NVIDIA gleich. Das bestätigen mir auch die Begegnungen auf Computergrafik-Konferenzen wie der Eurographics: die nicht-Marketing-Leute (also Researcher und Engineers) von beiden haben was drauf und sind bewundernswert - und zudem gegenüber dem Konkurrenten durchaus kooperativ (also, ist nicht grad so als ob die vernünftigen Leut dort, also die Researcher und Engineers, den Konkurrenten "feindlich" gegenüber stehen würden, das kommt nur beim Marketing so rüber).

Das mit dem Treiberproblem lässt sich auch leicht umdrehen: mit dem ATI DirectX-Treiber (in einigen Versionen) kann man den Rechner genüßlich rebooten, wenn man bei DrawPrimitive() "0" als Primitive-Count angibt. Robustheit und Stabilität ist was anderes. Wenn für die Geschwindigkeit die Robustheit leidet, ist das eigentlich bezüglich der Treiberqualität schlecht (d.h. die Treiber sind zwar schneller, aber trotzdem schlechter).

Wenn man mit NVIDIA und ATI tatsächlich Kontakt hat (etwa als Entwickler oder über wissenschaftliche Konferenzen), dann kriegt man jedenfalls einen ganz anderen Eindruck als so wie du es hier darstellst. Wenn man Entwickler oder Forscher ist, dreht sich das Bild sogar: hier tut NVIDIA deutlich mehr gutes als ATI - auch eine der führenden ATI Researcher hat auf der Eurographics gemeint, dass sie nach dem AMD-ATI-Merger nicht weiß, wie es mit der ATI Research-Abteilung weitergeht, budgetär.

Über deinen Eindruck können Leute, die tatsächlich etwa mit den Engineers von beiden Kontakt haben, wirklich nur den Kopf schütteln.

Das USA-Canada-Argument ist sowieso total nichtig. Das ist nur der Hauptsitz, aber die Leute die bei beiden Firmen arbeiten sind absolut international (ich kenn jemand, der bei NVIDIA arbeitet, der aus Kanada stammt, etwa). Wo das Büro des Hauptquartiers sitzt, sagt nichts aus über die Nationalität der dort arbeitenden Leute. Und selbst dann wäre dieses Argument ziemlich... dumm (das sind dann schon Auswüchse von Anti-Amerikanismus, den ich selbst bei aller berechtigten USA-Kritik in deren Außenpolitik absolut nicht mehr nachvollziehen kann).

Also, man kann nicht sagen dass NVIDIA "die Amerikaner" sind, oder dass ATI "die Kanadier" sind. Das trifft absolut nicht mehr zu.

Quasar
2006-10-02, 01:02:52
Ich will ja nicht stören, aber habt ihr eigentlich mal auf die Testsettings geschaut? Mittlerweile bencht CB mit aktiviertem Transparenz-AA und die Prozentwerte sind jetzt auch nicht mehr auf die schnellste Karte normiert, wie es ausschaut.

Rechnet lieber nochmal genau nach. :)

Hvoralek
2006-10-02, 01:30:24
Ich will ja nicht stören, aber habt ihr eigentlich mal auf die Testsettings geschaut? Mittlerweile bencht CB mit aktiviertem Transparenz-AA [...]Kostet das nicht beides ziemlich genau gleich viel Leistung? Dadurch sinken natürlich die Framerates insgesamt (Oblivion - *girks*), am Verhältnis der einzelnen Karten zueinander dürfte sich aber nicht viel ändern.

[...]und die Prozentwerte sind jetzt auch nicht mehr auf die schnellste Karte normiert, wie es ausschaut.Stimmt, die Performaceratings werden neuerdings anscheinend relativ zum gerade getesteten Modell angegeben. Für den Vergleich zweier Karten macht das aber keinen Unterschied: Ob nun bezogen auf die schnellste Karte A 70% leistet und Karte B 50% oder bezogen auf das getestete Modell Karte A 105% und Karte B 75% - In beiden Fällen ist Karte A 40% schneller.

StefanV
2006-10-02, 02:10:29
Nur wenn beide Transparenz AA Implementierungen identisch sind bzw das gleiche berechnen und auch gleich effizient sind, was irgendwie nicht der Fall zu sein scheint....

Hvoralek
2006-10-02, 02:17:04
Soweit ich das bisher mitbekommen habe, gibt es im Durchschnitt keine nennenswerten Unterschiede in der Performance. Wobei ich leider noch keinen umfangreichen Artikel gefunden habe, der sich genau damit befasst. Worauf beziehst Du Dich damit, das "[scheine] irgendwie nicht der Fall zu sein"?

desert
2006-10-02, 09:58:21
ich würde mal denken, das bei ati mit t-msaa und bei nvidia mit t-ssaa.

zitat www.computerbase.de

"wobei wir auf ATi-Grafikkarten zusätzlich das sogenannte Adaptive Anti-Aliasing (AAA) und auf nVidia-GPUs das Transparency Super-Sampling-Anti-Aliasing (TSSAA) hinzuschalten, damit flimmernde Alpha-Test-Texturen geglättet werden"

Gast
2006-10-02, 10:19:19
Ich würd TSAA/MSAA extra benchen, gibt Spiele da bricht jede Karte ein wenn man das anschaltet oder es gibt scheis Bäume (EQ2).

Hier mal was neues von Anandtech, zeigt nicht gerade das Treiber schneller werden, sondern das man auch mit HQ und Quality von beiden Herstellern vergleichen kann.

Ich greif gleichmal Q4 raus, da sieht man nen ordentlichen Unterschied: http://www.xbitlabs.com/articles/video/display/quality_vs_quantity_11.html

Darunter findet ihr SS2, und da sieht man das das Füllrate ohne Ende frisst. Is ein Extrembeispiel, wenn man da TSAA noch reinschaltet gute nacht. Da kann ich auch gleich SSAA auf ner NV anschalten...

Ach ja gebencht wurde mit:

ATI
Catalyst A.I.: Standard
Mipmap Detail Level: High Quality
High Quality AF: On (wenn aus extra angegeben)

NV
Texture Filtering: High Quality (wenn Quality extra angegeben)
Trilinear optimization: Off
Anisotropic mip filter optimization: Off
Anisotropic sample optimization: Off

HOT
2006-10-02, 10:33:31
[...]

Natürlich braucht man heute nicht mehr Q3A zu benchen. :wink: ZB von UT2004 hat man völlig zurecht abgesehen. Ich verstehe nur immer noch noch nicht, warum man auch technisch recht moderne Spiele aus dem Programm wirft und durch solche simplen Füllratenfresser wie SS2 oder Oblivion-Wälder ersetzt. Jedenfalls ist wohl offensichtlich, dass ATI von den Änderungen sehr stark profitiert hat. Dass dadurch wirklich besser die Anforderungen kommender Spiele abgebildet werden, sehe ich nicht, eher das Gegenteil. Es sei denn, die Außenperformance in Oblivion hängt mit Speedtree zusammen, dann hätte Nvidia ein Problem. Da Bethesda aber mW weitgehend auf 9800ern entwickelt hat und zudem Xenos im Hinterkopf haben musste, vermute ich die Ursache eher bei denen.

wenn SS2 oder Oblivion solche Füllratenfresser sind, warum sind dann dort NV Karten nicht im Vorteil? Immerhin haben doch gerade die NV Karten wesentlich mehr Füllrate.

HOT
2006-10-02, 10:36:59
Ich würd TSAA/MSAA extra benchen, gibt Spiele da bricht jede Karte ein wenn man das anschaltet oder es gibt scheis Bäume (EQ2).

Hier mal was neues von Anandtech, zeigt nicht gerade das Treiber schneller werden, sondern das man auch mit HQ und Quality von beiden Herstellern vergleichen kann.

Ich greif gleichmal Q4 raus, da sieht man nen ordentlichen Unterschied: http://www.xbitlabs.com/articles/video/display/quality_vs_quantity_11.html

Darunter findet ihr SS2, und da sieht man das das Füllrate ohne Ende frisst. Is ein Extrembeispiel, wenn man da TSAA noch reinschaltet gute nacht. Da kann ich auch gleich SSAA auf ner NV anschalten...

Ach ja gebencht wurde mit:

ATI
Catalyst A.I.: Standard
Mipmap Detail Level: High Quality
High Quality AF: On (wenn aus extra angegeben)

NV
Texture Filtering: High Quality (wenn Quality extra angegeben)
Trilinear optimization: Off
Anisotropic mip filter optimization: Off
Anisotropic sample optimization: Off

ATIs High Quality AF ist ein Modus, bei dem NV nicht mithalten kann. Wenn man NV gegen ATI bencht darf ATI nicht in HQ gebencht werden, sonst haben wir Vergleiche wie bei GF4 vs. R300.
Zudem macht es einfach keinen Sinn AAA in Low Quali gegen Geforce TAA in Quality zu benchen, so blöd wird auch keiner sein. Ich finde den Einsatz von TAA in manchen Spielen eh etwas fragwürdig, da es einige Games gibt, die darauf doch sehr allergisch reagieren. Man müsste hier differenzieren.

Gast
2006-10-02, 10:51:15
Man hat ja mit und ohne "Area-AF" gebencht, damit man mal sieht was das kostet wenn mans einschaltet. Das ist ja das was jeder heute bei Benchmarks tun sollte aber der Zeitaufwand is halt imens, für jede Karte alles doppelt gemoppelt machen.

HOT
2006-10-02, 11:00:56
Man hat ja mit und ohne "Area-AF" gebencht, damit man mal sieht was das kostet wenn mans einschaltet. Das ist ja das was jeder heute bei Benchmarks tun sollte aber der Zeitaufwand is halt imens, für jede Karte alles doppelt gemoppelt machen.

Es ist nett, dass das man gebencht wird, jedoch hat AreaAF einfach nichts in einem NV/ATI Vergleich verloren.

Gast
2006-10-02, 11:08:17
Eih doch, man zeigt was die Karte noch so kann, sonst kommen doch Leute sofort angewatschelt die sich das Baby gekauft haben, schalten AreaAF ein und am Ende fehlen ein paar FPS, das Geschreie kennen wir doch.
Keiner kauft sich doch ne absolute Highend Karte und fährt dann Quality in 1024er Auflösung.

Ich glaube du willst darauf hinaus das man das fairer Veranschaulichen soll oder? Aber warum, gibt auch Benches da siehste das selbst mit AreaAF die XTX die Nase vorne hat, mal bricht die GX2 mit HQ total ein, mal juckt es beide Karten nicht ob jetzt die Quality hoch ist oder nicht.

Für Fanboys mag so ein Benchmark ein gefundenes Fressen sein sich zu bekriegen, für mich als Besitzer einer GF79GT sagt der Benchmark nix, auser das er Teils das bestätigt was einige im NV Forum sagen, das Quality manchmal etwas an Speed bringt, einige klammern sich ja noch an UT04. was für mich nix heißt, da altes Game. SS2 ist aktuell und zeigt wo die Füllrate hängt *g

HOT
2006-10-02, 11:09:32
Eih doch, man zeigt was die Karte noch so kann, sonst kommen doch Leute sofort angewatschelt die sich das Baby gekauft haben, schalten AreaAF ein und am Ende fehlen ein paar FPS, das Geschreie kennen wir doch.
Keiner kauft sich doch ne absolute Highend Karte und fährt dann Quality in 1024er Auflösung.

Ich glaube du willst darauf hinaus das man das fairer Veranschaulichen soll oder? Aber warum, gibt auch Benches da siehste das selbst mit AreaAF die XTX die Nase vorne hat, mal bricht die GX2 mit HQ total ein, mal juckt es beide Karten nicht ob jetzt die Quality hoch ist oder nicht.

Für Fanboys mag so ein Benchmark ein gefundenes Fressen sein sich zu bekriegen, für mich als Besitzer einer GF79GT sagt der Benchmark nix, auser das er Teils das bestätigt was einige im NV Forum sagen, das Quality manchmal etwas an Speed bringt, einige klammern sich ja noch an UT04. was für mich nix heißt, da altes Game. SS2 ist aktuell und zeigt wo die Füllrate hängt *g

ok, da haste recht :)

Gast
2006-10-02, 11:42:50
Hier mal was neues von Anandtech,...

Ich meine natürlich XBit Labs, sry. Vieleicht sollt ich mich mal anmelden fürs editieren ^^

Mr. Lolman
2006-10-02, 12:15:53
Ich find eigentlich bedenklich wie groß der Unterschied zw Q und HQ tw. immernoch ist. Und das auf ner 7950GX2, mit 48 Pixelpipelines...

The_Invisible
2006-10-02, 12:24:23
Ich find eigentlich bedenklich wie groß der Unterschied zw Q und HQ tw. immernoch ist. Und das auf ner 7950GX2, mit 48 Pixelpipelines...

ich finds eher bedenlich das sie AI off nicht miteinbezogen haben...

mfg

Gast
2006-10-02, 12:29:27
Naja schau dir mal die Computerbase Benchmarks bei 1600*1200 4xAA+16AF an, rofl. Da man TSAA/AAA aktiviert schießen sich die Grakas ins Nirvana.

In SS2 ist bei XBitlabs 4xAA (normal) aktiv, frisst ja auch Leistung, müsste man mal ohne AA und dann HQ-Q schaun inwieweit sich da die Performance ändert.

Btw, wäre ein reiner 48TMU Chip mit ordentlich Speicherbandbreite sicher schneller, als ein SLI Betrieb.

Gast
2006-10-02, 12:34:04
ich finds eher bedenlich das sie AI off nicht miteinbezogen haben...

mfg

Warum? Sollen doch nur Shader Bugfix/Optimierungen dann deaktiviert sein oder. Aber hätte man das dazu genommen hätte man endlich mal aus einer Hand nen kompletten Optimierungstest.
AI Standart mit Rest auf High getrimmt entspricht aber glaub dem was so ziemlich jeder Besiter einer R580Serie einschaltet. AreaAF schaltet sicher keiner auf den Karten ab... aber nice to have als Zahl.

The_Invisible
2006-10-02, 12:58:57
Warum? Sollen doch nur Shader Bugfix/Optimierungen dann deaktiviert sein oder. Aber hätte man das dazu genommen hätte man endlich mal aus einer Hand nen kompletten Optimierungstest.
AI Standart mit Rest auf High getrimmt entspricht aber glaub dem was so ziemlich jeder Besiter einer R580Serie einschaltet. AreaAF schaltet sicher keiner auf den Karten ab... aber nice to have als Zahl.

ist leider nicht so wie Raff öfter zu berichten vermag

sie hätten es aber einfach machen sollen, grund hin oder her. das AI auch an guten optimierungen gekoppelt ist wär dann halt einfach pech für ati gewesen, so hart es klingt

mfg

Gast
2006-10-02, 13:02:13
The Invisible kommt immer mit ai Low obwohl er noch nie ne X1k Karte hatte.

The_Invisible
2006-10-02, 13:11:01
The Invisible kommt immer mit ai Low obwohl er noch nie ne X1k Karte hatte.

man bist du witzig -> http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4829720&postcount=45

Hvoralek
2006-10-02, 14:11:32
wenn SS2 oder Oblivion solche Füllratenfresser sind, warum sind dann dort NV Karten nicht im Vorteil? Immerhin haben doch gerade die NV Karten wesentlich mehr Füllrate.Wo kommt eigentlich dieses Gerücht her, Nvidia- Karten hätten pauschal Vorteile bei der Füllrate, ATI- seien arithmetisch stärker. Bisher sind die einigen ATI- Karten mit einer im Verhältnis zur Füllrate höheren Arithmetikleistung als die 7xxxer die X1600/1900er. Die hier konkret angesprochenen Karten (X1800XT und 7800 GTX) haben praktisch dieselbe Füllrate, allerdings ist die Geforce arithmetisch grob doppelt so stark.

Dass bei den beiden Benchmarks ATI- Karten so gut abschneiden hängt mit Optimierungen auf deren Architektur zusammen, liegt aber ncht an einer hohen Arithmetiklast. Schau Dir mal an, wie in den Fällen die X1900T ggü. der X1800XT abschneidet. Die beiden Karten sind fast gleich, abgesehen davon, dass erstere über die dreifache Arithmetikleistung verfügt. Und was bringt ihr die bei SS2 oder Oblivion- Wäldern?

Ich find eigentlich bedenklich wie groß der Unterschied zw Q und HQ tw. immernoch ist. Und das auf ner 7950GX2, mit 48 Pixelpipelines...Warum sollte eine insgesmt stärkere Karte durch diese Optimierungen weniger gewinnen als eine schwächere? Wenn dadurch x% an Arbeit umgangen werden, bringt das auch entsprechend fps, egal, ob von einer Basis von 10 fps oder von 80 fps.

Mr. Lolman
2006-10-02, 14:18:26
Die beiden Karten sind fast gleich, abgesehen davon, dass erstere über die dreifache Arithmetikleistung verfügt. Und was bringt ihr die bei SS2 oder Oblivion- Wäldern?

Bei Oblivion Wälder tw. ganz schön viel. Es kommt nur auf die Stelle an. Stöber mal ein bisschen im Benchmark Forum.


Warum sollte eine insgesmt stärkere Karte durch diese Optimierungen weniger gewinnen als eine schwächere? Wenn dadurch x% an Arbeit umgangen werden, bringt das auch entsprechend fps, egal, ob von einer Basis von 10 fps oder von 80 fps.

Weil die 7950GX2 weniger am Füllratenlimit hängt als eine 7900GT(X).

z.B. UT2004: War für NV40 HQ ein großes Problem, was tw. mit 50%igen Einbrüchen bestraft wurde. Ne 7900GTX hat das Problem nicht.

Gast
2006-10-02, 14:26:46
Bei Oblivion Wälder tw. ganz schön viel. Es kommt nur auf die Stelle an. Stöber mal ein bisschen im Benchmark Forum.
Wenn du mal ein bißchen stöbern würdest, hättest du gesehen, dass auch eine X1800XT da deutlich schneller als die GF ist - mit einem Drittel der Arithmetik-Leistung der X1900.

Daran kann es also wohl kaum liegen.

Hvoralek
2006-10-02, 14:29:39
Weil die 7950GX2 weniger am Füllratenlimit hängt als eine 7900GT(X).In Relation zur Füllrate verfügt eine 7900GTX über praktisch die gleiche Bandbreite und Arithmetikleistung. Wenn bei einer GTX die Füllrate der Flaschenhals ist davon 10% eingespart werden, wieso sollte das bei einer GX2 anders sein?

z.B. UT2004: War für NV40 HQ ein großes Problem, was tw. mit 50%igen Einbrüchen bestraft wurde. Ne 7900GTX hat das Problem nicht.Und das liegt nicht eher an Änderungen in der Architektur?

Mr. Lolman
2006-10-02, 14:31:48
[QUOTE=Hvoralek]In Relation zur Füllrate verfügt eine 7900GTX über praktisch die gleiche Bandbreite und Arithmetikleistung. Wenn bei einer GTX die Füllrate der Flaschenhals ist davon 10% eingespart werden, wieso sollte das bei einer GX2 anders sein?

Vll. wegen CPU Limit. Oder die Speichermenge limitiert. Oder die SLI Logik....

Hakkerstiwwel
2006-10-02, 14:35:59
Ich find eigentlich bedenklich wie groß der Unterschied zw Q und HQ tw. immernoch ist. Und das auf ner 7950GX2, mit 48 Pixelpipelines...
Warum? Sieht so aus als haette die GX2 unter Q einen massiven (+-15%)Bandbreitenueberschuss vs Fuellrate, und in verschiedenen Faellen, wenn der Unterschied nicht so groß ist, die Shader limitieren.

Hvoralek
2006-10-02, 14:41:33
Vll. wegen CPU Limit.Das würde nichts über die Karte aussagen, sondern nur zeigen, dass unter unsinnigen Bedingungen getestet wurde. Es kann doch nicht der Sinn eines GraKa- Benchmarks sein, in eine CPU- Limiterung zu rennen.

Oder die Speichermenge limitiert.Die Chips einer GX2 haben jeweils ebenso viel Speicher zur Verfügung wie der einer GTX, obwohl sie einzeln schwächer sind. Da könnte der Speicher noch eher bei einer GTX limitieren aber bei 512MB sehe ich auch keine große Gefahr.

Oder die SLI Logik....Inwiefern soll die die Verluste durch das Ausschalten von Filteroptimierungen verringern können?

Gast
2006-10-02, 15:45:19
Vor allem bei AFR ;)

Tigerchen
2006-10-03, 09:07:45
Also ich finde es schon sehr amüsant, dass selbst die X1800 XL, welche eigentlich mit der 7800 GT konkurrieren sollte, dieser heute überlegen ist und der 7800 GTX kaum nachsteht.

Ich könnte wetten, dass die X1900 XTX, welche sich zur Zeit auf dem gleichen Niveau wie die 7900 GTX befindet, in einem Jahr deutlich schneller sein wird.

ATI hat eben seit der 9700 stets Reserven die erst von Spielen angezapft werden die mehr Power brauchen als Spiele die beim Release der ATI-Karten verfügbar waren. Interessanterweise ist es genau das was aths von der GeForce-Serie stets erwartete und uns allen in vollmundigen Artikeln versprach.

Monsta
2006-10-06, 15:13:05
Was micht wundert. Sobald Nvidia ne neue Karte rausbringt werden die Alten mit jeder neuen Treiberversion langsamer. Da wird nix mehr an der alten Karte optimiert. Vergleicht doch mal heute ne 5900ultra gegen ne 9800xt oder x850xt gegen ne 6800Ultra. Wo früher ein fast Gleichstand war ist jetzt eine Riesenlücke. Die Gf4 wurde mit dem 50ér Detonator auf einmal langsamer um die neuen weiter abzusetzten. Bei der GF6 hatten die das auch gemacht. Wenn beide Karten neu sind, ist wirklich ein nahezu gleichstand. Aber wenn die Karten alt sind trennt sich die Spreu vom Weizen. Viele meiner Kumpels spielen heute noch auf ihrer 9800pro.

Gruß Monsta

Gast
2006-10-06, 15:40:31
Naja bei der GeForce 4 wurde ein Teil des HSR deaktiviert in späteren Treiberversionen weil es einige kleinere Bugs gehabt hat in manchen Situationen.

Bei der GeForce FX war ja bekannt das viel durch Shaderreplacement usw. an Performance gut gemacht wurde, das brauchte man jetzt ja auch nicht mehr, weil es "legacy" Hardware ist und kein Hahn mehr danach kräht.

ATI wird sich um R200 wohl auch nicht mehr wirklich gut kümmern.

jojo4u
2006-10-06, 15:41:19
Viele meiner Kumpels spielen heute noch auf ihrer 9800pro.

Eine Radeon 9800 war ja auch damals einfach beliebter als Nvidia.

Gast
2006-10-06, 15:41:45
ATI hat eben seit der 9700 stets Reserven die erst von Spielen angezapft werden die mehr Power brauchen als Spiele die beim Release der ATI-Karten verfügbar waren. Interessanterweise ist es genau das was aths von der GeForce-Serie stets erwartete und uns allen in vollmundigen Artikeln versprach.


Ich bin gespannt wie NV40 und R420 in Unreal-3-Spielen abschneiden. Dann können wir darüber nochmal ausführlich reden :)

Gast
2006-10-06, 16:23:56
Bei der GeForce FX war ja bekannt das viel durch Shaderreplacement usw. an Performance gut gemacht wurde, das brauchte man jetzt ja auch nicht mehr, weil es "legacy" Hardware ist und kein Hahn mehr danach kräht.



Es stimmt aber nicht, dass die FX mit neueren Treibern langsamer wurde, ich hatte meine (FX5600) bis zum 91.31 Treiber im Rechner und die lief sehr gut damit, hab damit Quake4 komplett durchgespielt (800x600, medium details).

Maorga
2006-10-06, 16:53:53
Also ich glaube ja nicht direkt dran das die Karten effektiver werden, okay hier und da ein wenig getweakt und geschummelt. Aber wenn's hart auf hart kommt sehen wir wo wir stehen.

Klar ist die 9500/9700 Reihe von ATI das wirkliche non plus damals gewesen. Nach den anfänglichen Treiberproblemen und diversen abstürzen lief die Karte dann doch super.

Die Shaderfähigkeit ist nicht zu unterschätzen. Was manche eben nur als Techfeature sehen ist dann doch mal ne vernünftige Entwicklung geworden.
Kann also durchaus sein das ne Karte ohne SM2 eben mal verliert gegen eine Karte die eben dies beherrscht.

Naja warten wir mal jemanden ab der noch so alte Karten rumfliegen hat.
Hmm nen Kumpel von mir hat noch ne Alte TI4200 von mir drinnen mit der könnt' ma n paar Experimente machen.

Biba

Norbert

Hvoralek
2006-10-06, 22:22:34
Dass Nvidia mit neuen Treibern ältere Karten - bewusst oder aus Desinteresse - ausbremst, scheint jedenfalls nicht zu stimmen (http://www.3dcenter.org/artikel/geforce4_treibervergleich/).

Klar blamieren sich die FXen in praktisch jedem richtigem DX9- Spiel. Das liegt aber an den Chips und nicht an den Treibern.

AnarchX
2006-10-06, 22:36:05
Nvidia kann man imo zu gute halten, dass die neueren FWs noch bis zu Geforce2 unterstützen, während bei ATI vor kurzem pre-DX9 komplett hinausgeflogen ist.
(Oder kann man da etwas mit einer anderen .inf machen?)

StefanV
2006-10-07, 01:23:45
Achja, wirklich?! (http://www.nvidia.com/object/winvista_x64_96.33.html)
Und der Rest wird bis zum Cat 6.5 unterstützt, aber das ist sicher ein unglaubliches Argument gegen ATi, nicht wahr?! :devil:

tokugawa
2006-10-07, 01:30:42
ATI hat eben seit der 9700 stets Reserven die erst von Spielen angezapft werden die mehr Power brauchen als Spiele die beim Release der ATI-Karten verfügbar waren. Interessanterweise ist es genau das was aths von der GeForce-Serie stets erwartete und uns allen in vollmundigen Artikeln versprach.


aths hatte auch recht. Nur hat NVIDIA einen so guten Developer-Support hatte, dass die Entwickler von Anfang an NVIDIA-Chips relativ gut ausnutzen konnten.

Immerhin hat auch NVIDIA viel komplettere und detailliertere GPU Programming Guides als ATI (downloadet und vergleicht doch mal das NVIDIA SDK mit dem ATI SDK).

Ein Beispiel ist die Ausnutzung der unter "Ultra-Shadow" zusammengefaßten Features unter Shadow-Volume-verwendenden Titeln. Das kam schon zu FX-Zeiten in die Doom3-Engine.

Dass ATI solche Zuwächse erreicht, liegt nicht daran dass da viele technische Feature-Reserven wären (da sind ATI-Chips normal eher mau, vor allem die R300-R420-Familie, X1x00er sind da anders), sondern dass durch den gegenüber NVIDIA schwächeren Entwicklersupport die Entwickler am Anfang eher nicht so genau wissen, wie man ATI-Chips optimal ausnutzt, und das erst mit der Zeit erfahren.

AnarchX
2006-10-07, 10:26:54
Achja, wirklich?! (http://www.nvidia.com/object/winvista_x64_96.33.html)
Und der Rest wird bis zum Cat 6.5 unterstützt, aber das ist sicher ein unglaubliches Argument gegen ATi, nicht wahr?! :devil:

Die Treiber für ein noch nicht veröffentlichtes OS haben mich bisher nicht wirklich interessiert, aber hast schon recht, hier nehmen sich beide IHVs nichts.
Jetzt könnte man zwar noch übergehen, wer die günstigste Vista-Ready-GraKa hat, aber dass lassen wir eher, da es doch OT ist.;)

Gast
2006-10-07, 10:42:24
Dass ATI solche Zuwächse erreicht, liegt nicht daran dass da viele technische Feature-Reserven wären (da sind ATI-Chips normal eher mau, vor allem die R300-R420-Familie, X1x00er sind da anders), sondern dass durch den gegenüber NVIDIA schwächeren Entwicklersupport die Entwickler am Anfang eher nicht so genau wissen, wie man ATI-Chips optimal ausnutzt, und das erst mit der Zeit erfahren.
Heisst es nicht sonst immer, dass Ati Chips keine besonderen Optimierungen benötigen, sondern jeden DX9-Code "fressen"? IIRC war das immer eines der Argumente pro Ati und contra Nv, dass letztere nur bei ausgewählten, sogenannten Benchmark-Titeln, saubere Leistung brachten.

Aber du hast recht, dafür, dass HDR+MSAA seit der X1K vom Ati-Marketing zu so einem großen Thema gemacht wurde, hat die DevRel-Abteilung das Thema anscheinend komplett verschlafen, sonst würde das in viel mehr Spielen "out-of-the-box" funktionieren. Wenn es das täte, hätte das Marketing einen wesentlich leichteren Job, als ständig (zumindest bis vor kurzem) mit einem jedesmal nachgeschobenem Beta-Treiber HDR/MSAA-Funktionen nachzuliefern.


Q-HDR-ist-FP16-und-mehr

Gast
2006-10-07, 10:45:18
Heisst es nicht sonst immer, dass Ati Chips keine besonderen Optimierungen benötigen, sondern jeden DX9-Code "fressen"? IIRC war das immer eines der Argumente pro Ati und contra Nv, dass letztere nur bei ausgewählten, sogenannten Benchmark-Titeln, saubere Leistung brachten.Auf R300 und die FX-Serie trifft dies wirklich zu. Bei den Chips danach würde ich das zumindest so generell nicht mehr sagen.

StefanV
2006-10-07, 15:43:03
Die Treiber für ein noch nicht veröffentlichtes OS haben mich bisher nicht wirklich interessiert, aber hast schon recht, hier nehmen sich beide IHVs nichts.
Jetzt könnte man zwar noch übergehen, wer die günstigste Vista-Ready-GraKa hat, aber dass lassen wir eher, da es doch OT ist.;)
Dann nimm die Windows XP x64 Edition, da wirsts gleiche finden!

Denn Fakt ist, das BEIDE Hersteller den Support für alles was nicht DX9 kann, eingestellt haben...

The_Invisible
2006-10-07, 15:53:48
Dann nimm die Windows XP x64 Edition, da wirsts gleiche finden!

Denn Fakt ist, das BEIDE Hersteller den Support für alles was nicht DX9 kann, eingestellt haben...

zumindest gf4 mx werden unterstützt was sicher keine dx9 karten sind -> http://www.nvidia.com/object/91.47_winxp64_supported.html

das os mit kombination einer so alten graka dürfte aber die wenigsten interessieren, da reichen auch die win "onboard" treiber oder man holt sich ne fx5200 für 30€ wenn man unbedingt die treiber verwenden will

mfg

Gast
2006-10-08, 20:10:38
Nvidia kann man imo zu gute halten, dass die neueren FWs noch bis zu Geforce2 unterstützen, während bei ATI vor kurzem pre-DX9 komplett hinausgeflogen istDas ist sehr gut. Irgendwie nehmen aber "alle" mit GF2 trotzdem den 30.82. Sie kennen wohl weder Raff noch aths, haben noch nie was anderes probiert und wissen halt nicht was gut ist. Wahrscheinlich.

Natürlich ist es sehr schade, daß die 8500 nur bis zum Cat 6.5 unterstützt wird. Denn von den Bugfixes und optimierungen des 6.7 würde sie wirklich SEHR profitieren. Wahrscheinlich...

MadManniMan
2006-10-09, 12:04:25
Ihr habt aber schon mitbekommen, daß in den angesprochenen Tests einmal mit und einmal ohne TAA/AAA gemessen wurde?

Mr. Lolman
2006-10-09, 12:09:13
Eine Radeon 9800 war ja auch damals einfach beliebter als Nvidia.

Nicht beliebter, sondern besser.

Spasstiger
2006-10-09, 12:18:23
Nicht beliebter, sondern besser.
Beides, zumindest, nachdem sich bis 2004 allmählich rumgesprochen hatte, dass die GeForce-FX-Reihe in Sachen Spieleleistung kein würdiger GeForce-4-Ti-Nachfolger war. ;)

Vega2002
2006-10-09, 12:18:51
Nicht beliebter, sondern besser.

Jo gilt aber nur wenn man ne starke CPU damals hatte. (gehe gerade von 9700pro aus)

Habs damals selber getestet Geforce4 ti4200 war mit ner 1GHz AMD TB CPU genauso schnell und manchmal schneller als die 9700np die ich hatte. mit nem 1.4GHz TB sahs dann schon anders aus. Als ich dann den 2400+ hatte kam die geforce 4 garnicht mehr mit!

Hier mal nen vergleich zwischen ti 4600 und 9700 bei unterschiedlicher CPU stärke. http://www.computerbase.de/artikel/hardware/grafikkarten/2002/bericht_radeon_9700_ti4600_cpu-vergleich/1/#abschnitt_die_kontrahenten

Gast
2006-10-09, 13:39:22
a) vergleicht ihr 7800GTX 256MB mit X1800XT 512MB. Die Radeons profitieren in der R5X0 Ausführung, wie bekannt, sträker von 512MB als die NV7X.

b) ist das Verhältnis von X1800XT zu 7800GTX 512MB unverändert

c) war es leicht vorherzusagen, dass die 512MB Speicher in Zukunft ein Vorteil sein werden

d) ist der Vergleich TSAA zu AAA unfair, da TSAA deutlich besser ist man hätte auch bei NV den RMSAA Modi nehmen müssen

e) haben sich X1800XL und 7800GT (beide 256Mb) wesentlich weniger zu einenader verschoben

Daraus folgt der Threadstarter war unfähig die Fakten vollständig zu analysieren. Die These kann als widerlegt betrachtet werden.

MadManniMan
2006-10-09, 14:08:20
d) ist der Vergleich TSAA zu AAA unfair, da TSAA deutlich besser ist man hätte auch bei NV den RMSAA Modi nehmen müssen


Wieso das denn?

Gast
2006-10-09, 14:29:09
Bei Gothic2 werden die Ati's mit neuem Treiber eher immer schlechter!

Gast
2006-10-09, 17:19:59
....bla bla bla...

Daraus folgt der Threadstarter war unfähig die Fakten vollständig zu analysieren. Die These kann als widerlegt betrachtet werden.Mann, was ist das für ein Stuss?

Mr. Lolman
2006-10-09, 17:26:51
d) ist der Vergleich TSAA zu AAA unfair, da TSAA deutlich besser ist man hätte auch bei NV den RMSAA Modi nehmen müssen


:confused:

Bei Gothic2 werden die Ati's mit neuem Treiber eher immer schlechter!

Die bleiben eher gleich schlecht...

Hvoralek
2006-10-09, 18:34:30
:confused:Das ist mW Unsinn. TSSAA und Q- AAA sind im Grunde das gleiche.

Die bleiben eher gleich schlecht...Sie bleiben seit Anfang des Jahres gleich schlecht, ja. Davor waren sie noch konkurrenzfähig. Würde gerne mal wissen, was ATI da veranstaltet.

Gast
2006-10-10, 11:22:10
Wieso das denn?

Weil TSAA Supersampling nutzt und eine während AAA Mulitsampling nutzt.

Gast
2006-10-10, 11:27:51
Ok, Quatsch hatte einen Brainfart.

Gast
2006-10-10, 11:37:38
Man muss aber bedenken, dass die Radeons alle mehr N´Banbreite haben was ihnen sicher hilft, wenn ein Supersamplinganteil dabei ist.

AnarchX
2006-10-10, 11:56:40
Man muss aber bedenken, dass die Radeons alle mehr N´Banbreite haben was ihnen sicher hilft, wenn ein Supersamplinganteil dabei ist.

Supersampling ist aber eher eine Füllraten-Fresser.

mapel110
2006-10-10, 12:01:11
Supersampling ist aber eher eine Füllraten-Fresser.
SSAA braucht beides. MSAA ist das, was stark auf die Bandbreite schlägt.

MadManniMan
2006-10-10, 12:24:03
Ok, Quatsch hatte einen Brainfart.

Also sind TSAA und AAA prinzipiell gleichauf? ;)

Gast
2006-10-10, 12:33:54
Also sind TSAA und AAA prinzipiell gleichauf? ;)

Yep.

Gast
2006-10-10, 12:39:01
Abgesehen von der Unterscheidlichen Speicherbestückung vermute ich aber trotzdem, dass die GeForce heute her bandbreitenlimitiert ist, als die X1800XT, da der Unterschied in der Füllrate zu vernachlässigen ist. Was sich imho auch bei den Tests ohne AA+AF zeigt, da die GeForce dort weit weniger abfällt. 150Mhz Speichertakt und eine größere Speicermenge dürften heute unter 4XMSAA + 16xAF + TSAA/AAA eben durchaus stärker durchschlagen, als zum Zeitpunkt der Markteinführung.