PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Grundsätzliche Frage zur Radeon HD 2900 XT


kahlchen
2007-07-03, 00:20:07
Hey,

1. wie ist die Rohleistung im Vergleich zur 8800gts & 8800gtx?
2. wie ist die Gesamtleistung mit aktuellen Treibern im Vergleich zur 8800gts, 8800gtx?
3. bricht die x2900xt wirklich bei AA so stark ein???

Danke ;)

Der_Korken
2007-07-03, 00:29:24
1. Die reine "Shader-Rohleistung" liegt bei der HD 2900 XT höher, allerdings kann sie architekturbedingt meist nicht so gut ausgelastet werden, wie die von Nvidia. Trotzdem würde ich sagen: Vorteil ATI.
Die Texturleistung, oder besser die Filterleistung liegt bei Nvidia knapp 3 mal so hoch, wie bei ATI. Macht sich vor allem beim 16xAF bemerkbar.

2. Leistungsmäßig würde ich sie über der GTS640 und unter GTX einordnen, wobei sich die Ergebnisse natürlich streuen - mal schlechter, mal besser

3. Afaik tut sie das, den Grund dafür lass dir lieber von einem erklären, der da wirklich Ahnung von hat^^

Spasstiger
2007-07-03, 00:52:45
3. bricht die x2900xt wirklich bei AA so stark ein???

Nicht generell, bei OpenGL geht die X2900 XT jedenfalls gut ab und rückt mit höheren AA-Stufen näher an die deutlich teurere Konkurrenz heran bzw. übertrifft diese sogar. Hier mal als Beweis:
- Doom 3 (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/18/#abschnitt_doom_3) (hier vor allem 2560x1600 beachten, bei niedrigeren Auflösungen ohne AA limitiert die CPU)
- Chronicles of Riddick (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/25/#abschnitt_the_chronicles_of_riddick)

Ein Hardwareproblem scheints auf jeden Fall nicht zu sein.
Wer eine Grafikkarte für Quakewars (Doom-3-Engine, OpenGL) bei hohen Monitorauflösungen + AA kaufen will, dürfte auf jeden Fall mit der HD2900 XT preis-leistungsmäßig mit Abstand am Besten bedient sein.

mapel110
2007-07-03, 01:13:51
2. wie ist die Gesamtleistung mit aktuellen Treibern im Vergleich zur 8800gts, 8800gtx?

Mit Catalyst 7.6 gibts afaik noch keine Reviews. Und 7.5 war mehr oder weniger der Launchtreiber.

Lawmachine79
2007-07-03, 08:05:09
Hey,

1. wie ist die Rohleistung im Vergleich zur 8800gts & 8800gtx?
2. wie ist die Gesamtleistung mit aktuellen Treibern im Vergleich zur 8800gts, 8800gtx?
3. bricht die x2900xt wirklich bei AA so stark ein???

Danke ;)
Zu 1)
"Shaderrohleistung": Brachial. Mind. GTX Niveau, ich denke eher drüber.
"Texturrohleistung": Lächerlich. NV40/R4xx Niveau, etwas darüber
Zu 2)
Ohne AA&AF kommt sie fast an eine GTX ran. Lächerliche Texturleistung führt zu Einbrüchen bis zu 50-60% mit 16xAF@A.I. OFF (max Qualität). Ich schätze sie etwa auf Augenhöhe der GTS ein, ein kleinen Tacken langsamer - sofern man hohes AA&AF nimmt, mit niedriger BQ zwischen GTS und GTX mit Tendenz zur GTX
Zu 3)
Ja. Die ROPs sind im Eimer, AA muss im Shader gemacht werden.

seahawk
2007-07-03, 08:08:58
1. Rohleistung liegt kombiniert imho an der 8800GTX, stark bei der Rechenleistung, schwach bei der Texturleistung. Könnte für Unreal3 schlecht sein.

2. Irgendwo über 8800GTX und unter 8800GTS. Je nach Spiel. Im Schnitt zwischen GTS und GTX.

3. Jein.

Lawmachine79
2007-07-03, 08:33:02
1. Rohleistung liegt kombiniert imho an der 8800GTX, stark bei der Rechenleistung, schwach bei der Texturleistung. Könnte für Unreal3 schlecht sein.

2. Irgendwo über 8800GTX und unter 8800GTS. Je nach Spiel. Im Schnitt zwischen GTS und GTX.

3. Jein.
1. Wenn das stimmen würde, müßte sie ja schneller als die GTX sein - höhere Bandbreite sei dank.
2. Wie das funktionieren soll, ist ein Rätsel - lies es nochmal --> Editknopf.

Gast
2007-07-03, 09:06:44
Sie ist auch manchmal schneller als eine 8800GTX. In OpenGL bedroht sie sogar die 8800 Ultra.

Ich würde ein Fazit aber erst mit dem Catalyst 7.8 - 8 ziehen. Im moment weiß niemand, ob nicht noch dutzende Bugs im Treiber schlummern, die die Performance drücken.

Laut einem Interview hat AMD bewusst einige Einschränkungen in Kauf genommen... man wollte eine zukunftssichere Architektur bauen, auch wenn diese jetzt erstmal ein paar Nachteile hat.

Das könnte sich aber ähnlich wie bei der X1900-Serie über die nächsten Monate ändern, wenn neuere Games erscheinen und diese dann intensiven Einsatz von Shadern machen.

Coda
2007-07-03, 09:43:02
Wenn ich AMD wäre würde ich das auch behaupten. Bisher zeigt sich aber gar nichts in diese Richtung.

Selbst in absolut ALU-lastigen Spielen wie Oblivion liegt G80 vorne.

Gast
2007-07-03, 09:48:26
Coda, du musst bedenken, das Games nicht von einem Tag auf den Tagen von Füllraten zu Shaderpower tendieren.

Das ist ein langsamer Prozess. Oblivion ist schon sehr alt, es ist lange draußen und noch viel länger in der Entwicklung. Zum Start der Entwicklung gab es die Hardware von 2007 noch gar nicht.

Die Änderungen wird man erst in sagen wir mal 2-3 Jahren spüren, denn so lange dauert meistens die Entwicklung eines Titels und dann sind es immer noch nicht alle Neuerscheinungen, weil manche weiterhin auf alte Engines setzen.

Ich kann mich noch gut daran erinnern, das die X1900 anfangs teilweise von der 7900GTX übertrumpft wurde, während das Bild sich jetzt völlig umgekehrt hat und die X1900 teilweise 30-50% schneller ist.

robbitop
2007-07-03, 10:41:40
Wer seine Hardware fuer die "Zukunft" kauft, ist nicht mehr ganz bei Trost.
Hardware muss heute schnell sein und heute auf heutige Spiele passen. Denn morgen ist sie aufgrund der kurzen Produktlebenszyklen veraltet.
Was bringt mir jetzt eine Karte, die eher fuer die Relationen von "morgen" gebaut ist, morgen aber dennoch zu schwach ist, weil schon X Nachfolger am Markt sind?

Gast
2007-07-03, 11:27:48
Wer seine Hardware fuer die "Zukunft" kauft, ist nicht mehr ganz bei Trost.

Das Gegenteil ist der Fall. Das eine ergibt sich aus dem anderen.

Hardware muss heute schnell sein und heute auf heutige Spiele passen.

Nö, muss sie nicht. Ist totaler Quatsch.
Du kannst auch nicht erwarten, das heute eine 8 Core Workstation in Spielen 8 x schneller ist als ein Single Core.
Wer so denkt, hat es nicht anders verdient, als DAU bezeichnet zu werden.

Was bringt mir jetzt eine Karte, die eher fuer die Relationen von "morgen" gebaut ist, morgen aber dennoch zu schwach ist, weil schon X Nachfolger am Markt sind?

Wenn die Architektur mit der Zeit zulegen kann, wird sie nicht schlechter, sondern mit der Zeit besser. Woher willste denn jetzt schon wissen, ob der R600 in einem Jahr so viel schlechter gegen die Konkurrenz dasteht? Die Performancedaten mögen gleich bleiben, aber die Anforderungen der Anwendungen ändern sich.

Vergleiche dazu die X1900-Serie, die zuerst langsamer und dann deutlich schneller war, obwohl sich nichts daran geändert hat, außer die Anwendungen.

Außerdem ist das von dir viel zu kurzfristig gedacht. AMD zieht natürlich Vorteile daraus. Die Architektur wird in ihren Grundzügen die nächsten paar Jahre erstmal so bleiben, vielleicht werden hier und da ein paar Recheneinheiten angefügt, aber wenn die Rahmenbedingungen gleich sind, dann kann über die Zeit natürlich stark davon profitieren - sowohl Treibermäßig als auch bei den dann aktuellen Anwendungen.

Gast
2007-07-03, 11:38:07
Das könnte sich aber ähnlich wie bei der X1900-Serie über die nächsten Monate ändern, wenn neuere Games erscheinen und diese dann intensiven Einsatz von Shadern machen.

Splinter Cell: Double Agent, Need for Speed: Carbon, Rainbow Six:Vegas - alles rechenintensive Spiele. Und in keinem dieser Spiele kann sich die 2900XT von der GTX deutlich absetzen. Und dieses Bild wird sich in Zukunft auch nicht ändern.
Man sollte auch immer bedenken, dass nVidia eine Architektur hat, die deutlich besser ausgelastet werden kann. Ausserdem müssen die einzelnen recheneinheiten (eine der fünf "skalare) für die Berechnung von Spezialfunktionen verwendet werden, wodurch sich die nutzbare Rechenleistung nochmal verringert.
Der r600 ist keine r580. Er hat zwar eine absurd hohe theoretische Rechenleistung, kann diese aber in keinster Weise nutzbar umsetzen.

robbitop
2007-07-03, 11:40:59
Iwo. Ich kaufe eine Grafikkarte fuer 1 bis maximal 1,5 Jahre. Und das ist fuer einen High End Kaeufter schon sehr lange.
Komischerweise behalten die Midrange- und Low Cost Kaeufer ihre Karten deutlich laenger.

In diesen 1-1,5 Jahren kommen aber bereits Nachfolger raus, die Faktor 2 ueberlegen sind. Optimal ist eine hohe Performance zu Anfang und eine ausreichende bis zum Lebensende (Rohleistungsansprueche der Spiele steigen ja).

Ich halte dieses Zukunftsgewaesch fuer unpassend. Zumal die Rechenleistung der R600 nicht wirklich ueberlegen ist und alles andere grob unterlegen ist.
Dennoch ist P/L wirklich ok. Sag ich ja nix gegen.

Gast
2007-07-03, 11:46:33
Das ist ein langsamer Prozess. Oblivion ist schon sehr alt, es ist lange draußen und noch viel länger in der Entwicklung. Zum Start der Entwicklung gab es die Hardware von 2007 noch gar nicht.
Oblivion hat in den Shadern ein ganz tolles ALU:TEX-Verhältnis - Das ist ja das Tolle an PC-Spielen: Die können nicht nur auf einem Detailgrad laufen, sondern mit höheren Details die Möglichkeiten zukünftiger Hardware vorwegnehmen. :)


Die Änderungen wird man erst in sagen wir mal 2-3 Jahren spüren, denn so lange dauert meistens die Entwicklung eines Titels und dann sind es immer noch nicht alle Neuerscheinungen, weil manche weiterhin auf alte Engines setzen.
Ja. Man wird spüren, dass die HD2900 XT dann nichtmal mehr in niedrigen Details mit Mittelklasse-Karten von 2009-2010 mithalten kann und sich fragen, ob die Zukunftssicherheit, die einem statt 3 Fps mit einer 8800 GTS nun 5 Fps mit einer HD2900 XT beschert, es wirklich wert war, 2-3 Jahre lang auf Leistung zu verzichten.

Also bitte, lieber AMD-Marketing-Gast, veräpple uns nicht weiter.

Coda
2007-07-03, 11:55:40
Oblivion ist schon sehr alt, es ist lange draußen und noch viel länger in der Entwicklung.
Oblivion hat mit Abstand das größte ALU:TEX-Ratio aller Spiele bisher. Und ich sehe nicht mal eine Tendenz dass sich das die G80/R600-Verhältnisse irgendwie ändern würden.

AnarchX
2007-07-03, 11:59:36
Aber wenn Oblivion so shaderlastig sein soll, warum kann sich R580 von R520 nicht deutlich abheben?
Imo ist in Oblivion für die Performance am wichtigsten eine hohe Texelfüllrate und ein gutes HW-HSR.

Coda
2007-07-03, 12:02:37
http://personals.ac.upc.edu/vmoya/docs/IISWC-Workload.pdf

ALU/TEX von 10.38

kahlchen
2007-07-03, 12:02:43
danke für die vielen Antworten.
Ich hatte die Frage ursprünglich gestellt, weil ein guter Freund demnächst einen neuen Rechner zusammenstellt und sich fragt ob 8800gts 640MB oder 2900xt.

Wobei die Verlustleistung ziemlich egal wäre.
Er denkt halt nur das der R600 mit der Zeit wegen Treibern noch stark zulegen wird.

Jetzt nochmal eine Frage zur Shaderleistung oder Texturierleistung.
Wann ist welche wichtig?
Texturierleistung damit die GPU in AA und AF nicht einbricht? (der R600 is ja schließlich irgendwie für 4xAA optimiert, also muss das ja irgendwie passen)

Shaderleistung für hohe Auflösungen bzw Frames allgemein?

Danke :)

Gast
2007-07-03, 12:06:58
Splinter Cell: Double Agent, Need for Speed: Carbon, Rainbow Six:Vegas - alles rechenintensive Spiele.

Alles Spiele die seit Jahren in der Entwicklung waren und für DirectX9 Karten ausgelegt sind.

Und dieses Bild wird sich in Zukunft auch nicht ändern.

Hast du in deine Glaskugel geschaut?

In diesen 1-1,5 Jahren kommen aber bereits Nachfolger raus, die Faktor 2 ueberlegen sind.

Ähm, nein.
Genau das heißt es eben nicht.
Ich erinnere gerne mal daran, das die 7900GTX zum Zeitpunkt des Erscheinen oftmals ein paar Prozente schneller war. Heute liefert sie teilweise nur noch die hälfte der Performance zu X1900. Alles eine Sache der Architektur.

Selbst wenn NVIDIA eine Karte mit doppelt so hoher Rohleistung bringen sollte, heißt das noch lange nicht, das ATIs jetzige Karten gegenüber dieser unterlegen sein werden. Das hat die Vergangenheit gezeigt und passt auch gut zu dem Statement das AMD abgegeben hat.
Schließlich verändern sich in erster Linie die Anwendungen und nicht umgekehrt.

Übrigens wird die benötigte Rechenleistung in diesem Jahr kaum so stark ansteigen können, denn die Mainstream DX10 Karten sind teilweise langsamer und als Entwickler orientiert man sich an die Masse.

AnarchX
2007-07-03, 12:07:05
http://personals.ac.upc.edu/vmoya/docs/IISWC-Workload.pdf

ALU/TEX von 10.38

Da wurde doch ein Indoor-Szenario gemessen? Da kann dieses Verhältnis durchaus hinkommen, wobei Indoor imo im Verhältnis zu Outdoor trotz des hohen Verhältnisses nicht so anspruchsvoll ist.

Coda
2007-07-03, 12:08:31
Dann bench halt Indoor G80 vs. R600. Wird sich auch nix ändern. G80 hat genügend ALU-Leistung.

d2kx
2007-07-03, 12:12:50
TweakTown.com hat die HD 2900 XT Performance mit dem Catalyst 7.6 analysiert. OpenGL ist schneller geworden.

Ich denke, sie wird in den nächsten Treibern noch etwas schneller werden.

Gast
2007-07-03, 12:13:44
Dann bench halt Indoor G80 vs. R600. Wird sich auch nix ändern. G80 hat genügend ALU-Leistung.

Gerade diese Benchmarks finde ich enorm uninteressant.

Die Leistung zählt da, wo sie am niedrigsten ist und nicht da, wo sie fast immer spielbar bleibt.

Gast
2007-07-03, 12:16:53
Alles Spiele die seit Jahren in der Entwicklung waren und für DirectX9 Karten ausgelegt sind.

Diese Spiele leben von der Rechenleistung. Das hat mit DX9 nichts zu tun.

Genau das heißt es eben nicht.
Ich erinnere gerne mal daran, das die 7900GTX zum Zeitpunkt des Erscheinen oftmals ein paar Prozente schneller war. Heute liefert sie teilweise nur noch die hälfte der Performance zu X1900. Alles eine Sache der Architektur.

Richtig. Leider gibt es keinem Grund anzunehmen, dass der r600 hier wieder besser dasteht.


Selbst wenn NVIDIA eine Karte mit doppelt so hoher Rohleistung bringen sollte, heißt das noch lange nicht, das ATIs jetzige Karten gegenüber dieser unterlegen sein werden. Das hat die Vergangenheit gezeigt und passt auch gut zu dem Statement das AMD abgegeben hat.
Schließlich verändern sich in erster Linie die Anwendungen und nicht umgekehrt.


AMD erzählt genauso wie nVIdia nichts, was ihre Produkte schlecht erscheinen lassen. Der r600 ist nicht besser zukunftssicherer als der G80.

Gast
2007-07-03, 12:22:43
Diese Spiele leben von der Rechenleistung. Das hat mit DX9 nichts zu tun.

Gerade darum gehts doch. Die Art der geforderten Rechenleistung ist entscheidend und die ändert sich von Zeit zu Zeit.
Damals war pure Füllrate entscheidend und irgendwann wird es hauptsächlich nur noch Shaderpower sein.

Der Sprung geschieht nicht von heute auf morgen, sondern ganz langsam.

Richtig. Leider gibt es keinem Grund anzunehmen, dass der r600 hier wieder besser dasteht.

Den Grund gibt es, schließlich ist die Karte schon jetzt in einigen Fällen deutlich vor der Konkurrenz und das trotz Releasetreiber, obwohl die Konkurrenz da Monate Vorsprung hat.

Für mich ist die Sache klar und aus der Ecke vom 3DCenter kommt da auch ne Bestätigung in einigen Fällen:
http://www.3dcenter.org/images/radeon_hd_2900_xt/benchmark_tdu_sg1.png

robbitop
2007-07-03, 12:23:38
Ich erinnere gerne mal daran, das die 7900GTX zum Zeitpunkt des Erscheinen oftmals ein paar Prozente schneller war.
Wuzz? In den damals neusten Spielen war die R580 schon beim Launch vorn (bsw FEAR). Und das nicht immer gerade knapp.

Dass G71 heute soweit zurückliegt, liegt sicher nicht an der Shaderleistung. Das liegt vor allem daran, dass NV veraltete Architekturen treiberseitig fallenlässt. Ergo für neue Spiele wird nicht mehr groß optimiert. Warum auch, wenn der Nachfolger seit Langem in den Regalen steht? Das wird oft drastisch unterschätzt.

ATI machte das bisher nie so.

Ausserdem hatte die alte NV4x/Rampage Architektur schon zur Einführung die Schwäche der Nichtentkopplung der TMUs/ALUs. Dafür brauchte das Teil nicht so viele Transistoren.

G80 hingegen hat solche Schwächen nicht. Ich sehe nicht, wie R600 großartig aufholen könnte und irgendeinem Architekturpunkt großartig überlegen wäre (wie es in der Vorgängergeneration war).
Hinzu kommen einige Unterdimensionierungen und Defekte an dem Teil (was sogar Eric Demers indirekt zugab). Auch hat man den Vorteil der custom transistors nicht und konnte somit bei den ALUs keine Transistoren sparen.
Das kommt alles zusammen.

Der R600 im Vollausbau reicht also gerade so, um an einen 2/3 G80 ranzukommen (mehr als das ist die GTS nicht, denn der Takt wurde neben der Einheitenreduktion auch reduziert). Vieleicht wird R600 auch irgendwann mal schneller als die GTS sein. Aber nicht schneller als ein voller G80.

Ich wäre vorsichtig mit Analogien. Denn was in der Last-Gen galt, muss nicht in der jetzigen gelten.

Gast
2007-07-03, 12:24:12
Bei Oblivion übrigens ähnlich:
http://www.3dcenter.org/images/radeon_hd_2900_xt/benchmark_oblivion_sg2.png

Hängt halt lediglich vom Bereich ab, den man bencht... aber da das Game schon recht gut spielbar ist, wirds eigentlich uninteressant aus dieser sicht.

Gast
2007-07-03, 12:28:43
Gerade darum gehts doch. Die Art der geforderten Rechenleistung ist entscheidend und die ändert sich von Zeit zu Zeit.
Damals war pure Füllrate entscheidend und irgendwann wird es hauptsächlich nur noch Shaderpower sein.

Shaderpower wird nie "hauptsächlich" entscheidend sein.
Und ja, du widersprichst dich gerade. Die aufgezählten Spiele leben von der Rechenleistung. Und hier kann sich die 2900XT nicht von der GTX absetzen.


Der Sprung geschieht nicht von heute auf morgen, sondern ganz langsam.

Der Sprung ist dank der Xbox360 schon lange geschehen.


Den Grund gibt es, schließlich ist die Karte schon jetzt in einigen Fällen deutlich vor der Konkurrenz und das trotz Releasetreiber, obwohl die Konkurrenz da Monate Vorsprung hat.

AMD hat ebenfalls monate Zeit gehabt ihre Treiber anzupassen - sie haben sogar das versprochen. Und die Karte liegt auf dem Niveau der GTX, was man wohl erwarten darf.


Für mich ist die Sache klar und aus der Ecke vom 3DCenter kommt da auch ne Bestätigung in einigen Fällen:
http://www.3dcenter.org/images/radeon_hd_2900_xt/benchmark_tdu_sg1.png

Treiberfehler. Die HDR - Geschwindigkeit hatte mit irgendwelchen Treiber einen Bug, der die Leistung zurückhielt. Und bei presence-pc ist die GTX auf dem Niveau der 2900XT ( http://www.presence-pc.com/tests/AMD-Radeon-2900-XT-22674/19/ ).

robbitop
2007-07-03, 12:29:12
Für mich ist die Sache klar und aus der Ecke vom 3DCenter kommt da auch ne Bestätigung in einigen Fällen:
http://www.3dcenter.org/images/radeon_hd_2900_xt/benchmark_tdu_sg1.png
Das sieht mir eher nach Treiberungereimtheiten auf Seiten des G80 aus.

Schau mal (im ganzen Review), wie wenig sich R600 vom R580 abhebt. Meist gerade mal so um den Mehrtakt den das Teil hat. Oft sogar weniger. Das ist IMO verdammt schwach. Klar in 1-2 Spielen ist er auch mal etwas mehr als das schneller. Aber eben zu selten.

Ausreisser sollte man übrigens nicht rauspulen. In einem Median werden diese z.B. nicht berücksichtigt (CB sollte für das Performancerating lieber den Meridian statt dem aritmetischen Mittelwert einführen)

Gast
2007-07-03, 12:29:30
Bei Oblivion übrigens ähnlich:
http://www.3dcenter.org/images/radeon_hd_2900_xt/benchmark_oblivion_sg2.png

Hängt halt lediglich vom Bereich ab, den man bencht... aber da das Game schon recht gut spielbar ist, wirds eigentlich uninteressant aus dieser sicht.

CPU-limitiert. Ja, ein tolles Szenarium, um die Stärke der Grafikkarte zu zeigen. :rolleyes:

Mr. Lolman
2007-07-03, 12:32:18
Das sieht mir eher nach Treiberungereimtheiten auf Seiten des G80 aus.

Eher nicht. An den Obliviontoren ist einfach brutalste Shaderpower gefragt. Jede Karte kackt da ab. Sieht man ja an den fps ;)

Gast
2007-07-03, 12:33:19
Wuzz? In den damals neusten Spielen war die R580 schon beim Launch vorn (bsw FEAR). Und das nicht immer gerade knapp.

Da hast du eben ein entscheidendes Detail vergessen: Diese Games waren zu dieser Zeit nicht in der Überzahl.
Fälle in denen die 2900XT heute einer 8800GTX davonrennt gibts auch schon, sind sind jedoch immernoch in der Unterzahl.

Das liegt vor allem daran, dass NV veraltete Architekturen treiberseitig fallenlässt.

ATI tut genauso wenig für alte Produkte. Es gab diverse Treibervergleiche, wo kaum Unterschiede auszumachen waren.

G80 hingegen hat solche Schwächen nicht. Ich sehe nicht, wie R600 großartig aufholen könnte und irgendeinem Architekturpunkt großartig überlegen wäre (wie es in der Vorgängergeneration war).

Es geht doch gar nicht ums aufholen. Das ist schließlich unmöglich, weil die technischen Daten gleich bleiben.
Es geht doch vielmehr darum, das neue Anwendungen auf einer Architektur besser laufen, weil diese besser darauf ausgelegt ist.

Wenn ich mir die technischen Daten so anschaue, legt das den Schluss nahe, das NVIDIA auf heutige Anwendungen abzielte und AMD eben nicht. Dazu brauche ich keine Interviews zu lesen, dafür sprechen sowohl die technischen Daten als auch einige Benchmarks, die das aus meiner Sicht bestätigen.

Gast
2007-07-03, 12:34:10
Eher nicht. An den Obliviontoren ist einfach brutalste Shaderpower gefragt. Jede Karte kackt da ab. Sieht man ja an den fps ;)

Die 1900XT hat eine höhrere Shaderpower als die 8800GTX? :rolleyes:

Gast
2007-07-03, 12:34:44
CPU-limitiert. Ja, ein tolles Szenarium, um die Stärke der Grafikkarte zu zeigen. :rolleyes:

Lass dir eine bessere Ausrede einfallen.

Wenn eine Stelle CPU limitiert ist, kann die angeblich langsamere Karte nicht plötzlich um 90% schneller sein, ergo gibt es da kein Limit in der Form, wie du es darstellst.

Gast
2007-07-03, 12:36:46
Wenn eine Stelle CPU limitiert ist, kann die angeblich langsamere Karte nicht plötzlich um 90% schneller sein, ergo gibt es da kein Limit in der Form, wie du es darstellst.

Wenn der Treiber der Konkurrenzkarte eine höhrere CPU-Last erzeugt und die Stelle durch die CPU limitiert wird, welche Karte ist dann schneller?

Gast
2007-07-03, 12:39:49
Shaderpower wird nie "hauptsächlich" entscheidend sein.

Kennst du die Anwendungen der nächsten Jahre oder worauf basiert deine Spekulation?

Die aufgezählten Spiele leben von der Rechenleistung.

Die Art der geforderten Rechenleistung zählt und nicht die absolute. Das ist der wichtige Unterschied, den man begreifen muss, bevor man sich mit diesem Thema beschäftigt.

Der Sprung ist dank der Xbox360 schon lange geschehen.

Schlechtes Argument. Nicht jedes Spiel ist eine Portierung oder zeitgleich für den PC erscheinen.

Und bei presence-pc ist die GTX auf dem Niveau der 2900XT ( http://www.presence-pc.com/tests/AMD-Radeon-2900-XT-22674/19/ ).

Das ist ein anderer Benchmark. Kein Savegame.

Andere Stelle -> andere Anforderungen an die Grafikkarte.

Gast
2007-07-03, 12:41:24
Wenn der Treiber der Konkurrenzkarte eine höhrere CPU-Last erzeugt und die Stelle durch die CPU limitiert wird, welche Karte ist dann schneller?

Die Frage stellt sich gar nicht erst, weil der Unterschied zu groß ist, als er darauf zurückzuführen sein kann.

Rechne es doch mal in Prozent um. :)

mapel110
2007-07-03, 12:41:38
Wuzz? In den damals neusten Spielen war die R580 schon beim Launch vorn (bsw FEAR). Und das nicht immer gerade knapp.

Dass G71 heute soweit zurückliegt, liegt sicher nicht an der Shaderleistung. Das liegt vor allem daran, dass NV veraltete Architekturen treiberseitig fallenlässt. Ergo für neue Spiele wird nicht mehr groß optimiert. Warum auch, wenn der Nachfolger seit Langem in den Regalen steht? Das wird oft drastisch unterschätzt.

ATI machte das bisher nie so.

Was man dabei auch bedenken sollte, ATI musste wesentlich länger mit dem R580 auskommen als nvidia mit ihrer alten Architektur. Ist klar, dass man da noch am Treiber werkeln kann und auch muss, wenn die neue Generation auf sich warten lässt.

Mr. Lolman
2007-07-03, 12:42:01
Die 1900XT hat eine höhrere Shaderpower als die 8800GTX? :rolleyes:


Naja.

1. Ists nicht nur Shaderpower, sondern Shaderpower gepaart mit HSR (durchs Obliviontor scheinen die Gräser durch) und da gehen die Radeons einfach besser:

http://www.3dcenter.org/images/radeon_hd_2900_xt/benchmark_d3drightmark_hsr.png


2. Zumindest tw. ne höhere Shaderpower als ne 8800GTS hat ein R580 schon:

Gast
2007-07-03, 12:45:57
Naja.

1. Ists nicht nur Shaderpower, sondern Shaderpower gepaart mit HSR (durchs Obliviontor scheinen die Gräser durch) und da gehen die Radeons einfach besser:




Offensichtlich ein fehlerhafter Bench, wie man schon an den exakt identischen Werten bei den Radeons erkennt. B2F kann niemals so schnell sein wie F2B.

Gast
2007-07-03, 12:51:59
Naja.
1. Ists nicht nur Shaderpower, sondern Shaderpower gepaart mit HSR (durchs Obliviontor scheinen die Gräser durch) und da gehen die Radeons einfach besser:

Ist das Plan b, nachdem du dich mit der vorigen Aussage in die Nesseln gesetzt hast? :rolleyes:


2. Zumindest tw. ne höhere Shaderpower als ne 8800GTS hat ein R580 schon:

Und dieser Vergleich hat nochmal genau was mit dem test vom 3DCenter und meinem Posting zu tun?


Die Art der geforderten Rechenleistung zählt und nicht die absolute. Das ist der wichtige Unterschied, den man begreifen muss, bevor man sich mit diesem Thema beschäftigt.

Und hier hat der r600 deutliche Probleme, da die theoretische Rechenleistung in deutlich weniger Fällen abgerufen werden kann. Der Vorteil liegt klar bei der Architektur des G80, der deutlich öfters das Potential abrufen kann.

Schlechtes Argument. Nicht jedes Spiel ist eine Portierung oder zeitgleich für den PC erscheinen.

Xbox360 Portierungen sind deine "hauptsächlich von der Shaderleistung abhängigen Spiele".
PC Spiele, wie Oblivion oder Gothic 3 oder Stalker, zeigen klar, dass es auch auf die Texturleistung ankommt.


Die Frage stellt sich gar nicht erst, weil der Unterschied zu groß ist, als er darauf zurückzuführen sein kann.
Rechne es doch mal in Prozent um.

Ich muss nichts umrechnen. Die 2900XT verliert mehr Leistung beim Zuschalten von Qualitätseinstellungen als die 8800GTX. Die 8800GTX wird daher durch einen Faktor limitiert, der nicht mit der Textur- oder Bandbreite zu tun hat. Da selbst die 2900XT nicht soviel Leistung mit Edge-Detection verliert, ist diese Stelle für mich CPU limitiert. Nur eben auf der 8800GTX stärker, da wohl der Treiber einfach mist baut.

Demirug
2007-07-03, 12:52:17
http://personals.ac.upc.edu/vmoya/docs/IISWC-Workload.pdf

ALU/TEX von 10.38

Falsche Tabelle. Für Leistungsbetrachtungen musst du TABLE XIII nehmen.

kahlchen
2007-07-03, 12:57:38
danke für die vielen Antworten.
Ich hatte die Frage ursprünglich gestellt, weil ein guter Freund demnächst einen neuen Rechner zusammenstellt und sich fragt ob 8800gts 640MB oder 2900xt.

Wobei die Verlustleistung ziemlich egal wäre.
Er denkt halt nur das der R600 mit der Zeit wegen Treibern noch stark zulegen wird.

Jetzt nochmal eine Frage zur Shaderleistung oder Texturierleistung.
Wann ist welche wichtig?
Texturierleistung damit die GPU in AA und AF nicht einbricht? (der R600 is ja schließlich irgendwie für 4xAA optimiert, also muss das ja irgendwie passen)

Shaderleistung für hohe Auflösungen bzw Frames allgemein?

Danke :)

Ich wiederhole nochmal meinen post von eben, da dieser ja scheinbar in Vergessenheit geraten ist :D

Mr. Lolman
2007-07-03, 13:01:19
Ist das Plan b, nachdem du dich mit der vorigen Aussage in die Nesseln gesetzt hast? :rolleyes:

Zumindest ists nicht so idiotisch wie von ner CPU limtierung zu faseln. So ne GraKa würd sich ja niemand kaufen, wenn die Treiber eine dermassen höhere CPU-Last erzeugen. :rolleyes:

Shaderpower und HSR ist da wichtig. Fertig. Wenn man mal von nem Obliviontor gestanden hat und nicht ganz noobig unterwegs ist, weiss man das. Mein Fehler war bloß, dass ich den HSR-Faktor anfangs erst unterschätzt hab ;)

Und ja: Die HSR-Benchmarks sind tatsächlich fehlerhaft. Zumindest aber der F2B R580 Wert stimmt.

Gast
2007-07-03, 13:01:31
Die 2900XT verliert mehr Leistung beim Zuschalten von Qualitätseinstellungen als die 8800GTX.

Das gilt vielleicht heute, aber ob es "morgen" noch genauso ist, das ist noch lange nicht klar.

Hier noch ein eher selten gebenchtes Game:
http://www.matbe.com/images/biblio/art_ati-r600-radeon-hd2900xt/000000057006.png

Gast
2007-07-03, 13:06:44
Ein Bench ohne AA, wie toll!

GanjaBob
2007-07-03, 13:09:29
ein Gast der nicht lesen kann, wie toll!

Gast
2007-07-03, 13:10:37
Schönes Bild lieber Gast. Aber warum verheimlichst du uns die Werte ohne AA und AF?
http://www.matbe.com/images/biblio/art_ati-r600-radeon-hd2900xt/000000057007.png

Muss ein Wunder-AA sein, wenn die Karte nichts verliert, oder? :rolleyes:

Zumindest ists nicht so idiotisch wie von ner CPU limtierung zu faseln. So ne GraKa würd sich ja niemand kaufen, wenn die Treiber eine dermassen höhere CPU-Last erzeugen. :rolleyes:

Der einzige,d er hier idiotische Kommentare von sich gibt, bist erstmal du.
Das HSR der G80 Karten wurde deutlich verbessert. Dazu kommt noch die Unmenge an Texturleistung, die die Karten vorallen in Oblivion auf einem unerreichbaren Thron bringen. Eine 8800GTX soll also in Oblivion langsamer sein als eine 1900XT? Ja - in deiner Welt vielleicht. In meiner sehe ich eindeutige Probleme, die durch den Treiber hervorgerufen wurden zum Testzeitpunkt.

Shaderpower und HSR ist da wichtig. Fertig.

Tja und da ist eine 8800GTX einer 1900XT meilenweit voraus. Irgendwas stimmt also nicht an deiner Aussage.

desert
2007-07-03, 13:12:00
bei rainbow six geht kein aa

Gast
2007-07-03, 13:13:33
ein Gast der nicht lesen kann, wie toll!


Ich kann lesen, du auch?

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/24/#abschnitt_rainbow_six_vegas

Doch die Unreal Engine 3 hat einen großen Nachteil: So kommt ein „Deferred Renderer“ zum Einsatz, der mit einer flotten Schatten- und Lichtberechnung zwar einige Vorteile bietet, aber unter der Direct3D-9-API Anti-Aliasing verhindert.

Gast
2007-07-03, 13:15:57
Schönes Bild lieber Gast. Aber warum verheimlichst du uns die Werte ohne AA und AF?

Denk mal logisch nach. Weil fast niemand eine Highend Karte ohne betreibt und die Werte meistens ausreichend hoch sind.
Außerdem ist die 2900XT auch ohne diese Werte immer noch schneller in den gängigen Auflösungen. Fällt dir dazu auch ne Ausrede sein? :crazy:

Kein Einzelfall...
Hier wird das TDU Ergebniss bestätigt:
http://www.matbe.com/images/biblio/art_ati-r600-radeon-hd2900xt/000000057009.png

Hier wird das Argument der CPU Limitierung entkräftigt:
http://www.matbe.com/images/biblio/art_ati-r600-radeon-hd2900xt/000000057002.png

GanjaBob
2007-07-03, 13:16:30
jo hatte vergessen das RS kein AA kann :redface:

Gast
2007-07-03, 13:22:40
Denk mal logisch nach. Weil fast niemand eine Highend Karte ohne betreibt und die Werte meistens ausreichend hoch sind.
Außerdem ist die 2900XT auch ohne diese Werte immer noch schneller in den gängigen Auflösungen. Fällt dir dazu auch ne Ausrede sein? :crazy:


Da hat jemand wohl nicht gecheckt, dass die AMD Karten kein AA in RS:V anwenden, auch wenn es eingestellt wurde im Treiber.
Und die anderen Bilder: Wem interessierts? Das ist ein test, es gibt deutlich mehr da draußen, die das gegenteilige Bild zeigen. Erst durch die Überprüfung mehrer Seiten, kann man zu einem eindeutigen Ergebnis kommen.

dildo4u
2007-07-03, 13:28:59
Wie gesagt es ist keine Kunst im Netz Benches von den selben Spielen zu finden die,die eigene Aussage bestätigt.Und hier vertraue ich z.B Anandtech wesentlich mher.


http://images.anandtech.com/graphs/ati%20radeon%20hd%202900%20xt_05130780521/14639.png


http://www.anandtech.com/video/showdoc.aspx?i=2988&p=20

Gast
2007-07-03, 13:30:28
Da hat jemand wohl nicht gecheckt, dass die AMD Karten kein AA in RS:V anwenden, auch wenn es eingestellt wurde im Treiber.

Les erstmal meine Texte, dann wäre dir aufgefallen, das ich das sogar noch erwähnt habe.
Die 2900XT liegt trotzdem in 1600x1200 und 1920x1200 vorne, wie passt denn das in dein Schema?

Es ist ein erkennbarer Trend da und den wirst du niemals wegdiskutieren können, egal wie oft du hier die Fakten verdrehst.

Und die anderen Bilder: Wem interessierts?

Jeden, der etwas weiter blicken möchte als bis zur nächsten sekunde.

Das ist ein test, es gibt deutlich mehr da draußen, die das gegenteilige Bild zeigen.

Dann diskutiere nicht mit mir, denn du hast kein Wort von den Dingen verstanden, von denen ich redete.
Ich bezog mich auf die zukünftige Entwicklung und da ist es doch nur logisch, das die Anzahl der Games jetzt noch gering ist - aber das bleibt nicht so.

Gast
2007-07-03, 13:34:19
aha...
TDU und R6 Vegas sehen sonst auch den R600 vorn... so what?
Das es in anderen Spielen anders aussehen kann ist klar und das gilt auch für den G80. Verschieden Engines werden natürlich nicht gleich programmiert, somit ists schon vorprogrammiert dass der R600 auch mal vorne liegt.

Gast
2007-07-03, 13:34:41
Wie gesagt es ist keine Kunst im Netz Benches von den selben Spielen zu finden die,die eigene Aussage bestätigt.Und hier vertraue ich z.B Anandtech wesentlich mher.

Gerade diese Standard-Benches sind schrott.

Sie zeigen nur vorausgewählte Stellen und haben nichts mit der Realität gemein. Wie oft bewegst du dich an exakt den Stellen, die in diesen Benchmarks gezeigt werden? Gerade bei Oblivion ist die Spannweite sehr viel größer, man befindet sich zu 99,9% an anderen Orten und außerdem halte ich da ein Savegame für wesentlich sinnvoller, da sich diese nicht auf die vom Entwickler favorisierten Stellen festlegt.
Denn wer garantiert mir, das nicht AMD oder NVIDIA, die bei der Entwicklung geholfen haben, den Entwickler vorgaben gemacht haben?

Mr. Lolman
2007-07-03, 13:35:55
Der einzige,d er hier idiotische Kommentare von sich gibt, bist erstmal du.

Kindergartenmode
Nein, du.
/Kindergartenmode


Tja und da ist eine 8800GTX einer 1900XT meilenweit voraus. Irgendwas stimmt also nicht an deiner Aussage.

Also zweifelst du die 3DC-Benchmarks an? Kuck mal im Benchmarkforum. Da wurde die Szene auch getestet ;)


EDIT: Die Rightmark HSR-Tests von Computerbase sind auch zum Vergessen. Die Testen mit ihren Settings mal hauptsächlich die Fillrate und erst nebensächlich HSR...

dildo4u
2007-07-03, 13:38:30
Gerade diese Standard-Benches sind schrott.


Seit wann gibt es bei Oblivion ein Standard Bench?Das sind alles individuelle Timedemos/Durchgänge "per Hand".

Gast
2007-07-03, 13:42:42
Seit wann gibt es bei Oblivion ein Standard Bench?Das sind alles individuelle Timedemos/Durchgänge "per Hand".

Kannst du mal aufhören Texte absichtlich falsch zu intepretieren?
Ich rede nicht nur von Oblivion, sondern allgemein. Nach dem Punkt beginnt ein neuer Satz. :)

Anandtech ist eine große Hardwareseite, die bekommen ihre Textexemplare gesponsort.

Da wäre es gut möglich, das sie auch den Benchmark gleich mitgeliefert bekommen oder Vorgaben bekommen haben. Wer kann das überprüfen? ...

Außerdem ist es für die Entwickler eines Treibers ein leichtes, auf einen 2 minütigen Benchmark zu optimieren, aber was hat das mit einem 500h Realword-Szenario zu tun? Gar nix!

Gast
2007-07-03, 13:54:36
Les erstmal meine Texte, dann wäre dir aufgefallen, das ich das sogar noch erwähnt habe.
Die 2900XT liegt trotzdem in 1600x1200 und 1920x1200 vorne, wie passt denn das in dein Schema?
Es ist ein erkennbarer Trend da und den wirst du niemals wegdiskutieren können, egal wie oft du hier die Fakten verdrehst.

Ich diskutiere nichts weg. Im Gegensatz zu dir weiß ich, warum die Karte in den Spielen gut ist und in den anderen Spielen suckt.
Ich habe doch genau diese Spiele erwähnt und habe auch gesagt, dass die Karte trotz der theoretischen höhreren Rechenleistung sich nicht von der 8800GTX absetzen kann. Wo verdrehe ich Fakten?


Jeden, der etwas weiter blicken möchte als bis zur nächsten sekunde.

Ich habe weiter als diese Sekunde gedacht. Das Problemw ar nur, dass du diesem einen Test als heranführst. Dabei gibt es haufensweise weitere, die andere Ergebnisse erreichen. Erst wenn man sich genug Test anguckt, kann man ein für sich eindeutiges Ergebnis erlangen.


Ich bezog mich auf die zukünftige Entwicklung und da ist es doch nur logisch, das die Anzahl der Games jetzt noch gering ist - aber das bleibt nicht so.

Und was ist "die zukünftige Entwicklung"? Wer sagt dir, dass nVidia nicht mehr Studios überzeugen kann, primär mit ihrer Hardware zu entwickeln und die Engines auf ihre Hardware optimaler abzustimmen?
Und ich sehe die Zukunft an den Xbox360 Portierungen schon heute - und die sieht für die 2900XT nicht besser aus.


Kindergartenmode
Nein, du.
/Kindergartenmode

Du verstehst es nicht, oder? Du bist es gewesen, der gesagt hat, an dieser Stelle von Oblivion benötige man brutale Shaderpower. Dann soll es plötzlich auch noch die HSR Eigenschaften sein. Ausserdem vergleichst du die Rechenleistung der X1900XT mit der der 8800GTS, wonach nie gefragt wurde.
Schlussendlich behauptest du, dass die 1900XT eine größere Shader- und HSR Power hätte als die 8800GTX.
Und wo wir dabei sind: "Also zweifelst du die 3DC-Benchmarks an?". Das ist "Kindergartenmode". Ich habe die Ergebnisse nicht angezweifelt und als falsch tituliert. Aber das verstehst du nicht, solange du im "Fanboymode" bist, gell? :rolleyes:

Mr. Lolman
2007-07-03, 13:58:26
Ich habe die Ergebnisse nicht angezweifelt und als falsch tituliert. Aber das verstehst du nicht, solange du im "Fanboymode" bist, gell? :rolleyes:

Ja, was ist denn deine Meinung, wie die Ergebnisse zustande kommen? Imo liegts an Shaderpower & HSR-Leistung...

Gast
2007-07-03, 14:03:15
Ja, was ist denn deine Meinung, wie die Ergebnisse zustande kommen? Imo liegts an Shaderpower & HSR-Leistung...

Treiber, so wie auch in den anderen Test, wo die Karte in den einzelnen Einstellungen kein Verlust der Frames erleidet hat.
Z.B Anno: http://www.3dcenter.de/artikel/radeon_hd_2900_xt/index13.php

Oder kommt es hier auch auf die "Shaderpower & HSR-Leistung" an? :rolleyes:

Mr. Lolman
2007-07-03, 14:08:41
Treiber, so wie auch in den anderen Test, wo die Karte in den einzelnen Einstellungen kein Verlust der Frames erleidet hat.
Z.B Anno: http://www.3dcenter.de/artikel/radeon_hd_2900_xt/index13.php

Oder kommt es hier auch auf die "Shaderpower & HSR-Leistung" an? :rolleyes:

Mag sein, dass der Treiber da noch was rausholen, auch wenn ich nicht ganz daran glaube, da Oblivion schon >1 Jahr alt ist und NV lang genug Zeit zum Optimieren gehabt hat. Jedenfalls ist die Szene sehr shaderlastig und hat auch nen hohen Overdraw (letzteres hab ich anfangs sträflicherweise ignoriert). Damit zu kontern, dass in einem völlig anderen Spiel auch andere Ergebnisse entstehen, zeugt jedenfalls nicht gerade von einem großen Verständnis der Materie.

Und dein :rolleyes: Smiley kannst du dir sonst wohin stecken :P

Gast
2007-07-03, 14:11:29
Selbst in absolut ALU-lastigen Spielen wie Oblivion liegt G80 vorne.

Das ist ein absoluter Blödsinn. Obivion ist viel, aber mit Sicherheit nicht shaderlimitiert. Wann hört entlich dieser BS auf? G8ß düfte vorallem aufgrund der höheren Tex-Leistung in O vorne liegen.

Bullz
2007-07-03, 14:12:43
ich kann bei euch nicht mitreden da ich zu wenig ahnung habe.. eines will ich aber loswerden..

früher habe ich auch " mehr an Zukunftssicherheit " etc geglaubt gehofft wenn ich was gekauft habe... das hat sich mit dem Forum hier aber endgültig verabschiedet... sobald man was kauft ist es schon alt..

wenn ich mir jetzt was KAUFE will ich jetzt 100 % der Leistung haben... den ich verkauf die Graka wahrscheindlich in den nächsten 6M bis 1 Jahr wieder ... und mach in Summe wenn ich schlau gekauft habe wenig " Verlust " ...

was hilft es mir dann wenn ich ach so tolle Ati kaufe... die VIELLEICHT *glaskugel ein* in nem Jahr wirklich Gas gibt ? Schon klar jeder wechselt seine Graka nicht so oft.. in summe kommst damit Euro/fps mässig weiter ... keine Lust das vorzurechnen .. haben andere schon gemacht..

so da :P und viel Spass mit deiner geilen Ati wenn ich ne Geforce 9800 GTS im Rechner habe ;) können ja dann gern mal testen ... hehe

Mr. Lolman
2007-07-03, 14:16:00
Das ist ein absoluter Blödsinn. Obivion ist viel, aber mit Sicherheit nicht shaderlimitiert.

Das kann man nicht so verallgemeinern. Es kommt auf die jeweilige Testszene an.

Gast
2007-07-03, 14:18:19
Ich habe doch genau diese Spiele erwähnt und habe auch gesagt, dass die Karte trotz der theoretischen höhreren Rechenleistung sich nicht von der 8800GTX absetzen kann.

Ich habe dir Beispiele mit TDU, Rainbow Six, Oblivion oder auch OpenGL gezeigt. Dort schneidet die 2900XT sehr gut ab und deklassiert zum Teil die deutlich teurere 8800GTX.
Was gibt es daran nicht zu verstehen? Du behauptest doch weiterhin, das sei nicht so, obwohl ich es dir mehrmals belegt habe. :rolleyes:

Und was ist "die zukünftige Entwicklung"? Wer sagt dir, dass nVidia nicht mehr Studios überzeugen kann, primär mit ihrer Hardware zu entwickeln und die Engines auf ihre Hardware optimaler abzustimmen?

Das zeigt mir nur, das du nicht verstanden hast, wovon ich rede.
Es geht doch gar nichts ums optimieren auf bestimmte Hersteller, sondern um den Einsatz der verwendeten Technik um etwas darzustellen. Da haben bestimmte Architekturen nunmal ihre Vor und Nachteile.

Damals war in erster Linie die Füllrate gefragt und das ist auch heute noch so, wenn du mal die ganz alten Anwendungen rauskramst. Aber heutige Architekturen sind nicht mehr darauf optimiert, da sie sich widerum mehr für Shaderintensive Applikationen eignen.

Und genau darum geht es doch. Der Trend in der Softwareentwicklung geht nur langsam vonstatten. Du entwickelst nicht heute ein Game mit vorgefertigten Texturen und nutzt schon morgen Echtzeit-Raytracing, sondern stufst das nach und nach ab, bis irgendwann keine Altlasten mehr vorhanden sind.

Bei heutigen Anwendungen ist das aber kaum möglich, da die nötige Basis bei den Kunden so gut wie nicht besteht. Es wäre genauso größenwahnsinnig jetzt ein D3D10 only-Game herauszubringen, weil es kaum jemand nutzen kann. Die Einbußen im Umsatz sind einfach zu groß, als das es jemand wagen würde.

Mr. Lolman
2007-07-03, 14:18:56
was hilft es mir dann wenn ich ach so tolle Ati kaufe... die VIELLEICHT *glaskugel ein* in nem Jahr wirklich Gas gibt ? Schon klar jeder wechselt seine Graka nicht so oft.. in summe kommst damit Euro/fps mässig weiter ... keine Lust das vorzurechnen .. haben andere schon gemacht..

Das kann man auch nicht so verallgemeinern. Für heutige Spiele hat die 2900XT genug Leistung und wenn sie länger im Rechner hat als eine Konkurrenzkarte kommt man damit letztenendes auch günstiger...

Gast
2007-07-03, 14:37:33
...vorallem weil sie so wenig Strom verbraucht :rolleyes

Gast
2007-07-03, 14:43:13
...vorallem weil sie so wenig Strom verbraucht :rolleyes
Was als Privatperson egal ist oder spielst du 24h am Tag?
(zum Arbeiten empfiehlt sich sowieso ein Zweitrechner oder Notebook, ein High End PC wird nie sparsam sein...)

Gast
2007-07-03, 14:45:03
Dass G71 heute soweit zurückliegt, liegt sicher nicht an der Shaderleistung.

Warum liegt er dann vorallem bei shaderlastigen Spielen besonders weit zurück? Das liegt IMHO definitiv an der Shaderleistung, und das verwundert auch wenig, angesichts der Tatsache, dass jede ALU-Op die gesamte Pipeline lahm legt.



ATI machte das bisher nie so.


Oh doch, ATi macht das genau so. Wie du selbst sagst, warum sollte man es auch anders machen.


Auch hat man den Vorteil der custom transistors nicht und konnte somit bei den ALUs keine Transistoren sparen.


Auch R600 hat custom transistors.


Der R600 im Vollausbau reicht also gerade so, um an einen 2/3 G80 ranzukommen (mehr als das ist die GTS nicht, denn der Takt wurde neben der Einheitenreduktion auch reduziert). Vieleicht wird R600 auch irgendwann mal schneller als die GTS sein. Aber nicht schneller als ein voller G80.


Nur "dank" des viel zu staken Einbruchs mit AA.

Gast
2007-07-03, 14:48:33
Ich habe dir Beispiele mit TDU, Rainbow Six, Oblivion oder auch OpenGL gezeigt. Dort schneidet die 2900XT sehr gut ab und deklassiert zum Teil die deutlich teurere 8800GTX.
Was gibt es daran nicht zu verstehen? Du behauptest doch weiterhin, das sei nicht so, obwohl ich es dir mehrmals belegt habe. :rolleyes:

TDU ist, wie ich schon sagte, ein Beispiel, welches man genauer betrachten müsste. Ich tippe auf einem Treiberproblem bezüglich der Floating Point Geschwindigkeit bei HDR. Hier gibt es genügend Argumente, die meine These stützen.
RS:V und OpenGL sind Gleichstand, da die 2900XT in RS:V kein AA zulässt (im Gegensatz zu nVidia) und unter OpenGL auch nur einem Gleichstand schafft. Hier rennt sie niemanden davon. Und Oblivion ist hoffentlich nicht dein ernst. Denn hier gibt es genug andere Beispiele, die den Test auf der matheb Seite nur als einen unter vielen abstempelt.
Was du machst, ist der typische "Ein Argument belegt meine These" Vorgang. Du hast deine These und suchst solange nach einem Argument, um deine These als Wahrheit hinzustellen.

Das zeigt mir nur, das du nicht verstanden hast, wovon ich rede.
Es geht doch gar nichts ums optimieren auf bestimmte Hersteller, sondern um den Einsatz der verwendeten Technik um etwas darzustellen. Da haben bestimmte Architekturen nunmal ihre Vor und Nachteile.

Ja. Und was hat das mit dem r600 und dem G80 zu tun?


Damals war in erster Linie die Füllrate gefragt und das ist auch heute noch so, wenn du mal die ganz alten Anwendungen rauskramst. Aber heutige Architekturen sind nicht mehr darauf optimiert, da sie sich widerum mehr für Shaderintensive Applikationen eignen.

Der G80 hat bis zu 32 TAU und 64 TFU Units. Die Texturleistung wurde im schlechtesten Fall zur 7900GTX um ca. 16% und im besten Fall 127% erhöht.
Es ist also nicht nur die Rechenleistung sondern auch die Texturleistung beim G80 verbessert wurden. Auch AMD hat die Texturleistung verbessert indem sie Texturen mit FP - Genauigkeit (FP16) in einem Takt filtern können.

Bei heutigen Anwendungen ist das aber kaum möglich, da die nötige Basis bei den Kunden so gut wie nicht besteht. Es wäre genauso größenwahnsinnig jetzt ein D3D10 only-Game herauszubringen, weil es kaum jemand nutzen kann. Die Einbußen im Umsatz sind einfach zu groß, als das es jemand wagen würde.

Xbox360 Portierungen sind abhängig von der Rechenleistung, da die Engines auf Xenos optimiert wurden und Xenos eben nunmal eine sehr hohe Rechenleistung hat. Und in genau diesen Spielen kann sich die 2900XT nicht von der 8800GTX absetzen. Es zeigt also, dass die theoretisch höhrere Rechenleistung nicht durchgängig nutzbar ist!

Gast
2007-07-03, 14:52:35
Das kann man auch nicht so verallgemeinern. Für heutige Spiele hat die 2900XT genug Leistung und wenn sie länger im Rechner hat als eine Konkurrenzkarte kommt man damit letztenendes auch günstiger...

Die 2900XT wird nicht länger als eine 8800GTX im Rechner bleiben. Sie kam 6 Monate später auf dem Markt und hat deutliche Probleme beim Einsatz vom AA. Sobald die neuen Karten kommen, wird sie eher ersetzt als eine 8800GTX.
Aber nun gut, wenn meine 8800GTX ein Jahr alt wird, muss sie beim 2900XT Käufe rnoch mindesten 6 Monate im rechner bleiben, um deiner Meinung nach "günstiger" zu kommen.

deekey777
2007-07-03, 15:01:13
Ich kann lesen, du auch?

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/24/#abschnitt_rainbow_six_vegas

Doch die Unreal Engine 3 hat einen großen Nachteil: So kommt ein „Deferred Renderer“ zum Einsatz, der mit einer flotten Schatten- und Lichtberechnung zwar einige Vorteile bietet, aber unter der Direct3D-9-API Anti-Aliasing verhindert.
Wenn ein Deferred Renderer zum Einsatz kommt und somit verbundener Einsatz von MRTs, die das MSAA unter D3D9 unmöglich machen, wie kann es dann sein, dass man im Treiber iVm einer G80er doch MSAA zu sehen bekommt? Und wenn man Schatten deaktiviert gibt es auf wundersame Weise mit jeder Grafikkarte MSAA.
Deferred Renderer schließt das SSAA nicht aus, UE3 dagegen schon.

Gast
2007-07-03, 15:04:15
Vergleiche dazu die X1900-Serie, die zuerst langsamer und dann deutlich schneller war, obwohl sich nichts daran geändert hat, außer die Anwendungen.

das war von anfang an klar, da die X1900er eine wesentlich höhere arithmetikleistung als die G7x-reihe besitzt.

heute ist es aber so dass der R600 zwar von der arithmetikleistung auf ählichem niveau wie die 8800GTX liegt, überall anders aber deutlich überlegen ist. selbst wenn sich software und treiber ändern wird die 8800GTX im schnitt immer schneller bleiben, weil sie in der rohleistung so gut wie überall mindestens R600-niveau erreicht.

Gast
2007-07-03, 15:04:41
RS:V und OpenGL sind Gleichstand

Gleichstand? Die 2900XT wird knapp 120€ günstiger angeboten und gewinnt das Duell damit klar.

Und Oblivion ist hoffentlich nicht dein ernst.

Logisch ist das mein Ernst, m Realword Szenario ist Oblivion oft CPU limitiert und an manchen Stellen stark Shaderlastig. Beides spricht für die 2900XT, da der G80 dort seine Vorteile nicht ausspielen kann.

Ja. Und was hat das mit dem r600 und dem G80 zu tun?

Ich habs dir erklärt, wenn du das nicht verstehst, kann ich dir nicht mehr helfen.

Gast
2007-07-03, 15:18:48
Gleichstand? Die 2900XT wird knapp 120€ günstiger angeboten und gewinnt das Duell damit klar.

Darum geht es hier nicht. Aber das ist eben wieder dieses "Ein Argument belegt meine These" getue.
Das ist jetzt Marktwirtschaft und hat nichts mit der Zukunftsaussicht zu tun.
AMD kam zu spät auf dem Markt und mussten ihre Karte preislich an diesem Markt anpassen. Und wenn wir von Preis reden: Die Karte verbraucht deutlich mehr Strom als die 8800GTS und nervt dem User mit einer unerträglichen Lautstärke im 2D Modus. Das sind keine Argumente, für eine bessere Zukunftsaussicht.


Logisch ist das mein Ernst, m Realword Szenario ist Oblivion oft CPU limitiert und an manchen Stellen stark Shaderlastig. Beides spricht für die 2900XT, da der G80 dort seine Vorteile nicht ausspielen kann.

Dann zeige mir 5 Tests, wo die 2900XT vor der 8800GTX beim Einsatz von AA und AF in Oblivion ist - dein "Realworld Szenarium. Ich kann dir mindesten fünf Tests zeigen, wo dieses Bild nicht zu trifft. Und nur weil ein Spiel shaderlastig ist, heißt es nicht, dass die 2900XT hier Vorteile hat. Die Berechnungen haben bestimmte Merkmale, die der einen oder anderen Architektur besser schmecken.

Gast
2007-07-03, 15:22:59
3D Modus - natürlich...

Gast
2007-07-03, 15:25:36
Und was ist "die zukünftige Entwicklung"? Wer sagt dir, dass nVidia nicht mehr Studios überzeugen kann, primär mit ihrer Hardware zu entwickeln und die Engines auf ihre Hardware optimaler abzustimmen?


ach, da brauchen sie garnicht viel überzeugungsarbeit zu leisten, die spiele von morgen sind schon längst in der entwicklung und durch die extreme verpätung blieb den entwicklern gar keine andere wahl als einen G80 zu benutzen.

Coda
2007-07-03, 15:31:05
Das ist ein absoluter Blödsinn. Obivion ist viel, aber mit Sicherheit nicht shaderlimitiert. Wann hört entlich dieser BS auf? G8ß düfte vorallem aufgrund der höheren Tex-Leistung in O vorne liegen.
Das ist kein Bullshit, sondern ein Simulatorergebnis.

Gast
2007-07-03, 15:32:28
Darum geht es hier nicht.

Der Preis spielt immer eine Rolle.
Für den Preis einer 8800Ultra bekomme ich fast schon zwei 2900XT. Die sind meistens schneller.
Und für 120€ weniger, bekomme ich eine 2900XT, die jetzt schon teilweise besser ist als die 8800GTX und in Zukunft wohl noch zulegen wird. Die Treibererentwicklung gibts da schließlich auch noch...
Außerdem könnte ich mir für das gesparte Geld + den Wiederverkaufswert eine neue 300€ Karte der nächsten Refresh/Generation kaufen ohne auch nur einen einzigen Cent zusätzlich zu bezahlen. Das ist schon ein gewichtiges Argument.

Wenn wir mal ganz fair bleiben wollen, dann müsste man sogar die 1 GB Version mit höheren GPU und Speichertakt gegen die 8800GTX antreten lassen und diese wäre noch ne ganze Ecke schneller als die 512MB Version.

Ich kann dir mindesten fünf Tests zeigen, wo dieses Bild nicht zu trifft.

Das bezweifel ich sehr. ;)
Ist nämlich ganz unmöglich, da man bei dem Spiel öfters mal in die Städte zurückkehrt und dir dort die Grafikpower gar nichts nützt, weil die CPU die KI der Charaktere berechnen darf.
Zudem solltest du nicht vergessen, das dieses Game schon einige Jahre alt ist - seit Entwicklungsbeginn.

Die Berechnungen haben bestimmte Merkmale, die der einen oder anderen Architektur besser schmecken.

Wow. Du hast es endlich verstanden!

Ich bin mir ziemlich sicher, das deswegen die 2900XT das Rennen machen wird - was sie übrigens jetzt schon tut. Wo bekommt man sonst die Leistung einer 8800GTX und teilweise mehr für das Geld?

Gast
2007-07-03, 15:45:41
Was als Privatperson egal ist oder spielst du 24h am Tag?
(zum Arbeiten empfiehlt sich sowieso ein Zweitrechner oder Notebook, ein High End PC wird nie sparsam sein...)

Dann ist ja wohl auch der Mehrpreis der 8800GTX egal, immerhin leistet sie ja deutlich mehr als eine 2900XT.

Demirug
2007-07-03, 15:54:02
Das ist kein Bullshit, sondern ein Simulatorergebnis.

Eben nicht. Der Simulator kann nur OpenGL. Die ganzen D3D daten sind nur statitische Informationen die mit PIX gewonnen wurden.

reunion
2007-07-03, 17:24:43
Das ist kein Bullshit, sondern ein Simulatorergebnis.

Hin und wieder darf man auch die Praxis nicht außer acht lassen. Der Vergleich R580 vs. R520 zeigt deutlich, dass bei Oblivion nur äußerst selten die Shaderleistung eines R520 nicht ausreicht - besondern shaderlimitiert kann das also nicht sein. Shaderlimitiert sind vorallem die ganzen Xbox-Konvertierungen, und da liegt ein R600 sehr gut.

Coda
2007-07-03, 17:25:46
Jo hab das Paper offenbar nicht richtig gelesen :redface:

Demirug
2007-07-03, 17:56:46
Bei diesen „ach die Shader sind ja so rechenlastig“ Präsentation wird immer wieder der gleiche „Fehler“ gemacht. Man vergleicht die Anzahl der Textureanweisungen mit der Anzahl der Rechenanweisungen. Was man aber eigentlich vergleichen muss ist die Anzahl der Takte die man jeweils zur Ausführung braucht. Dummerweise ist die bei den Textureanweisungen wenn man ordentliche Filter nimmt > 1 aber bei den Rechenanweisungen aufgrund von Zusamenfassungen < 1. Dadurch wird aus 10:1 ganz schnell 1-2:1

Gast
2007-07-03, 20:03:05
Eher nicht. An den Obliviontoren ist einfach brutalste Shaderpower gefragt. Jede Karte kackt da ab. Sieht man ja an den fps ;)
Vielleicht sollte AMD erstmal den Tor-Bug bei aktiviertem FSAA und HDR wegbügeln? Wenn man falsche Renderreihenfolge erzwingt, ist klar, dass HSR greift und die Leistung abnorm steigt.

Gast
2007-07-03, 20:04:52
Hin und wieder darf man auch die Praxis nicht außer acht lassen. Der Vergleich R580 vs. R520 zeigt deutlich, dass bei Oblivion nur äußerst selten die Shaderleistung eines R520 nicht ausreicht - besondern shaderlimitiert kann das also nicht sein.
Mit FSAA, HDR und 16x AF sicherlich nicht. ;D

Gast
2007-07-03, 20:21:03
Wenn wir mal ganz fair bleiben wollen, dann müsste man sogar die 1 GB Version mit höheren GPU und Speichertakt gegen die 8800GTX antreten lassen und diese wäre noch ne ganze Ecke schneller als die 512MB Version.



die es dummerweise nicht gibt (und nein, irgendwelche OC-karten einzelner hersteller zählen nicht)

Gast
2007-07-03, 21:13:06
wenn ich mir jetzt was KAUFE will ich jetzt 100 % der Leistung haben... den ich verkauf die Graka wahrscheindlich in den nächsten 6M bis 1 Jahr wieder ... und mach in Summe wenn ich schlau gekauft habe wenig " Verlust " ...

was hilft es mir dann wenn ich ach so tolle Ati kaufe... die VIELLEICHT *glaskugel ein* in nem Jahr wirklich Gas gibt ? Schon klar jeder wechselt seine Graka nicht so oft.. in summe kommst damit Euro/fps mässig weiter ... keine Lust das vorzurechnen .. haben andere schon gemacht..

so da :P und viel Spass mit deiner geilen Ati wenn ich ne Geforce 9800 GTS im Rechner habe ;) können ja dann gern mal testen ... hehe

hmmm, das kann man so nicht verallgemeinern.
wenn ich mir heute eine graka kaufe, dann bekomme ich im falle einer GTX in einem jahr viel weniger geld als wenn ich mir jetzt eine 2900XT kaufe. die XT ist jetzt billiger und wenn sie wirklich noch zulegt hab ich auch einen höheren wiederverkaufswert als die GTX....
das wäre für mich also die von dir genannte "schlaue kaufweise"

daher hab ich bei wenig einsatz und viel wiederverkaufswert wohl eher eine 9800GTS / GTX im rechner als du :D

MfG
Alex

Xmas
2007-07-03, 21:48:48
wenn ich mir heute eine graka kaufe, dann bekomme ich im falle einer GTX in einem jahr viel weniger geld als wenn ich mir jetzt eine 2900XT kaufe. die XT ist jetzt billiger und wenn sie wirklich noch zulegt hab ich auch einen höheren wiederverkaufswert als die GTX....
Das ist in beide Richtungen reine Spekulation.

starfish
2007-07-03, 22:16:47
Der X2900XT ist ja in OpenGL relativ schnell, wie sieht es dann in Programmen wie 3DsMax und Maya aus im Vergleich zur GTX?

Gast
2007-07-03, 22:43:17
Der X2900XT ist ja in OpenGL relativ schnell, wie sieht es dann in Programmen wie 3DsMax und Maya aus im Vergleich zur GTX?
Das kommt ganz drauf an, was du machen willst. Bei sehr komplexen Drahtgittermodellen, die du nur schnell herumschubsen willst, kommt ihr ihre enorme Tri-Setup-Leistung zugute,

Roi Danton
2007-07-04, 00:15:48
Der X2900XT ist ja in OpenGL relativ schnell, wie sieht es dann in Programmen wie 3DsMax und Maya aus im Vergleich zur GTX?Auch mit Highpoly Modell + DisplacementMap heightfield + FurFeedback + AreaLights gibt sogar der GMA3000 was aus (wenn auch langsam ;) ). Aber so ein Test mit verschiedenen Szenen und einer definierten Kamerafahrt wäre interessant. Die FPS kann man ja z.B. mit Fraps anzeigen lassen.

Gast
2007-07-04, 00:41:44
die es dummerweise nicht gibt (und nein, irgendwelche OC-karten einzelner hersteller zählen nicht)

Die Karten gibt es, bis jetzt nur nicht überall, was sich jedoch schnell ändern kann.

Außerdem werden hierzulande schnellere 512MB Versionen folgen, die noch genügend Preisspielraum bis zur GTX haben.

Angekündigt hat Sapphire glaube ich schon eine, die laut Newsmeldung einen deutlich höheren Takt erhalten soll.

Wenn man sich die Ergebnisse der 1024MB Karte ansieht:
http://hardware.gotfrag.com/portal/story/38332/?spage=1

... da sieht es da ziemlich gut aus. Besonders in hohen Auflösungen mag die Karte trotz ihres GPUs Takts, der nicht erhöht wurde, punkten.

Gast
2007-07-04, 08:37:02
wenn ich mir heute eine graka kaufe, dann bekomme ich im falle einer GTX in einem jahr viel weniger geld als wenn ich mir jetzt eine 2900XT kaufe. die XT ist jetzt billiger und wenn sie wirklich noch zulegt hab ich auch einen höheren wiederverkaufswert als die GTX....Das ist eine reine Vermutung von dir. Ich glaube nicht, dass dies zutreffen wird.

Gast
2007-07-04, 14:12:16
EDIT: Die Rightmark HSR-Tests von Computerbase sind auch zum Vergessen. Die Testen mit ihren Settings mal hauptsächlich die Fillrate und erst nebensächlich HSR...
Und warum ist das so?

Mr. Lolman
2007-07-04, 14:13:26
Und warum ist das so?

Unsorted@1600x1200. Besser wär F2B und ne kleinere Auflösung...

Coda
2007-07-04, 14:13:48
Eben. Die HSR-Leistung ist ja gerade die gesparte Fillrate.

Sascha1971
2007-07-04, 17:21:19
Hmm, die x2900XT scheint wohl doch besser zu sein, wie angenommen.
Zumindest im CF Betrieb.
http://www.pcgameshardware.de/?article_id=605401
Schade nur das ATI die Games in CF Betrieb so schlecht in ihren Treiber unterstützt.

erwingage
2007-07-04, 17:28:00
Hmm, die x2900XT scheint wohl doch besser zu sein, wie angenommen.
Zumindest im CF Betrieb.
http://www.pcgameshardware.de/?article_id=605401
Schade nur das ATI die Games in CF Betrieb so schlecht in ihren Treiber unterstützt.

sind aber 2 X2900XTX verbaut:wink:

Gast
2007-07-04, 18:16:33
Hmm, die x2900XT scheint wohl doch besser zu sein, wie angenommen.
Zumindest im CF Betrieb.
http://www.pcgameshardware.de/?article_id=605401
Schade nur das ATI die Games in CF Betrieb so schlecht in ihren Treiber unterstützt.


SLI funktioniert unter Vista noch nicht ordentlich, unter XP würde das ganz anders aussehen.

Gast
2007-07-04, 18:39:20
Unsorted@1600x1200. Besser wär F2B und ne kleinere Auflösung...
1.600x1.200 ist eigentlich schonmal gut - je mehr gearbeitet pro Pixel gearbeitet wird desto besser.

Woher weißt du, dass CB "unsorted" nutzt? Steht da nirgends...

Zudem: Wenn ich mir die Ergebnisse so anschaue, scheint die Füllrate da eher eine untergeordnete Rolle zu spielen. Beispiel: 8600 GTS vs. 7950GX2 (dass SLI hier nicht das Problem ist, zeigt der Abstand zur 7900 GTX).

Mr. Lolman
2007-07-04, 18:54:42
1.600x1.200 ist eigentlich schonmal gut - je mehr gearbeitet pro Pixel gearbeitet wird desto besser

Bei 1600x1200 wird pro Pixel weniger gecullt als bei 640x480, sofern die Geometrielast gleich bleibt. Aber wichtiger ist eigentlich dass man die HSR-Leistung doch mit F2B-Rendering testen sollte..

Woher weißt du, dass CB "unsorted" nutzt? Steht da nirgends...

Habs getestet ;)

Gast
2007-07-04, 18:59:03
Bei 1600x1200 wird pro Pixel weniger gecullt als bei 640x480, sofern die Geometrielast gleich bleibt. Aber wichtiger ist eigentlich dass man die HSR-Leistung doch mit F2B-Rendering testen sollte..


Habs getestet ;)
Du testest bei Computerbase und schimpfst dann immer über die???

In 640x480 ist's aber praxisfern und vor allem belastest du damit nur zusätzlich den Speicherbus, weil die Geometrielast zwar absolut gleich bleibt, relativ aber stark steigt, sprich, du hast viel weniger Pixel pro Dreieck.

Mr. Lolman
2007-07-04, 19:09:32
In 640x480 ist's aber praxisfern und vor allem belastest du damit nur zusätzlich den Speicherbus, weil die Geometrielast zwar absolut gleich bleibt, relativ aber stark steigt, sprich, du hast viel weniger Pixel pro Dreieck.

Ein reiner HSR Benchmark ist ohnehin praxisfern und soll auch nur die theoretisch maximal mögliche Leistung indizieren, was eben mit extremen Settings am besten läuft. Man natürlich auch einfach die Geometrielast erhöhen, was aber bei dem Benchmark nicht mehr weiter geht...

Extreme Settings beim HSR entsprechen einfach einem möglichst hohen Polygonload/Pixel und wenn man den gesamten Polygonload nicht mehr erhöhen kann, verringert man einfach die gesamte Pixelanzahl. 3DCenter hat den Test richtig gemacht (blöderweise aber falsche Ergebnisse in die Tabelle eingetragen).

Du testest bei Computerbase und schimpfst dann immer über die???

Nö, habs zuhause überprüft. Mit F2B und B2F unterscheiden sich die Ergebnisse bei meiner X1900XTX signifikant von dem, was bei unsorted rauskommt. Und unsorted stimmt fast aufs Frame genau mit dem Ergebnis von CB überein...

Gast
2007-07-04, 19:36:35
Mach doch bitte mal eine kleine Vergleichsreihe mit deiner X1900 XTX:

Ratio
640x480 1.600x1.200 6,25
Unsorted
Back-2-Front
Front-2-Back

Mr. Lolman
2007-07-04, 19:40:58
Mach doch bitte mal eine kleine Vergleichsreihe mit deiner X1900 XTX:

Ratio
640x480 1.600x1.200 6,25
Unsorted
Back-2-Front
Front-2-Back



Hm. Da müsst ich mir das Ding erst wieder auf die Platte knallen. Später vll..

Gast
2007-07-05, 08:20:22
Hmm, die x2900XT scheint wohl doch besser zu sein, wie angenommen.
Zumindest im CF Betrieb.
http://www.pcgameshardware.de/?article_id=605401
Schade nur das ATI die Games in CF Betrieb so schlecht in ihren Treiber unterstützt.Wie der andere Gast schon sagte, liegt das an Vista. Dort läuft SLI noch längst nicht optimal. Außerdem trifft die gute CF-Performance höchstens auf Mainstreamspiele und 3DMarks zu. Bei weniger bekannten oder nagelneuen Spielen gibts kein Profil im Treiber und CF rennt überhaupt nicht, wie du schon richtig angemerkt hast. Bei SLI erstellt man einfach fix ein Profil mit dem Nhancer.

MechWOLLIer
2007-07-05, 09:52:47
Nö, habs zuhause überprüft. Mit F2B und B2F unterscheiden sich die Ergebnisse bei meiner X1900XTX signifikant von dem, was bei unsorted rauskommt. Und unsorted stimmt fast aufs Frame genau mit dem Ergebnis von CB überein...
Ja, es ist unsorted. Aber warum ist bei einem HSR-Test denn F2B oder B2F besser?

Und die SLI-Leistung unter Vista auf einem G80 ist gar nicht mal so übel wie hier viele denken. Da kommt eine HD 2900 XT CF meistens nichtmals mit der 8800 GTS SLI mit.

Gast
2007-07-05, 10:31:42
Im 640er-Fullscreen, Geometry-Profile High, Unsorted, Fixed-Color+Texture und VS3.0-Shaderprofil erreiche ich mit der HD2900 XT unglaublich 6800 Fps.

Das HSR ist dabei so effektiv, dass bis auf das FPS-Overlay rein gar nichts mehr dargestellt wird: Schwarzer Schirm. ;D


Q

Mr. Lolman
2007-07-05, 11:41:21
Im 640er-Fullscreen, Geometry-Profile High, Unsorted, Fixed-Color+Texture und VS3.0-Shaderprofil erreiche ich mit der HD2900 XT unglaublich 6800 Fps.

Das HSR ist dabei so effektiv, dass bis auf das FPS-Overlay rein gar nichts mehr dargestellt wird: Schwarzer Schirm. ;D


Q

VS3.0 ist der Hund. BTW: Ich schaff mit F2B sogar 9000fps ;D

Ja, es ist unsorted. Aber warum ist bei einem HSR-Test denn F2B oder B2F besser?


Nö. B2F ist sogar das Schlechteste. Am Besten ist F2B, da ja gecullt werden soll. Und das funzt nunmal am ehesten, wenn man von vorne nach hinten rendert. (da ja Polygone im Vordergrund die dahinterliegenden Polygone verdecken, und der HSR-Mechanismus das eben herausfinden soll, was jetzt noch gerendert werden muss, und was nicht mehr). Bei B2F würde das Culling quasi garnicht funzen, da die GraKa im Vorhinein ja nicht weiss, welche Polygone später verdeckt sein werden.

Unsorted ist nix Halbes und nix Ganzes, und nach Möglichkeit zu vermeiden (da entweder die Leistung nicht optimal ist, oder bei alphablendet Texturen gar Z-Fehler auftreten können). Unsorted kann allenfalls nen ungefähren Aufschluss darüber geben, wie die Performance ist, wenn man Teile der Szene B2F (und das macht man nur wenn sichs nicht vermeiden lässt, bei Alphablending bspw) und andere Teile F2B rendert. Allerdings sind die Performancewerte weder für die Realworldperformance besonders aussagekräftig, noch testet man damit die tatsächlich mögliche HSR-Leistung...

Gast
2007-07-05, 12:33:32
Am besten ist unsorted, weil das in der Praxis der am häufigsten auftretende Fall ist.

Gast
2007-07-05, 12:50:19
VS3.0 ist der Hund. BTW: Ich schaff mit F2B sogar 9000fps ;D
Ja, ich weiß.

Allerdings habe ich hier Ergebnisse (Fixed-Funktion; VS macht keinen Unterschied), die durchaus darauf schließen lassen, dass das HSR der R600 nicht so gut ist, wie das der G80.


Q

Mr. Lolman
2007-07-05, 12:56:55
Am besten ist unsorted, weil das in der Praxis der am häufigsten auftretende Fall ist.

Das ist imo nicht korrekt. 1. sollte der ISV darauf achten nach Möglichkeit F2B einzusetzen, wenn er nicht sinnlos Leistung verschwenden will und 2. soll ein theoretischer Benchmark auch nur die theoretisch mögliche Leistung messen.

Gast
2007-07-05, 14:27:58
1. stellst du dir wohl etwas zu einfach vor.
Nenne mir eine 3D-Engine die strikt F2B rendert!
2. ohne B2F und unsorted Benches sagt das F2B Ergebniss nichts aus.

Mr. Lolman
2007-07-05, 14:33:23
1. stellst du dir wohl etwas zu einfach vor.
Nenne mir eine 3D-Engine die strikt F2B rendert!
2. ohne B2F und unsorted Benches sagt das F2B Ergebniss nichts aus.

1. Wer redet von strikt. Wenns möglich ist, nimmt man F2B. Wenn nicht dann B2F. Aber unsorted ist Mist, weil unsinnig.

2. natürlich ists sinnvoller F2B, B2F und m.W auch unsorted zu testen, um eben eine Vergleichbarkeit zu haben. Aber wenn man sich nur auf einen Benchmark versteift, dann wohl am ehesten auf F2B. Ich mach ja auch keine AA-BQ-Vergleiche bei Szenen wo man kaum Polygonkanten sieht, nur weil vll. in div. Spielen Polygonkanten garnichtmal so stark sichtbar sind (ok Anandtech und Konsorten mach(t)en das tw. schon, aber das ist eh ein anderes Kapitel ;D)

Gast
2007-07-05, 15:03:56
1. Wer redet von strikt. Wenns möglich ist, nimmt man F2B. Wenn nicht dann B2F. Aber unsorted ist Mist, weil unsinnig.


Wie hoch schätzt du den Unterschied zwischen F2B und unsorted bei einer aktuellen Karte ein?


Q

Mr. Lolman
2007-07-05, 15:16:34
Wie hoch schätzt du den Unterschied zwischen F2B und unsorted bei einer aktuellen Karte ein?


Q

Auf meiner X1900XTX beträgt er jedenfalls 50-80%...

Gast
2007-07-05, 15:30:53
Auf meiner X1900XTX beträgt er jedenfalls 50-80%...
Da hast'es. Dir ist bekannt, dass HierZ auf der R600 robuster ist, also in mehr Fällen funktioniert?

Auf der R600 in den von dir vorgeschlagenen Settings (640x480 FS, High Geometry Detail) und ohne Texturen: +4%.

Zum Vergleich in 1600x1200: +6%.
Zum Vergleich eine G80-GTX: +6/+7%.


Sind die CB-Tests also nun so wertlos, wie du sie hinstellst?


Q

Mr. Lolman
2007-07-05, 15:34:34
Da hast'es. Dir ist bekannt, dass HierZ auf der R600 robuster ist, also in mehr Fällen funktioniert?

Auf der R600 in den von dir vorgeschlagenen Settings (640x480 FS, High Geometry Detail) und ohne Texturen: +4%.

Zum Vergleich in 1600x1200: +6%.
Zum Vergleich eine G80-GTX: +6/+7%.


Sind die CB-Tests also nun so wertlos, wie du sie hinstellst?


Q

Komisch, dass dann bei CB, die X1900XTX kaum langsamer ist. Das bedeutet im Umkehrschluss nämlich (ausgehend davon, dass deine Messungen korrekt sind), dass HSR bei F2B auf dem R600 nicht so gut funzt wie beim R580...

CB Settings (1600x1200, textured, high Detail) @ X1900XTX:

F2B: 180.3fps
unsortetd: 120.3fps

Gast
2007-07-05, 15:46:04
Komisch, dass dann bei CB, die X1900XTX kaum langsamer ist. Das bedeutet im Umkehrschluss nämlich (ausgehend davon, dass deine Messungen korrekt sind), dass HSR bei F2B auf dem R600 nicht so gut funzt wie beim R580...

CB Settings (1600x1200, textured, high Detail) @ X1900XTX:

F2B: 180.3fps
unsortetd: 120.3fps
Nein, das bedeutet es nur möglicherweise. Es kann auch bedeuten, dass das HSR des R600 nicht mehr so empflindlich ist und den HierZ in zusätzlichen Fällen nutzen kann - unsorted zum Beispiel.


Q

Mr. Lolman
2007-07-05, 16:32:05
Nein, das bedeutet es nur möglicherweise. Es kann auch bedeuten, dass das HSR des R600 nicht mehr so empflindlich ist und den HierZ in zusätzlichen Fällen nutzen kann - unsorted zum Beispiel.


Q

Eben nicht. Wenn der Unterschied zw F2B und unsorted in 1600x1200 mit dem R600 6% beträgt und unsorted lt CB auf R580 und R600 ähnlich flott ist, heisst das, dass ausgehend von ~50% Mehrleistung (120 vs 180 fps) ein R580 mit F2B deutlich flotter sein muss, als ein R600.

Oder irgendwo in den Benchmarks ist noch ein Hund drinnen. Meine stimmen jedenfalls...

Gast
2007-07-05, 16:50:03
Eben nicht. Wenn der Unterschied zw F2B und unsorted in 1600x1200 mit dem R600 6% beträgt und unsorted lt CB auf R580 und R600 ähnlich flott ist, heisst das, dass ausgehend von ~50% Mehrleistung (120 vs 180 fps) ein R580 mit F2B deutlich flotter sein muss, als ein R600.

Stimmt. Aber im praxisnäheren unsorted liegt der R600 auf jeden Fall besser.


Q

Mr. Lolman
2007-07-05, 17:03:01
Stimmt. Aber im praxisnäheren unsorted liegt der R600 auf jeden Fall besser.


Q

unsorted ist nicht praxisnäher. Entweder macht man in ner Engine F2B oder B2F. Rendert man einzelne Layer unsorted verschwendet man damit Leistung. Und ein theoretischer Benchmark soll wohl auch die theoretisch mögliche Leistung messen. Ich sags nochmal: Bei theoretischen AA-Tests verwendet man auch keine dunklen Ingameszenen. Theoretische Tests sollen immer Extremsituationen beleuchten und keine Praxisnähe simulieren.

Das hat man schon hinreichend mit den 3dmarks versucht und selbst da gelangs nur sehr eingeschränkt. Warum sollte man also gerade mit nem Benchmark Praxisnähe testen wollen, der schonmal garnicht den Anspruch erhebt praxisnah zu sein?

Ist irgendwie so wie nen AF-Tester zu nehmen, und den Tunnel 4-eckig zu machen, ne graue Betontextur zu laden und die Colormipmaps auszuschalten*


*wobei letzteres tw. sogar einen Sinn machen würde. Spätestens seit ATis AI ;) BTW: Hast du noch Demis Anti-Cheat AF-Tester? Er hat ihn nicht mehr und ich bräucht ihn für nen Artikel.

Gast
2007-07-05, 17:22:04
unsorted ist nicht praxisnäher. Entweder macht man in ner Engine F2B oder B2F.

eine engine kann garnicht strikt F2B rendern, wenn sie das könnte müsste die komplette geometrie sortiert sein und dann könnte sie auch gleich nur die sichtbaren polygone an die graka schicken und wir bräuchten in der GPU garkein HSR mehr.

F2B und B2F sind 2 extreme die sicher beider verdammt praxisfern sind. wie nah der unsorted-test an die praxis kommt ist natürlich auch fraglich, aber sicher näher als die beiden extreme.

Mr. Lolman
2007-07-05, 17:27:34
eine engine kann garnicht strikt F2B rendern, wenn sie das könnte müsste die komplette geometrie sortiert sein und dann könnte sie auch gleich nur die sichtbaren polygone an die graka schicken und wir bräuchten in der GPU garkein HSR mehr.

F2B und B2F sind 2 extreme die sicher beider verdammt praxisfern sind. wie nah der unsorted-test an die praxis kommt ist natürlich auch fraglich, aber sicher näher als die beiden extreme.

Wer redet denn von strikt? Bspw. ne Landschaft: zuerst rendert man zB den alphablendet Graslayer B2F, dann die Landschaftpolys F2B, dann sonstige Meshes F2B.

EDIT: Natürlich kann man die Reihenfolge auch tauschen, bzw ists je nach LOD-System der Engine auch sinnvoll das zu tun, aber trotzdem wird man einzelne Layer nicht unsorted rendern, solang F2B möglich ist...

EDIT2: Das was du beschreibst ist Software HSR. Tw. machen das die Engines ohnehin automatisch und tw haben sich manche GraKaspezialisten auch schon daran versucht ;)..

Gast
2007-07-05, 17:51:54
Wer redet denn von strikt? Bspw. ne Landschaft: zuerst rendert man zB den alphablendet Graslayer B2F, dann die Landschaftpolys F2B, dann sonstige Meshes F2B.

und woher weiß die engine welche der landschaftspolys vorne sind? das kann sich nämlich je nach position ändern.

Mr. Lolman
2007-07-05, 18:11:01
und woher weiß die engine welche der landschaftspolys vorne sind? das kann sich nämlich je nach position ändern.

Das ist Aufgabe des LOD Systems.

Sascha1971
2007-07-05, 18:25:15
SLI funktioniert unter Vista noch nicht ordentlich, unter XP würde das ganz anders aussehen.
Was anscheinend ja nicht an NV bzw ATI liegt.
http://www.winfuture.de/news,32779.html

Gast
2007-07-05, 20:13:29
Das ist Aufgabe des LOD Systems.


wenn das so aufwändig wäre, würde es unmengen an cpu-leistung verschlingen.

in realen anwendungen ist die geometrie nicht wirklich sortiert.

Mr. Lolman
2007-07-05, 20:32:06
wenn das so aufwändig wäre, würde es unmengen an cpu-leistung verschlingen.

in realen anwendungen ist die geometrie nicht wirklich sortiert.

Die Vertex Koordinaten werden auf den Screenspace transformiert und bekommen dementsprechende Z-Werte. Die Szenendetails werden nacheinander gerendert (sieht man zB auch gut bei der NFS-Carbon Demo, wenn man mit fraps den Start eines Driftrennen mitschneidet. Da gibts nen Lag von einem Frame, bis alle Details sichtbar sind) und bloß innerhalb der einzelnen Layer wird HW-seitig gecullt. Und bei denen achtet man eben sehr wohl darauf, dass sie F2B gerendert werden - was ja dank der Z-Werte im Normalfall auch kein Problem ist...

Gast
2007-07-05, 20:50:42
Frage: Wenn unsorted und F2B wirklich so dicht zusammenliegen von der Leistung her (wie oben beschrieben) - warum sollten die Software-Menschen dann noch Zeit dareinstecken, dass groß zu optimieren?

Mr. Lolman
2007-07-05, 20:59:49
Frage: Wenn unsorted und F2B wirklich so dicht zusammenliegen von der Leistung her (wie oben beschrieben) - warum sollten die Software-Menschen dann noch Zeit dareinstecken, dass groß zu optimieren?

Weils bis jetzt nicht immer so nah beinander lag und ich mir auch nicht ganz vorstellen kann, dass das jetzt plötzlich der Fall ist (weil das ja bedeuten würde, dass der R600 bei F2B deutlich langsamer ist, als ein R580)

Außerdem braucht man da nix groß optimieren. Das ist nur die Reihenfolge in der die Polys abgearbeitet werden. Dank bekannter Z-Werte ist die auch kein Problem. Der größte Aufwand liegt ja immernoch im Rendering selbst und den gilt es zu minimieren. (eben mit der Renderreihenfolge und Cullingmechanismen)

Gast
2007-07-05, 21:05:02
Weils bis jetzt nicht immer so nah beinander lag und ich mir auch nicht ganz vorstellen kann, dass das jetzt plötzlich der Fall ist (weil das ja bedeuten würde, dass der R600 bei F2B deutlich langsamer ist, als ein R580)

Außerdem braucht man da nix groß optimieren. Das ist nur die Reihenfolge in der die Polys abgearbeitet werden. Dank bekannter Z-Werte ist die auch kein Problem. Der größte Aufwand liegt ja immernoch im Rendering selbst und den gilt es zu minimieren. (eben mit der Renderreihenfolge und Cullingmechanismen)
Bei Nvidia ist das schon länger der Fall. Vielleicht ist das einfach der Preis, den man für robusteres HierZ zahlen muss?

Mr. Lolman
2007-07-05, 21:11:41
Bei Nvidia ist das schon länger der Fall. Vielleicht ist das einfach der Preis, den man für robusteres HierZ zahlen muss?

Wär imo unsinnig. Robuster wirkt das nämlich ganz und garnicht...

Gast
2007-07-05, 21:28:19
was ja dank der Z-Werte im Normalfall auch kein Problem ist...

die Z-werte werden aber erst berechnet wenn ein polygon schon beim rendering ist, vorher weiß man den noch nicht.

klarerweiße versucht man immer so gut wie möglich F2B rendern, dabei aber den aufwand für die sortierung klein zu halten, wodurch in der realität eben kein perfektes F2B-rendering stattfindet, sondern mal so, mal so, genau das was unsorted zu simulieren versucht.

Gast
2007-07-05, 22:05:15
Wär imo unsinnig. Robuster wirkt das nämlich ganz und garnicht...
Ist es aber. R5xx kann es nur in eine Richtung, R6xx in beide (Hab jetzt grad vergessen ob's fail oder pass ist).

Gast
2007-07-05, 22:50:09
Ist es aber. R5xx kann es nur in eine Richtung, R6xx in beide (Hab jetzt grad vergessen ob's fail oder pass ist).

kann er nicht, ist bei einem IMR auch nicht möglich (höchstens mit Z-first-pass oder ähnlichem)

Gast
2007-07-06, 11:42:13
kann er nicht, ist bei einem IMR auch nicht möglich (höchstens mit Z-first-pass oder ähnlichem)
Klar ist das möglich. Besonders interessant, wenn mitten im Frame ein Wechsel nötig wird. Das mag der R5xx gar nicht.

Gast
2007-07-06, 11:42:40
Klar ist das möglich. Besonders interessant, wenn mitten im Frame ein Wechsel nötig wird. Das mag der R5xx gar nicht.

Ich meine natürlich vergleich von kleiner bzw. größer als im Hier-Z hinterlegter Wert.

Xmas
2007-07-06, 14:52:38
Wer redet denn von strikt? Bspw. ne Landschaft: zuerst rendert man zB den alphablendet Graslayer B2F, dann die Landschaftpolys F2B, dann sonstige Meshes F2B.
Graslayer und alle anderen Objekte mit Blending werden natürlich zuletzt gerendert, sonst würde man ja mit Farbwerten im Framebuffer blenden die am Ende gar nicht sichtbar sind.

Üblich wäre:
Das Terrain/statische Geometrie wird vielleicht F2B-sortiert (bei Grid-Terrain grob in eine von vier Richtungen) gerendert.
Andere Objekte werden erst nach Renderstates sortiert, Objekte mit gleichen Renderstates dann manchmal F2B-sortiert (häufig bringt es hier wenig, ist aber auch nicht aufwändig).
Objekte mit Blending werden, falls nötig (und das ist nicht immer der Fall), B2F-sortiert und ohne Z-Writes gerendert, womit die Renderreihenfolge für die GPU sowieso keine Rolle spielt.


Die Vertex Koordinaten werden auf den Screenspace transformiert und bekommen dementsprechende Z-Werte. Die Szenendetails werden nacheinander gerendert (sieht man zB auch gut bei der NFS-Carbon Demo, wenn man mit fraps den Start eines Driftrennen mitschneidet. Da gibts nen Lag von einem Frame, bis alle Details sichtbar sind) und bloß innerhalb der einzelnen Layer wird HW-seitig gecullt. Und bei denen achtet man eben sehr wohl darauf, dass sie F2B gerendert werden - was ja dank der Z-Werte im Normalfall auch kein Problem ist...
Vertextransformationen macht der Vertexshader, danach kannst du nichts mehr sortieren. Wenn Objekte sortiert werden, dann nach dem Abstand des Objektmittelpunkts vom Betrachter. Deiner Erklärung zu NFS Carbon kann ich nicht folgen. Welche Layer?

Mr. Lolman
2007-07-06, 15:40:00
Graslayer und alle anderen Objekte mit Blending werden natürlich zuletzt gerendert, sonst würde man ja mit Farbwerten im Framebuffer blenden die am Ende gar nicht sichtbar sind.

Sowieso :hammer:

Deiner Erklärung zu NFS Carbon kann ich nicht folgen. Welche Layer?

Mit Layer meinte ich Objektgruppen. (das was du mit "Andere Objekte" beschrieben hast - denn zumindest bei NFS:C, werden ascheinend gewisse statische Objekte nicht direkt mit dem Terrain gerendert)

Xmas
2007-07-07, 13:47:45
Die Hardware unterscheidet nicht zwischen "Layern".

Mr. Lolman
2007-07-07, 13:59:07
Die Hardware unterscheidet nicht zwischen "Layern".

Aber anscheinend so manche Software. Wenn man erst das Terrain rendert und danach erst andere Meshes, kann man zwar die Terrainpolygone und auch die anderen Meshes jew. untereinander sortieren, aber aufgunddessen dass nicht alles gleichzeitig berechnet wird, kann man weder ne zusätzliche generelle Sortierung vornehmen, noch genausowenig behaupten, dass insgesamt alles unsorted ist...

Gast
2007-07-19, 20:26:31
Wenn man erst das Terrain rendert und danach erst andere Meshes, kann man zwar die Terrainpolygone und auch die anderen Meshes jew. untereinander sortieren,


was eigentlich eher blöd ist, in der regel sollten "normale" objekte ja vor dem terrain sein, und dieses damit teilweise überdecken, was umgekehrt eher unwahrscheinlich ist. dementsprechend sollte man eigentlich, falls möglich, das terrain erst zum schluss rendern, und danach nur mehr die skybox.

Gast
2007-07-19, 20:29:02
Klar ist das möglich.

nein, ist es nicht, early-z kann nur dann ein polygon verwerfen, wenn an dieser stelle bereits ein anderes polygon, näher am betrachter, gerendert wurde. wenn B2F gerendert wird, kann early-Z niemals ein polygon verwerfen, da ein IMR ja nicht weiß ob an dieser stelle später noch ein polygon mit niedrigerem Z-wert gerendert wird oder nicht.