PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : (P)Reviews zu R520 (X1800)


Seiten : 1 2 3 4 5 6 7 8 9 [10]

Grestorn
2005-11-05, 19:09:34
Ich habe mich verschrieben...5.9, also mehr als 2 Jahre nach dem Erscheinen von KotoR1, und ein knappes Jahr nach dem Erscheinen von KotoR2 wurde das Problem gefixt.

Ne, ich unterstelle vielmehr sehr vielen Usern, "ihr Produkt" verteidigen zu wollen.Das ist, zumindest was mich angeht, quatsch.

nV hat und hatte Bugs im Treiber. Das mit dem Flimmern (das mich nicht sooo sehr gestört hat, aber das ist persönliche Einschätzung) und das mit den nicht funktionierenden Profilen (was mich massiv gestört hat) sind da nur Beispiele. Aber Bugs gibt es überall. Wie das Beispiel oben zeigt, und auch das CCC hatte in vielen Versionen heftigste Probleme.

Sicher, das ganze Game ist eine Techdemo... Das Game sicher nicht. Die HDR Funktion in dem Game aber sicher schon.

Für mich hat sowas zu funktionieren, Punkt. Wäre schon nicht verkehrt. Tut es auch, wenn man das Profil korrigiert (nV hat da ein Problem mit der Multi-CPU Unterstützung, an der sie experimentieren, und die in einigen speziellen Fällen wohl Probleme macht. Das hat was mit Testen zu tun, offenbar hat keiner FarCry in HDR auf einem Single-CPU System getestet und so ist der Fehler nicht aufgefallen. Schaltet man die Multi-CPU Unterstützung im Profil für FC aus, verschwindet das Problem. Schlampiger Test? Vielleicht. Hindert am Spielen, so wie der KotoR Bug? Kaum.

ich meine noch exotischere Sachen.BG1942 und CS, stimmts?

Erwähnte ich schon das Wort A********? Das sind gemachte Erfahrungen, während du nur dumm rumlabern kannst. Du solltest mal an deinen Diskussionstil arbeiten.Du sprichst von Diskussionsstil und nennst mich ein Arschloch? Gratuliere, Du gibst ein Klasse Beispiel!

Ich habe niemals behauptet, das Ati die Lösung aller Probleme wäre. Allerdings bietet Ati seit längerer Zeit die unter Windows klar besseren Treiber, noch dazu eine bessere Bildqualität (Temp-AA, AAA und "verbessertes" tri-aF - das ganze zum Teil auf alten Karten) lassen grüßen. Und das zu konkurrenzfähigen Preisen. Da fällt mir die Entscheidung doch leicht.Dann ist es doch gut für Dich, dass Deine Entscheidung für Dich so leicht ist. Warum musst Du dann im Forum einen auf Missionar machen und den zufriedenen nV Kunden ihre HW madig machen und sie zusätzlich auch noch für anspruchslos und blind erklären?

aths
2005-11-05, 19:09:46
Ich habe niemals behauptet, das Ati die Lösung aller Probleme wäre. Allerdings bietet Ati seit längerer Zeit die unter Windows klar besseren Treiber, noch dazu eine bessere Bildqualität (Temp-AA, AAA und "verbessertes" tri-aF - das ganze zum Teil auf alten Karten) lassen grüßen. Und das zu konkurrenzfähigen Preisen. Da fällt mir die Entscheidung doch leicht.

Sicher werde ich auch bei Ati wieder Fehler finden und 'nen Bash-Thread eröffnen, allerdings gestaltet sich dies mehr zur Suche der Nadel im Heuhaufen.Wenns um Arbeiten geht, finde ich die NV-Treiber deutlich besser als die ATI-Treiber, da sie viel mehr 2D-Optionen haben. Das CCC soll da etwas mehr bieten als das CP, aber ein so großes Treiberpaket halte ich für eine Zumutung. Temporales AA als BQ-Steigerung zu bezeichnen halte ich für problematisch.

aths
2005-11-05, 19:11:00
Wenn er schon dermaßen überheblich, arrogant, hochnäsig und beleidigend daherkommt... Sowas lasse ich mir nicht gefallen, und schlage verbal zurück.Auge um Auge, Zahn um Zahn? Und dann, wenn der andere ebenso zurückschlägt, wo soll das enden?

Außerdem habe ich ja kein konkretes Wort genannt, sondern lediglich eine Andeutung offengelassen. Sicher ist sowas daneben, aber ich lasse mich hier nicht als Trottel hinstellen.Wer Würde hat, lässt (oft nur scheinbare) Beleidigungen an sich abprallen. Wer Angst hat, dass er von den anderen als Trottel gesehen wird, sollte an seinem Selbstvertrauen arbeiten. (Auch im 3dcf habe ich schon Leute gesehen, die großtuerisch und mit scheinbarem Selbstvertrauen daherkommen um zu verbergen, dass sie sich selbst eigentlich für Trottel halten.) Wer rot sieht, wenn er als Trottel hingestellt wird wobei klar ist, dass die Mitleser einen nicht als Trottel sehen, sondern denjenigen der einen als Trottel hinstellen wollte, nun, der ist auch ein Trottel :)

Untrottelig ists im jedem Fall, die Ruhe zu bewahren.

Dunkeltier
2005-11-05, 19:13:01
Also mit dem 78.03 wurde das HQ wieder auf NV40-Niveau gehoben, und 90% aller Texturen die da flimmern, flimmern auch auf ner R420.

Nein.



http://hardwareluxx.de/story.php?id=3070 - kein Zeichen von wegen ständig abbauen...

Ich meinte nicht die Marktanteile die mich einen Dreck interessieren, sondern von den Treibern her.



Also das mit den Treibern kann ich nich bestätigen, hatte da noch nie (bis auf einmal) bei NV Probs, während ein Kumpel mit seiner 9800Pro von Treiberbugs verfolgt wird - ganz zu schweigen davon das meine 9800Pro mir nach 3 Tagen abgeraucht ist :mad:

Und das Ati (R520 ausgenommen) seit dem R300 bis zum R420 nur den selben Chip aufgewärmt hat, würde ich nicht als technische Meisterleistung feiern - find ich Imo enttäuschend.

Greetz

Weil Ati in dieser Zeit so einen extremen Vorspung hatte? Der Geforce 4 Ti sah gegen die Radeon 9700 kein Land, die Geforce FX war eine "Fehlentwicklung" (mehr oder weniger nicht für SM2.0 Games zu gebrauchen) und sah ebenfalls kein Land gegen die Radeon 9800, der Geforce 6800 GT und Ultra fehlt einiges an Rohleistung gegenüber einer Radeon X850 XT PE, etc. Natürlich hat Ati sich verdammt lange auf Erfolge vergangener Tage ausgeruht und hat hier und da einige Defizite, allerdings ist das Gesamtpaket einfach ausgewogener.

MikBach
2005-11-05, 19:14:08
ATI hat mit AAA einen guten Wurf getan. Hätten sie das auch gemacht, wenn nV vorher nicht TAA angeboten hätte?
Gute Frage, das habe ich mich auch gefragt.
Auf der einen Seite sollte ATI ihre Hardware kennen und eben auszureizen wissen, auf der anderen Seite wollte man mit der neuen Generation auch neue Features bringen.

Falls ATI es schon viel früher gewußt hat, dann kann man ihnen Dummheit unterstellen, da man mit dem R420 shadertechnisch unterlegen war. Eine bessere BQ durch AAA hätte bestimmt viele Käufer gebracht. Es schauen ja nicht alle auf 3Dmurks und liessen sich auch nicht von Shader3 blenden.

Auch andersrum geht das: Die nächste Generation von nV wird wohl ziemlich sicher wieder winkelunabh. AF bieten.
Welche GPU meinst du?

Die perfekte Karte gibt es momentan nicht.
Die wird es wahrscheinlich auch nie geben.

Das WU-AF und FP16-HDR inkl. AA wiegen aber viel schwerer auf als das fehlende FP-Filtering, welches man ja auch noch über andere Recheneinheiten emulieren kann.

Grestorn
2005-11-05, 19:14:08
Wenn er schon dermaßen überheblich, arrogant, hochnäsig und beleidigend daherkommt... Sowas lasse ich mir nicht gefallen, und schlage verbal zurück. Außerdem habe ich ja kein konkretes Wort genannt, sondern lediglich eine Andeutung offengelassen. Sicher ist sowas daneben, aber ich lasse mich hier nicht als Trottel hinstellen.Ich habe Dich nicht beleidigt. Ich habe Deine Beiträge als arrogant bezeichnet. Der Grund dafür ist, dass Du Deine Meinung als Tatsache hinstellst, und Deine Beiträge den Eindruck erwecken, dass alle, die Deine Meinung nicht teilen, dir das Wasser nicht reichen können.

Schlicht und einfach eben genau das, was man im Allgemeinen als arrogant bezeichnet.

Ich habe Dich nie als Trottel bezeichnet, noch direkt beleidigt.

Dass ich als überheblich und arrogant rüberkomme kann schon sein. Das ist sicher im Auge des Betrachters. Aber ich halte mich wenigstens nicht für unfehlbar und meine Meinung über jeden Zweifel erhaben.

Dunkeltier
2005-11-05, 19:16:11
Ich habe Dich nicht beleidigt. Ich habe Deine Beiträge als arrogant bezeichnet. Der Grund dafür ist, dass Du Deine Meinung als Tatsache hinstellst, und Deine Beiträge den Eindruck erwecken, dass alle, die Deine Meinung nicht teilen, dir das Wasser nicht reichen können.

Schlicht und einfach eben genau das, was man im Allgemeinen als arrogant bezeichnet.

Ich habe Dich nie als Trottel bezeichnet, noch direkt beleidigt.

Das ich als überheblich und arrogant rüberkomme kann schon sein. Das ist sicher im Auge des Betrachters. Aber ich halte mich wenigstens nicht für unfehlbar und meine Meinung über jeden Zweifel erhaben.


Anscheinend aber doch, ansonsten würdest du mich nicht so hinunter titulieren.

Grestorn
2005-11-05, 19:16:32
Welche GPU meinst du?Wie auch immer die nächste Generation heißt. Im Momentan denkt man wohl an G80. Ich glaube nicht, dass der G70 per SW auf wu AF umgestellt werden kann (würde mich natürlich freuen!).

Coda
2005-11-05, 19:18:05
Das WU-AF und FP16-HDR inkl. AA wiegen aber viel schwerer auf als das fehlende FP-Filtering, welches man ja auch noch über andere Recheneinheiten emulieren kann.Nur in manchen Fällen. Reines Bilerp ist für Texturen normal nicht mehr befriedigend.

Deshalb speicher Valve in Lost Coast die FP-Texturen auf ATi auch als Integer 4.12 fixedpoint und nicht als FP16 (was hier ausreichend ist, aber FP16 ist deutlich besser).

Grestorn
2005-11-05, 19:19:28
Anscheinend aber doch, ansonsten würdest du mich nicht so hinunter titulieren.
Dann solltest Du mal daran arbeiten, wie Du Deine Meinung hier im Forum plazierst. Du weißt doch: Wie man in den Wald hineinruft...

Auf der einen Seite bist Du recht gut im Austeilen, aber am Einstecken solltest Du noch arbeiten.

Es gibt nichts gegen Deine Meinung zu sagen. Aber wenn Du schon eine so extreme und kompromisslose Meinung hast, dann ist es um so wichtiger sie nicht als absolut richtig hinzustellen und damit allen, die sie nicht teilen, den Eindruck zu vermitteln, sie wären beschränkt. Auch das kann nämlich als eine Art Beleidigung empfunden werden.

MikBach
2005-11-05, 19:23:49
Wie auch immer die nächste Generation heißt. Im Momentan denkt man wohl an G80.
OK, alles klar. Ich dachte du denkst an den Refresh im Frühjahr nächsten Jahres. Wie hieß er doch gleich? G72?

Ich glaube nicht, dass der G70 per SW auf wu AF umgestellt werden kann (würde mich natürlich freuen!).
Das glaube ich auch nicht und wenn würde die Performance sicherlich schwer leiden.

Coda
2005-11-05, 19:24:49
Die Performance würde genauso "schwer leiden" wie bei ATi auch.

aths
2005-11-05, 19:24:58
Nur in manchen Fällen. Reines Bilerp ist für Texturen normal nicht mehr befriedigend.Für Lightmaps sollte es oft reichen. In einigen Fällen könnte sich auch 2x AF lohnen. Während man trilineare Filterung (in 16 Takten) auf dem R520 noch hinbekommt, kann man AF natürlich gleich mal ganz vergessen.

eXodia
2005-11-05, 19:25:25
Nein.

Doch

Ich meinte nicht die Marktanteile die mich einen Dreck interessieren, sondern von den Treibern her.

Wenn alles so schlecht wäre wie von dir beschrieben dann wäre das nicht zustande gekommen, also kann da doch was nicht stimmen...

Weil Ati in dieser Zeit so einen extremen Vorspung hatte? Der Geforce 4 Ti sah gegen die Radeon 9700 kein Land, die Geforce FX war eine "Fehlentwicklung" (mehr oder weniger nicht für SM2.0 Games zu gebrauchen) und sah ebenfalls kein Land gegen die Radeon 9800, der Geforce 6800 GT und Ultra fehlt einiges an Rohleistung gegenüber einer Radeon X850 XT PE, etc. Natürlich hat Ati sich verdammt lange auf Erfolge vergangener Tage ausgeruht und hat hier und da einige Defizite, allerdings ist das Gesamtpaket einfach ausgewogener.

Deswegen hat sich die R4xx serie auch schlechter verkauft als die NV4x :|

Einiges an Rohleistung? Also als die R4xx gelauncht wurden war die X800Pro langsamer als ne 6800GT - und das bei schlechterer Technik (SM3, HDR, SS)

Eine X850XT-PE ist etwas schneller als ne 6800U, aber sicher keine Welten, das sie trotzdem kein SM3, HDR, SS kann macht sie deswegen aber nicht atraktiver - vom besseren Gesamtpaket zu sprechen, ist dann imo völlig falsch, da der NV4x eine gute mischung aus Leistung und Technik hatte.

P.S. Überdenke bitte deinen Disskusionsstil, statt "Marktanteile die dich einen Dreck interessieren..." könnte man andere Worte benutzen die die Diskussion nicht künstlich anheizen, denk bitte mal drüber nach

Greetz

Grestorn
2005-11-05, 19:26:28
OK, alles klar. Ich dachte du denkst an den Refresh im Frühjahr nächsten Jahres. Wie hieß er doch gleich? G72?Ausschließen kann man es nicht, kommt darauf an, wie groß der Aufwand ist und ob sich das in einem Refresh machen lässt.

In der nächsten Generation ist es technisch sicherlich kein Problem, und deswegen bin ich mir ziemlich sicher, dass es kommen wird.

aths
2005-11-05, 19:27:15
Die Performance würde genauso "schwer leiden" wie bei ATi auch.Ja, auf jeden Fall weniger als man an Qualitätsgewinn bekommt.

Außerdem ist "Performance" mehr als Frames pro Sekunde. Die echte Performance (Bildqualität und Geschwindigkeit pro Sekunde) verbessert sich durch gutes AF ja.

Coda
2005-11-05, 19:27:20
Für Lightmaps sollte es oft reichen. In einigen Fällen könnte sich auch 2x AF lohnen. Während man trilineare Filterung (in 16 Takten) auf dem R520 noch hinbekommt, kann man AF natürlich gleich mal ganz vergessen.Vor allem opfert man bei ATi wenn man die Filterung im Pixelshader macht auch die Nebenläufigkeit der TMUs wenn ich das richtig sehe.

aths
2005-11-05, 19:28:23
Vor allem opfert man bei ATi wenn man die Filterung im Pixelshader macht auch die Nebenläufigkeit der TMUs wenn ich das richtig sehe.Das ist Wurscht, glaube ich: Man ist dann ohnehin füllratenlimitiert. "Gethreadet" wird, soweit es geht. Nehmen wir an, dass die Zahl der Threads ausreichend dimensioniert ist, limitiert dann nur noch die Füllrate. Die limitiert beim "PS-Filtering" ohnehin.

MikBach
2005-11-05, 19:30:51
Nur in manchen Fällen. Reines Bilerp ist für Texturen normal nicht mehr befriedigend.

Deshalb speicher Valve in Lost Coast die FP-Texturen auf ATi auch als Integer 4.12 fixedpoint und nicht als FP16 (was hier ausreichend ist, aber FP16 ist deutlich besser).
Aber es geht.
Das ist eben der Punkt.
Das wünsche ich mir auch von anderen Entwicklern. Man sollte halt auf die "Eigenarten" der Hardware eingehen und jene auch ausnutzen.

MikBach
2005-11-05, 19:32:47
Die Performance würde genauso "schwer leiden" wie bei ATi auch.
:confused:
Das glaube ich nicht.
Warum sollte man mehr Transistoren opfern, wenn man es per Software genau so gut/schnell hinbekommen würde?
Imo unlogisch.

Coda
2005-11-05, 19:32:59
Aber es geht.Nein es geht nicht. Selbst Trilinear ist damit sehr teuer und AF unmöglich.

Das glaube ich nicht. Warum sollte es teurer sein auf nV-Hardware alle samples in allen Winkeln zu nehmen?

Man hat anscheinend Transistoren bei der Logik gespart die die Line-Of-Anisotropy rechnet, das hat nichts mit der Leistung zu tun.

aths
2005-11-05, 19:37:03
Nein es geht nicht. Selbst Trilinear ist damit sehr teuer und AF unmöglich.Genau – und "Int16"-Filterung genauso schnell bzw. langsam wie FP16-Filterung auf dem NV40 – wobei man mit Int16 von der Dynamik her sehr eingeschränkt ist. 4,8 db vs. 12 dB. "High" Dynamic Range ist mit FX16 kaum zu machen. Sofern bei FP16 kein Denorm-Support geboten wird, ist auch FP16 für mich noch MDR (FP16 mit Denorm-Support, oder ein FX32-Format wäre dann HDR für mich.)

Warum sollte es teurer sein auf nV-Hardware alle samples in allen Winkeln zu nehmen?

Man hat anscheinend Transistoren bei der Logik gespart die die Line-Of-Anisotropy rechnet, das hat nichts mit der Leistung zu tunMan hat vielleicht auch nur beim anistropen LOD gespart.

MikBach
2005-11-05, 19:40:28
Eine X850XT-PE ist etwas schneller als ne 6800U, aber sicher keine Welten,
Kommt aufs Spiel an...
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/15/#abschnitt_unreal_tournament_2004

Auch bei Earth2160 und FarCry sieht es schlecht für die 6800U aus.

das sie trotzdem kein SM3, HDR, SS kann macht sie deswegen aber nicht atraktiver -
Seit wann kann der R420 kein HDR?
Ist zwar kein FP16-HDR, aber FX16/FP10-HDR.
Wer braucht SS, wenn es TAA/AAA gibt?

MikBach
2005-11-05, 19:43:39
Genau – und "Int16"-Filterung genauso schnell bzw. langsam wie FP16-Filterung auf dem NV40 – wobei man mit Int16 von der Dynamik her sehr eingeschränkt ist. 4,8 db vs. 12 dB. "High" Dynamic Range ist mit FX16 kaum zu machen. Sofern bei FP16 kein Denorm-Support geboten wird, ist auch FP16 für mich noch MDR (FP16 mit Denorm-Support, oder ein FX32-Format wäre dann HDR für mich.)

Für die Profis ist ja erst FP32-HDR "richtiges" HDR.
Aus Gamersicht sehe ich es allerdings klein wenig anders. :)
Schon einfaches FX16-HDR bringt einen enormen BQ-Vorteil gegenüber dem traditionellem Rendering.

Coda
2005-11-05, 19:48:55
Kommt aufs Spiel an...
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/15/#abschnitt_unreal_tournament_2004

Auch bei Earth2160 und FarCry sieht es schlecht für die 6800U aus.HQ gegen AI-On. Darüber kann man wunderbar streiten. ATi erschummelt sich hier imho einen ziemlich großen Füllratenvorteil.

Und nein, da zählt nicht nur das Ergebnis, denn nVIDIA könnte die gleichen billigen Tricks auch benützen. HQ mit Stageoptimierung würde auch fast keinen Unterschied bei der BQ zeigen.

Demirug
2005-11-05, 19:50:12
FX16 hat aber den Nachteil das es skaliert werden muss was wieder Rechenleistung kostet.

Demirug
2005-11-05, 19:51:46
Kommt aufs Spiel an...
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/15/#abschnitt_unreal_tournament_2004

Auch bei Earth2160 und FarCry sieht es schlecht für die 6800U aus.

Seit wann kann der R420 kein HDR?
Ist zwar kein FP16-HDR, aber FX16/FP10-HDR.
Wer braucht SS, wenn es TAA/AAA gibt?

FP10 HDR?

eXodia
2005-11-05, 19:55:26
Kommt aufs Spiel an...
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/15/#abschnitt_unreal_tournament_2004

Auch bei Earth2160 und FarCry sieht es schlecht für die 6800U aus.

Eben, hängt vom Spiel ab:

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/16/#abschnitt_age_of_empires_3

- Im Schnitt ist sie halt schneller, aber eben alles in allem keine Welten -

Seit wann kann der R420 kein HDR?
Ist zwar kein FP16-HDR, aber FX16/FP10-HDR.

Eben, kein Real HDR. Halt nicht so ein HDR wie der NV4x. FP10-HDR?

Wer braucht SS, wenn es TAA/AAA gibt?

Das ist aber auch erst seit ein paar Monaten bekannt, und zu zeiten des launches, gab es das nicht - da war SS wohl ein Argument, ist es auch jetzt, denn wenn man zuviel Leistung übrig hat (TAA/AF) kann man es immer noch in Bildquali stecken.

Greetz

Black-Scorpion
2005-11-05, 20:03:23
HQ gegen AI-On. Darüber kann man wunderbar streiten. ATi erschummelt sich hier imho einen ziemlich großen Füllratenvorteil.

Und nein, da zählt nicht nur das Ergebnis, denn nVIDIA könnte die gleichen billigen Tricks auch benützen. HQ mit Stageoptimierung würde auch fast keinen Unterschied bei der BQ zeigen.
Bist du dir wirklich 100% sicher das nVidia auch bei HQ nicht noch irgendwo optimiert?

Coda
2005-11-05, 20:05:55
Bist du dir wirklich 100% sicher das nVidia auch bei HQ nicht noch irgendwo optimiert?Bei UT2004 machen sie es, aber nur brilinear.

Ich glaube trotzdem nicht, dass ATi bei gleicher Füllrate in UT2004 ohne irgendwelche Tricks soviel schneller sein kann. Da stinkt was zum Himmel.

Natürlich kann ich es nicht beweisen, jeder mag darüber denken was er will. Nur UT2004 halte ich für keinen repräsentativen Benchmark mehr nachdem da einiges an "Optimierungen" reinfließt von beiden Seiten aus.

sklave_gottes
2005-11-05, 20:07:51
Eben, kein Real HDR. Halt nicht so ein HDR wie der NV4x. FP10-HDR?

@eXodia

der NV4x kann auch kein real HDR,also von daher..........
Eher real MDR

- Im Schnitt ist sie halt schneller, aber eben alles in allem keine Welten -

Rating 1280x1024 4xAA/16xAF aus 8 spielen

ATi Radeon X1800 XT 75,0
nVidia GeForce 7800 GTX 74,2
nVidia GeForce 7800 GT 65,1
ATi Radeon X1800 XL 62,6
ATi Radeon X850 XT-PE 60,9
ATi Radeon X850 XT 58,2
ATi Radeon X800 XL 50,3
nVidia GeForce 6800 Ultra 49,6
ATi Radeon X850 Pro 48,3
nVidia GeForce 6800 GT 42,7
ATi Radeon X800 37,1
ATi Radeon X1600 XT 34,1
nVidia GeForce 6800 32,2
ATi Radeon X1300 Pro 22,8

sehr gross ist er nicht aber grösser als es oft dargestellt wird.
Der x850xt pe ist eher an der 7800gt dran als die ultra an ihm

Black-Scorpion
2005-11-05, 20:08:28
Eben, kein Real HDR. Halt nicht so ein HDR wie der NV4x.

Greetz
Laut Demi kann schon der R300 HDR Rendering.
Oder ist jetzt nur noch das HDR Rendering wo nVidia draufsteht.

eXodia
2005-11-05, 20:13:32
Laut Demi kann schon der R300 HDR Rendering.
Oder ist jetzt nur noch das HDR Rendering wo nVidia draufsteht.

Nein, hab ich das je behauptet, jedoch glaube ich zu wissen das das HDR des NV40 FP16-Genauigkeit besitzt und das des R4xx FP10 (glaube so in der Richtung), der Dynamikumfang ist aber geringer, weswegen ich das HDR als mehr HDR als von ATI bezeichnete - lass mich aber auch gerne verbessern.

Greetz

Black-Scorpion
2005-11-05, 20:13:32
Bei UT2004 machen sie es, aber nur brilinear.

Ich glaube trotzdem nicht, dass ATi bei gleicher Füllrate in UT2004 ohne irgendwelche Tricks soviel schneller sein kann. Da stinkt was zum Himmel.

Natürlich kann ich es nicht beweisen, jeder mag darüber denken was er will. Nur UT2004 halte ich für keinen repräsentativen Benchmark mehr nachdem da einiges an "Optimierungen" reinfließt von beiden Seiten aus.
Und wie ist es dann in anderen Games wo nVidia so weit vorne ist?
Stimmt ja, da sind dann die schlechten ATI Treiber drann Schuld.
Für jemand der sich ja für so neutral hält kommen von dir schon reichlich seltsame Komentare.

Coda
2005-11-05, 20:19:36
Und wie ist es dann in anderen Games wo nVidia so weit vorne ist?Wo habe ich das behauptet? Die 6800Ultra hat z.B. deutlich weniger Füllrate als eine X800XT.

Es geht um X850Pro vs. 6800Ultra, wo hier auch die X850Pro schon soviel schneller sein soll. Da stimmt einfach was nicht.

eXodia
2005-11-05, 20:19:41
Rating 1280x1024 4xAA/16xAF aus 8 spielen

Welche 8 wäre noch interessant. Weisst du das?

Greetz

Black-Scorpion
2005-11-05, 20:19:43
Nein, hab ich das je behauptet, jedoch glaube ich zu wissen das das HDR des NV40 FP16-Genauigkeit besitzt und das des R4xx FP10 (glaube so in der Richtung), der Dynamikumfang ist aber geringer, weswegen ich das HDR als mehr HDR als von ATI bezeichnete - lass mich aber auch gerne verbessern.

Greetz
Hier ist der Thread wo es steht.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=213124
Da ist auch der Link zur ATI Demo.

aths
2005-11-05, 20:27:38
Seit wann kann der R420 kein HDR?
Ist zwar kein FP16-HDR, aber FX16/FP10-HDR.
Wer braucht SS, wenn es TAA/AAA gibt?Wo kann der R420 das FP10-Format nutzen? Seit wann ist FP10 schon HDR? Imo sollte man nicht alles, was mehr Dynamik als FX8 bietet, als "HDR" bezeichnen. FP10 ist teilweise sogar schlechter als FX8. FX10, was der R300 (ohne MSAA-Support) als Rendertarget unterstützt, ist grundsätzlich besser als FX8, aber nur um 0,6 dB.

SSAA braucht man, um Pixelshaderflimmern zu unterdrücken.

Black-Scorpion
2005-11-05, 20:28:43
Wo habe ich das behauptet? Die 6800GT hat z.B. deutlich weniger Füllrate als eine X800XT.

Es geht um X800Pro vs. 6800GT, wo hier auch die X800Pro schon schneller sein soll.
Stinkt da auch was zu Himmel wenn die GT auf einmal in einem Spiel so weit vorne ist?
Genau darum ging es mir.
Das sind nämlich immer die selben Kommentare die da kommen.

ATI scheller = Da stinkt was zum Himmel
nVidia schneller = Scheiß ATI Treiber

Das die Grünen dort auch bescheißen könnten wird garnicht erst in betracht gezogen.
Langsam sollte auch der letzte begriffen haben das beide bescheißen wo es nur geht.
Aber hier wird mit zweierlei Maß gemessen.

aths
2005-11-05, 20:28:59
Für die Profis ist ja erst FP32-HDR "richtiges" HDR.
Aus Gamersicht sehe ich es allerdings klein wenig anders. :)
Schon einfaches FX16-HDR bringt einen enormen BQ-Vorteil gegenüber dem traditionellem Rendering.Auch für Profis ist, soweit ich weiß, schon FX32 richtiges HDR. FP16 ohne Denorms hat weniger Dynamik, mit Denorms sogar etwas mehr, damit ist es für mich neuerdings HDR-tauglich. Wer die "Gamersicht" vertritt, sollte imo Konsolenspieler sein.

FX16 bringt ggü. FX8 einsichtigerweise doppelt so viel Dynamik (auf der dB-Skala.) Das ist schon mal was, aber wenn man realistische Lichtbedingungen nachbilden möchte, reicht es nicht. Selbst FP16 mit Denorms hat noch ungefähr zwei dB weniger als das Auge erfassen kann (allerdings ist man mit 12 dB trotzdem schon sehr gut bedient. FX16 hat wie gesagt nicht mal 5 dB.)

aths
2005-11-05, 20:30:47
Laut Demi kann schon der R300 HDR Rendering.
Oder ist jetzt nur noch das HDR Rendering wo nVidia draufsteht.Ja, der R300 kann dynamisches HDR-Rendering*. Fragt sich nur, in welcher Performance.

(Sofern man keine anistrop gefilterten FP-Texturen braucht.)

aths
2005-11-05, 20:37:27
Stinkt da auch was zu Himmel wenn die GT auf einmal in einem Spiel so weit vorne ist?
Genau darum ging es mir.
Das sind nämlich immer die selben Kommentare die da kommen.

ATI scheller = Da stinkt was zum Himmel
nVidia schneller = Scheiß ATI Treiber

Das die Grünen dort auch bescheißen könnten wird garnicht erst in betracht gezogen.
Langsam sollte auch der letzte begriffen haben das beide bescheißen wo es nur geht.
Aber hier wird mit zweierlei Maß gemessen.Das würde ich etwas differenzieren. Ist bei klarer Füllratenlimitierung eine Karte erheblich weiter vorne, und das vor allem in einem Spiel, kann man davon ausgehen dass was nicht stimmt. (Das muss man aber in beide Richtungen denken. Es könnte sein, auch wenns unwahrscheinlich ist, dass der GeForce-Treiber die GPU-Ressourcen für UT ungünstig verteilt.)

Läuft ein Spiel auf einer Karte besser, die mehr Features für das Spiel bietet (Doom 3 und GeForce 6800) würde ich davon ausgehen, dass das schon so stimmt. (Dass NV im Treiber speziell bei Doom 3 nachgeholfen hat, kommt noch obendrauf, wie viel besser die reine Hardware tatsächlich ist, und was eigentlich nur Marketingbehauptungen sind, lässt sich damit leider nicht mehr ermitteln.)

Black-Scorpion
2005-11-05, 20:38:05
Ja, der R300 kann dynamisches HDR-Rendering*. Fragt sich nur, in welcher Performance.

(Sofern man keine anistrop gefilterten FP-Texturen braucht.)
Wir wissen doch das es langsam ist.
Aber darum ging es ja nicht.
Sondern darum.
Eben, kein Real HDR.

aths
2005-11-05, 20:40:24
Wir wissen doch das es langsam ist.
Aber darum ging es ja nicht.
Sondern darum.Richtig gutes HDR-Rendering mit allem drum und dran bietet keine Karte. Dem R520 fehlt das FP-Filtering. Dem G70 fehlt das MSAA auf FP16-Targets.

Implementierungen von HDR-Rendering die ohne FP16-Filterung auskommen können einfach nicht so hochwertige Grafik bieten wie (ansonsten gleichwertig gute) Implementierungen, die FP16-Texturcontent bieten.

Auf der anderen Seite dürfte es wenig Spaß machen, für gutes HDR-Rendering auf Antialiasing zu verzichten. In aller Pracht können wir HDR-Rendering mit der aktuellen Generation nicht erleben. Entwickler dürften jedoch die GeForce (ab NV40) vorziehen, weil sie das wichtige Feature FP16-Texturfilterung bietet.

Black-Scorpion
2005-11-05, 20:51:40
Das würde ich etwas differenzieren. Ist bei klarer Füllratenlimitierung eine Karte erheblich weiter vorne, und das vor allem in einem Spiel, kann man davon ausgehen dass was nicht stimmt. (Das muss man aber in beide Richtungen denken. Es könnte sein, auch wenns unwahrscheinlich ist, dass der GeForce-Treiber die GPU-Ressourcen für UT ungünstig verteilt.)

Läuft ein Spiel auf einer Karte besser, die mehr Features für das Spiel bietet (Doom 3 und GeForce 6800) würde ich davon ausgehen, dass das schon so stimmt. (Dass NV im Treiber speziell bei Doom 3 nachgeholfen hat, kommt noch obendrauf, wie viel besser die reine Hardware tatsächlich ist, und was eigentlich nur Marketingbehauptungen sind, lässt sich damit leider nicht mehr ermitteln.)
Dazu hat doch Demi schonmal was gepostet.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2267933&postcount=157

Nur wird leider nicht in beide Richtungen gedacht weil nicht sein kann was nicht sein darf.
Da braucht es nicht einmal um ATI gegen nVidia zu gehen.
Schau mal im nVidia Forum Threads an wenn sich da einer über die Treiber beschwert was da abgeht und was für Kommentare kommen.

sklave_gottes
2005-11-05, 21:00:48
ist von computerbase.de
ein gemischtes feld darunter auch dom3 und SC3

StefanV
2005-11-05, 21:04:13
Wenns um Arbeiten geht, finde ich die NV-Treiber deutlich besser als die ATI-Treiber, da sie viel mehr 2D-Optionen haben. Das CCC soll da etwas mehr bieten als das CP, aber ein so großes Treiberpaket halte ich für eine Zumutung. Temporales AA als BQ-Steigerung zu bezeichnen halte ich für problematisch.
1. sind die Treiber von nV nicht viel kleiner.
2. schonmal die nForce Treiber geladen?
3. kommts in der heutigen Zeit durchaus mal vor, das ein Treiberpaket 'mal eben' 30MB haben kann, an dieser Stelle möchte ich dochmal an meinen Scaner, den HP Scanjet 2100C erinnern, für den man auch 'nen 28MB Treiber draufpacken muss.

in Zeiten von 1GB Hauptspeicher und Breitbandleitungen sehe ich hier nicht wirklich ein Problem...

PS: und das CCC bietet um einiges mehr als das CP, so kann man u.A. die Deinterlacing Einstellungen ändern, es kommen auch stetig neue Optionen hinzu!
Solltest dir ev. mal selbst das CCC in der neuen Version anschauen, das bietet eher mehr als nV...

Coda
2005-11-05, 21:09:19
Stinkt da auch was zu Himmel wenn die GT auf einmal in einem Spiel so weit vorne ist?Gegen einer X800XT? Ja eigentlich sollte sie immer langsamer sein bei vergleichbarer Bildqualität. Aber etwas schneller als eine X850Pro.

MikBach
2005-11-06, 07:39:00
Wo kann der R420 das FP10-Format nutzen?
Ihr habt ja Recht. :redface:
Der R420 kann kein FP10-HDR.

Seit wann ist FP10 schon HDR? Imo sollte man nicht alles, was mehr Dynamik als FX8 bietet, als "HDR" bezeichnen.
Das sieht aber für den Gamer so aus.

SSAA braucht man, um Pixelshaderflimmern zu unterdrücken.
Bump Mapping?

MikBach
2005-11-06, 07:40:53
Es geht um X850Pro vs. 6800Ultra, wo hier auch die X850Pro schon soviel schneller sein soll. Da stimmt einfach was nicht.
Anscheinend optimiert ATI im unsichtbaren Bereich besser als Nvidia.
Bei NV gibt es böses Flimmern. :P

MikBach
2005-11-06, 07:45:12
Das würde ich etwas differenzieren. Ist bei klarer Füllratenlimitierung eine Karte erheblich weiter vorne, und das vor allem in einem Spiel, kann man davon ausgehen dass was nicht stimmt.
Vielleicht kann der NV40 die Leistung nicht so umsetzen wie gewünscht...
Der NV35 war in der Theorie auch gar nicht mal so schlecht, in der Praxis sah es aber düster aus.

(Das muss man aber in beide Richtungen denken. Es könnte sein, auch wenns unwahrscheinlich ist, dass der GeForce-Treiber die GPU-Ressourcen für UT ungünstig verteilt.)
Das kann stimmen, wobei ich eher eine schlechte Ausnutzung der Pipes vermute.

MikBach
2005-11-06, 07:48:55
Gegen einer X800XT? Ja eigentlich sollte sie immer langsamer sein bei vergleichbarer Bildqualität. Aber etwas schneller als eine X850Pro.
Ich glaube nicht, daß wir genug über die Verbindung Treiber/Architektur wissen, um uns ein Urteil drüber zu bilden...
Es gibt Spiele, da ist selbst eine 6800U einer X800PRO unterlegen, aber auch welche, wo die 6600GT fast so schnell wie eine X800PRO ist.

Winter[Raven]
2005-11-06, 10:37:53
Anscheinend optimiert ATI im unsichtbaren Bereich besser als Nvidia.
Bei NV gibt es böses Flimmern. :P

IM HQ, flimmert seit den letzten Treibern NIX mehr.

Winter[Raven]
2005-11-06, 11:17:14
1. sind die Treiber von nV nicht viel kleiner.
2. schonmal die nForce Treiber geladen?
3. kommts in der heutigen Zeit durchaus mal vor, das ein Treiberpaket 'mal eben' 30MB haben kann, an dieser Stelle möchte ich dochmal an meinen Scaner, den HP Scanjet 2100C erinnern, für den man auch 'nen 28MB Treiber draufpacken muss.

in Zeiten von 1GB Hauptspeicher und Breitbandleitungen sehe ich hier nicht wirklich ein Problem...

PS: und das CCC bietet um einiges mehr als das CP, so kann man u.A. die Deinterlacing Einstellungen ändern, es kommen auch stetig neue Optionen hinzu!
Solltest dir ev. mal selbst das CCC in der neuen Version anschauen, das bietet eher mehr als nV...

Und was ist wenn ich auf einem Notebook arbeite, der nur über 512 MB Ram verfügt?

Ailuros
2005-11-06, 11:32:17
1. sind die Treiber von nV nicht viel kleiner.

Was hat die Groesse eines Treibers mit der Qualitaet zu tun?

2. schonmal die nForce Treiber geladen?

Und was genau haben die nForce Treiber mit 2D/3D zu tun oder der Qualitaet eines GPU-Treibers bzw. der Vielfalt deren Optionen?

3. kommts in der heutigen Zeit durchaus mal vor, das ein Treiberpaket 'mal eben' 30MB haben kann, an dieser Stelle möchte ich dochmal an meinen Scaner, den HP Scanjet 2100C erinnern, für den man auch 'nen 28MB Treiber draufpacken muss.

HP Treiber machen mir persoenlich nur Kopfschmerzen und ueberhaupt bei der Installation.


PS: und das CCC bietet um einiges mehr als das CP, so kann man u.A. die Deinterlacing Einstellungen ändern, es kommen auch stetig neue Optionen hinzu!
Solltest dir ev. mal selbst das CCC in der neuen Version anschauen, das bietet eher mehr als nV...

nView ;)

Ailuros
2005-11-06, 11:40:37
']Und was ist wenn ich auf einem Notebook arbeite, der nur über 512 MB Ram verfügt?

Auf meinem 512MB ram laptop hocken immer noch die 71.89 Treiber (und die hab ich mit ein paar Tricks installiert damals); erstens brauch ich nicht den Treiber oefters wechseln wenn ueberhaupt (weil ich eben mit dem Ding nicht spiele) und zweitens uebertreibt ihr ein bisschen mit dem Systemspeicher. Ich hab auch auf dem laptop Photoshop CS2.0 installiert und es laeuft anstaendig genug fuer die paar Korrigierungen der letzten Minute die ich mal vornehme. Wem die Speichermenge hier wirklich zu wenig ist, kann er ganz leicht einfach nochmal 512MB dazukaufen.

Armaq
2005-11-06, 18:28:09
Also das Treiberpanel von nV zu laden dauert nun wirklich nicht lange.
Auf meinem PC ca. 2 Sekunden. Ich benutze das Kontextmenü der rechten Maustaste, falls das von Interesse ist.


Wirklich witzig finde ich die Vorlieben einzelner Personen bezogen auf ihre Streitpartner.
StefanPayne geht häufig mal bei aths an die Decke bzw. attackiert ihn.
Dunkeltier und Grestorn scheinen sich auch abgöttisch zu lieben.

Da fragt man sich, wird hier diskutiert oder nur auf die eigene Meinung onaniert?

aths
2005-11-06, 18:48:49
Ihr habt ja Recht. :redface:
Der R420 kann kein FP10-HDR.

Das sieht aber für den Gamer so aus.

Bump Mapping?Was sieht für den Gamer so aus? FP10-"H"DR, was die Radeon nicht kann, sieht wie echtes HDR-Rendering aus? Viele Gamer denken, dass einfache Überstrahl-Effekte schon "HDR" seien (sie wissen auch nicht, dass "HDR" für sich alleine genommen wenig sagt, und dass man unter "HDR-Rendering" ein Verfahren versteht, das man unter anderem für Überstrahl-Effekte einsetzen kann – aber auch für viele andere Sachen.)

Specular Bumpmapping kann flimmern. Bei Flimmer-Shadern dachte ich jetzt aber vor allem an HL2 – wobei, soweit ich weiß, MIP-Mapping das HL2-Shaderflimmern hätte unterdrücken können.

aths
2005-11-06, 18:51:05
Vielleicht kann der NV40 die Leistung nicht so umsetzen wie gewünscht...
Der NV35 war in der Theorie auch gar nicht mal so schlecht, in der Praxis sah es aber düster aus.

Das kann stimmen, wobei ich eher eine schlechte Ausnutzung der Pipes vermute.Der NV35 hat eine sehr starke Rechenleistung – aber die Architektur krankt an mangelndem Registerspeicherplatz und an unflexiblen FP-Combinern, die keinen Color:Alpha-Split beherrschen. Das ist auch in der Theorie ziemlich arm.

Bei Spielen auf DX8-Niveau wäre es höchst verwunderlich, wenn die Pipelines schlecht ausgenutzt werden könnten. Anforderungen, die Multitexturing à la DX8 (oder DX7) stellt, sind für heutige Pipes ein Kinderspiel.

Coda
2005-11-06, 18:57:10
Anscheinend optimiert ATI im unsichtbaren Bereich besser als Nvidia.
Bei NV gibt es böses Flimmern. :PDas spielt für mich bei der Betrachtung keine Rolle, da ich bei ATi auch keine optimale verwendbare Bildqualität bekomme, weil die App-Profile an die fragwürdigen Optimierungen gebunden sind. Und bei meinem Kumpel sieht alles andere bei BF1942 auf seiner 9600 auch grauenhaft aus.

Du tust grad immer so als würde ATi selbst mit allen Optimierungen absolut astrein aussehen.

Coda
2005-11-06, 19:00:35
']IM HQ, flimmert seit den letzten Treibern NIX mehr.Da wirst du bei ihm auf Granit stoßen. In seiner Welt flimmert es dir da den Schädel aus dem Kopf, selbst wenn das Bild identisch mit dem Output einer ATi-Karte wäre.

Den Effekt kenne ich nur zu gut. Um zu zeigen dass das 4xRGAA einer ATI besser ist nehmen sie gerade die Kanten die dem gerade andersrum angerordneten ATi-Muster besser entsprechen und klammern dabei aus dass die Kante andersrum auf nVIDIA besser aussehen würde. Man biegt es sich eben zurecht.

Das man bei der Texturfilterung Performance nur durch sparen von Bandbreite und dadurch irgendwelcher Art von Unterfilterung sparen kann ist natürlich irrelevant.

Winter[Raven]
2005-11-06, 19:04:21
Auf meinem 512MB ram laptop hocken immer noch die 71.89 Treiber (und die hab ich mit ein paar Tricks installiert damals); erstens brauch ich nicht den Treiber oefters wechseln wenn ueberhaupt (weil ich eben mit dem Ding nicht spiele) und zweitens uebertreibt ihr ein bisschen mit dem Systemspeicher. Ich hab auch auf dem laptop Photoshop CS2.0 installiert und es laeuft anstaendig genug fuer die paar Korrigierungen der letzten Minute die ich mal vornehme. Wem die Speichermenge hier wirklich zu wenig ist, kann er ganz leicht einfach nochmal 512MB dazukaufen.

Ich habe eine Radion um NB, habe den CCC installiert, natürlich hat ATI seit den ersten Versionen die Perf. und Stabilität gesteigert aber von der etwas längeren Ladezeit und Ramverbrauch bin ich schon etwas entteuscht.

Da wirst du bei ihm auf Granit stoßen. In seiner Welt flimmert es dir da den Schädel aus dem Kopf, selbst wenn das Bild identisch mit dem Output einer ATi-Karte wäre.

Den Effekt kenne ich nur zu gut. Um zu zeigen dass das 4xRGAA einer ATI besser ist nehmen sie gerade die Kanten die dem gerade andersrum angerordneten ATi-Muster besser entsprechen und klammern dabei aus dass die Kante andersrum auf nVIDIA besser aussehen würde. Man biegt es sich eben zurecht.

Das man bei der Texturfilterung Performance nur durch sparen von Bandbreite und dadurch irgendwelcher Art von Unterfilterung sparen kann ist natürlich irrelevant.

Insbesondere mit dem erstem Satz gehts du etwas unter die Gürtellinie, es stimmt natürlich das man es sich so auslegt wie man es am liebsten sehen möchte(Nvidiots als auch FanATIker), trotzdem sollte man sich etwas zügeln. Einfach leben und Leben lassen, einfach ignorieren oder auf die Ignorlist setzen.

Grestorn
2005-11-06, 19:24:35
Dunkeltier und Grestorn scheinen sich auch abgöttisch zu lieben.Ohne jeden Zweifel :)

MikBach
2005-11-06, 19:36:45
Was sieht für den Gamer so aus? FP10-"H"DR, was die Radeon nicht kann, sieht wie echtes HDR-Rendering aus? Viele Gamer denken, dass einfache Überstrahl-Effekte schon "HDR" seien (sie wissen auch nicht, dass "HDR" für sich alleine genommen wenig sagt, und dass man unter "HDR-Rendering" ein Verfahren versteht, das man unter anderem für Überstrahl-Effekte einsetzen kann – aber auch für viele andere Sachen.)
Ist ja schön, daß auch du mitbekommen hast, daß ich mit FP10-HDR falsch lag und es FX16-HDR heißen müßte..

Specular Bumpmapping kann flimmern. Bei Flimmer-Shadern dachte ich jetzt aber vor allem an HL2 – wobei, soweit ich weiß, MIP-Mapping das HL2-Shaderflimmern hätte unterdrücken können.
Das Flimern, was du anspricht, kommt definitiv vom Bump Mapping,

deekey777
2005-11-13, 16:42:48
http://www.diamondmm.com/X1800256PCI.php

Featuring:
• ATI Radeon® X1800
• Memory: 256MB DDR
• Slot: AGP or PCIE
• With: DVI, Dual Monitor & TV-Out
• AGP Version includes VIVO

:confused:

Spasstiger
2005-11-13, 17:11:27
http://www.diamondmm.com/X1800256PCI.php

Featuring:
• ATI Radeon® X1800
• Memory: 256MB DDR
• Slot: AGP or PCIE
• With: DVI, Dual Monitor & TV-Out
• AGP Version includes VIVO

:confused:

Diamond Viper is back?
Ich hab von Diamond seit der RivaTNT nix mehr gehört. ;D
Und AGP? ;D

up¦²
2005-11-13, 17:14:40
Klasse news deekey777 :smile:


SYSTEM REQUIREMENTS

AGP
• 420 Watts or greater power supply with one available Molex power connector (i.e., disk drive connector)
• Intel® Pentium® IVor AMD Athlon®, Athlon(r) 64, Athlon® XP
• System Memory: 512 MB or higher. 512MB recommended
• 90MB available hard disk space
• One available AGP 4x/8x slot
• CD-ROM/DVD-ROM Drive (for software installation)
* DVD-ROM required for DVD Playback.
• Windows® XP Home/Pro, Windows® 2000
• High-resolution MultiSync or multi-frequency monitors or any other type or VGA monitor.
• Digital flat-panel (DFP) displays or digital CRT display.
• Connecting Device for CrossFireT--Only one display while enable Cross-Fire



PCIE
• 420 Watt ATX 2.0 or greater power supply.Consult your computer system manual to ensure the power supply is designed to accommodate a high-end graphics card with a peak dissipation above 75 watts.
• Intel® Pentium® IVor AMD Athlon®, Athlon(r) 64, Athlon® XP
• System Memory: 512 MB or higher. 512MB recommended
• 90MB available hard disk space
• Motherboard with free PCI Express™ slot and correct PCIe chipset driver.
• CD-ROM/DVD-ROM drive (for installation software).
• PCI Express™ compatible system with a specialized 12v graphics card power connector.
* DVD-ROM required for DVD Playback.
• Microsoft Windows® XP (Home or Pro) or Windows® 2000
• High-resolution MultiSync or multi-frequency monitors or any other type or VGA monitor.
• Digital flat-panel (DFP) displays or digital CRT display.
• Connecting Device for CrossFireT--Only one display while enable Cross-Fire

deekey777
2005-11-13, 17:20:22
Diamond Viper is back?
Ich hab von Diamond seit der RivaTNT nix mehr gehört. ;D
Und AGP? ;D

Diamond ist seit mindestens einem Jahr (wenn nich länger) wieder dabei. Zu den ersten Grafikkarten gehörte, wenn ich mich nicht irre, eine Geforce MX4000.

Die Angaben zur X1800 hören sich viel zu gut an, daß sie schon wie reines Wunschdenken klingen.

Interessant ist auch, daß bei der AGP-Version ViVo steht - nur ViVo?

Hakkerstiwwel
2005-11-14, 09:09:05
Wenn da niemand anfers nachzieht bekommt Diamond ein quasi Monopol. Was aber soll das:

SYSTEM REQUIREMENTS

AGP
• 420 Watts or greater power supply with one available Molex power connector (i.e., disk drive connector)
• Intel® Pentium® IVor AMD Athlon®, Athlon(r) 64, Athlon® XP
• System Memory: 512 MB or higher. 512MB recommended
• 90MB available hard disk space
• One available AGP 4x/8x slot
• CD-ROM/DVD-ROM Drive (for software installation)
* DVD-ROM required for DVD Playback.
• Windows® XP Home/Pro, Windows® 2000
• High-resolution MultiSync or multi-frequency monitors or any other type or VGA monitor.
• Digital flat-panel (DFP) displays or digital CRT display.
• Connecting Device for CrossFireT--Only one display while enable Cross-Fire

kalle28
2005-11-14, 16:33:51
Wenn da niemand anfers nachzieht bekommt Diamond ein quasi Monopol. Was aber soll das:


Wird wohl vom Copy & Paste kommen. Ich glaub nicht daß man Crossfire auf AGP Systemen realisieren kann.

deekey777
2005-11-14, 16:36:57
Wird wohl vom Copy & Paste kommen. Ich glaub nicht daß man Crosfire auf AGP Systemen realisieren kann.

Doch, zumindest theoretisch. Die meisten Modi laufen ja extern über das CrossFire-Kabel und nicht intern.

reunion
2005-11-14, 23:21:20
Club 3D Radeon X1800 XT, 256MB GDDR3, 2x DVI, ViVo für 460.99EUR sofort lieferbar:

http://www.eurodatec.de/product_info.php?products_id=974

reunion
2005-11-15, 10:59:44
PowerVRs "PS3 Voxel demo": (macht angeblich exzessiven Gebrauch von dynamsichen Branches)

http://www.gpumania.com/varticulo.php?indicea=21&pag=5

Hier schlägt man die Konkurrenz um den Faktor 5-9!
IMHO werden erst in zukünftigen Spielen die Stärken von R520 zum Vorschein kommen. Alle heutigen SM3-Spiele wurden ja ausschließlich auf nV-Hardware optimiert, und da wurde vermutlich krampfhaft auf dynamisches Branching verzichtet.

aths
2005-11-15, 11:34:49
PowerVRs "PS3 Voxel demo": (macht angeblich exzessiven Gebrauch von dynamsichen Branches)

http://www.gpumania.com/varticulo.php?indicea=21&pag=5

Hier schlägt man die Konkurrenz um den Faktor 5-9!
IMHO werden erst in zukünftigen Spielen die Stärken von R520 zum Vorschein kommen. Alle heutigen SM3-Spiele wurden ja ausschließlich auf nV-Hardware optimiert, und da wurde vermutlich krampfhaft auf dynamisches Branching verzichtet.Allgemein wurde bisher großflächig auf SM3 verzichtet, wenn es darum ging, neue Effekte einzubauen. Die Entwickler werden sich hüten, sofort massiv auf dynamic Branching im Pixelshader zu setzen, weil die GeForce das nicht so gut kann. Dynamic Branching im Vertexshader kann wiederum die Radeon nicht so toll – es ist ein Kreuz.

Die Radeon könnte aber bei einigen Benchmarks von Shader-Replacement profitieren.

deekey777
2005-11-21, 16:48:38
X1800XL AIW (P)Reviews:
Bjorn3D (http://www.bjorn3d.com/read.php?cID=856)
HotHardware (http://www.hothardware.com/viewarticle.aspx?articleid=742&cid=2)
Motherboards.Org (http://www.motherboards.org/reviews/hardware/1562_1.html)
Noticia Over Adiction (http://www.overadiction.cl/index.php?showtopic=1623)
Viper Lair (http://www.viperlair.com/reviews/video/ati/r5xx/aiw1800xl/)

StefanV
2005-11-21, 16:53:09
X1800XL AIW (P)Reviews:
Bjorn3D (http://www.bjorn3d.com/read.php?cID=856)
HotHardware (http://www.hothardware.com/viewarticle.aspx?articleid=742&cid=2)
Motherboards.Org (http://www.motherboards.org/reviews/hardware/1562_1.html)
Noticia Over Adiction (http://www.overadiction.cl/index.php?showtopic=1623)
Viper Lair (http://www.viperlair.com/reviews/video/ati/r5xx/aiw1800xl/)
wird mit Widmung hinzugefügt :-)

Coda
2005-11-21, 16:53:48
Die Entwickler werden sich hüten, sofort massiv auf dynamic Branching im Pixelshader zu setzen, weil die GeForce das nicht so gut kann. Dynamic Branching im Vertexshader kann wiederum die Radeon nicht so toll – es ist ein Kreuz.Der nVIDIA-Treiber ist sehr gut dabei das Zeug auszurollen ;)

Wenn der Programmspeicher groß genug ist (lese: VRAM ala nVIDIA) könnte man wahrscheinlich ganz ohne HW-Branching und nur mit Predication auskommen. Die Performance wäre halt nicht gut.

aths
2005-11-22, 12:46:03
Ausrollen sollte er nur kleinere Sachen. Die Branching-Granularität ist auch nicht sooo schlecht: Soweit ich weiß 64x16 Pixel.

up¦²
2005-11-22, 18:54:05
xbitlabs:
ATI All-In-Wonder X1800 XL: All I Want? (http://www.xbitlabs.com/articles/video/display/aiw-x1800xl.html)

Among the innovations introduced in the ATI All-In-Wonder X1800 XL I would like to specifically stress the following:

New TV tuner (although new is not always better than old);
Channels reception in DVB-T format;
Much better quality Video-In/Video-Out;
More ergonomic remote control unit;
SCART support (important for European users);
Support of hardware decoding of all popular formats.

However, there are a few disappointing drawbacks that should also be kept in mind:

Unstable functioning of the TV-tuner;
Long PCB that may not fit into typical micro-ATX cases, the so-called “living-room form-factor”;
Outdated software tools of the MMC Library, Multimedia Center and TV Player;
Limited settings for manual adjustment of the TV channels, which may cause potential problems.

The uniqueness of the ATI All-In-Wonder X1800 XL position is that is has no competitors in the market today. None of the graphics cards available today offers high gaming performance together with rich multimedia features. The multimedia solutions based around entry-level GeForce chips cannot compete with ATI All-In-Wonder X1800 XL in any way. At the same time, alternative solutions for each of the features we discussed today will cost much more and may conflict with one another within the same PC system. It is a totally different question if there is real market demand for solutions like All-In-Wonder X1800 XL and if this product will win the hearts of PC enthusiasts. Time will show…

deekey777
2005-11-22, 23:13:25
HIS RADEON X1800 XL 256MB PCI-E (http://www.ixbt.com/video2/r520-2.shtml)

Ist noch auf Russisch. Interessant ist, was RT 15.8 so anzeigt, ua daß der Chip allein im 2D etwa 10 Amper und im 3D bis zu 22 Amper, was einen Verbrauch von 11 bis 22 Watt bedeutet, der Rest geht aber insbesondere auf die Speicherchips (1,4ns)!

zeckensack
2005-11-23, 08:07:37
HIS RADEON X1800 XL 256MB PCI-E (http://www.ixbt.com/video2/r520-2.shtml)

Ist noch auf Russisch. Interessant ist, was RT 15.8 so anzeigt, ua daß der Chip allein im 2D etwa 11 Amper und im 3D bis zu 22 Amper, was einen Verbrauch von 11 bis 22 Watt bedeutet, der Rest geht aber insbesondere auf die Speicherchips (1,4ns)!Sicher dass der Chip mit 1,0Volt läuft?

StefanV
2005-11-23, 11:52:10
Sicher dass der Chip mit 1,0Volt läuft?
Nicht ganz.

Hinter der Numm müsste AFAIK noch 'ne 5 hin.

DrumDub
2005-11-23, 12:15:20
Sicher dass der Chip mit 1,0Volt läuft? da steht doch was von 1,1v in den diagrammen.

deekey777
2005-11-23, 13:12:30
Sicher dass der Chip mit 1,0Volt läuft?

Argh, es müssen 10A sein und nicht 11A, ich habe mich vertan. ;(

€: Die Spekulationen des Reviewers sind sehr interessant. In erster Linie beschreibt er die seit Oktober verfügbare X1800XL mit dem R520 A04 als die X1800XT, die wir gesehen hätten, wenn die X1000er Serie rechtzeitig veröffentlicht worden wäre. Darum habe die X1800XL in jetziger Form unnötigerweise die Platine der X1800XT und so auch den teureren 1,4ns Speicher mit 136Pins. Wenn diese "alten" X1800XL abverkauft sind, dann wäre es möglich, daß die "neue" X1800XL mit dem R520 Rev. A05 nicht nur den zivilen 2.0 Speicher mit 144Pins und ggf. eine neue und einfachere Platine.

€2: Hm...
Aus dem Xbit-Review der X1800XL AIW (http://www.xbitlabs.com/articles/video/display/aiw-x1800xl_3.html):
"Instead of the more advanced K4J55323QG series in 136-pin packaging, the card carries 144-pin K4J55323QF chips. The VC16 index in the marking indicates that they work at 2.0V voltage(?), have 1.6ns access time, and belong to a new lead-free series. The access time of 1.6 nanoseconds corresponds to 600 (1200) MHz frequency, but this card clocks its memory at a lower frequency of 500 (1000) MHz.[...]The graphics processor here is an ordinary sample of the R520 chip. The marking on the chip says it was made on the 37-th week, i.e. in early September, of the current year. Like on the RADEON X1800 XL, the GPU is clocked at 500MHz."
Die X1800XL AIW hat schon die aktuelle Revision der R520 (wie bei der X1800XT), hat den 1,6ns Speicher mit 144Pins.

seahawk
2005-11-23, 13:38:30
Was im Hinblick auf die Übertaktbarkeit rieisge Unterschiede gebe könnte. Aber das sage ich schon lange.

deekey777
2005-11-23, 15:45:07
Was im Hinblick auf die Übertaktbarkeit rieisge Unterschiede gebe könnte. Aber das sage ich schon lange.
Hier wäre ich mir nicht so sicher, denn sollte die X1800XL ein neues und einfacheres PCB erhalten, wäre es auch denkbar, daß sich Übertaktbarkeit gar verschlechtert. Ich spinne aber weiter: Vielleicht kommt ATi von allein auf die Idee und erhöht den Takt der X1800XL zB auf die versprochenen 550MHz.

Nazar
2005-11-23, 16:06:27
']IM HQ, flimmert seit den letzten Treibern NIX mehr.

Hört doch bitte auf, dass es seit den letzten Treibern die NV nicht mehr flimmert!
Das mag auf die 5xxx-Reihe zutreffen.
Und jetzt auch wieder auf die 6xxx aber mit Sicherheit NICHT auf die 7xxx!

Einen direkten Vergeleich mit den Karten von ATI kann die 7xxx NICHT standhalten!

Leider scheint NV wieder kräftig an der "Optimierungsschraube zu drehen", was sich negativ auf BQ auswirkt!
So scheint TSAA nicht mehr richtig zu funtionieren!
Sehr gut mit dem 81.95 unter BF2 zu sehen, wo Alphatexturen ohne Ende vorkommen.
Das "Flimmern" ist auch wieder stärker geworden.

Aber sich was einzureden soll ja manchmal Wunder bewirken ;D

Coda
2005-11-23, 16:31:52
Und jetzt auch wieder auf die 6xxx aber mit Sicherheit NICHT auf die 7xxx!GeForce 6 und GeForce 7 liefern mit HQ bitidentischen Output. Wenn für dich das dann noch flimmert, dann hat das auch schon die GeForce 6 getan.

Aber sich was einzureden soll ja manchmal Wunder bewirken Man kann sich aber auch das Gegenteil einreden. Hast du nach dem Treiberupgrade wieder auf HQ gestellt? Das stellt sich manchmal zurück.

seahawk
2005-11-23, 18:44:46
Hier wäre ich mir nicht so sicher, denn sollte die X1800XL ein neues und einfacheres PCB erhalten, wäre es auch denkbar, daß sich Übertaktbarkeit gar verschlechtert. Ich spinne aber weiter: Vielleicht kommt ATi von allein auf die Idee und erhöht den Takt der X1800XL zB auf die versprochenen 550MHz.

trotzdem wird schon alleine der schelchtere Speicher es unmöglich machen XT Werte zu erreichen.

reunion
2005-11-23, 18:49:23
X1800 XT PE nächste Woche mit 700Mhz/800Mhz? (http://www.k-hardware.de/news.php?s=&news_id=4660#)

MSABK
2005-11-23, 22:40:54
X1800 XT PE nächste Woche mit 700Mhz/800Mhz? (http://www.k-hardware.de/news.php?s=&news_id=4660#)


Die sollen erstmal die X1800XT in stückzahlen liefern. :|

Anarchy-HWLUXX
2005-11-24, 03:18:28
Die sollen erstmal die X1800XT in stückzahlen liefern. :|


Die XT wurde eingestampft ... bzw. sollte eingestampft werden denn is doch klar ... wer will schon die zweitbeste XT kaufen ? Wenn scho dann das beste, ist ja nicht so wie mit der 512er GTX die eine andere Platine, anderen RAM und speziell selektierte Cores hat ... XT@PE ist OC teschnich wohl kein problem, ne GTX256 auf 512er Speed zu bekommen ist unmöglich.



-> natürlich nur falls das wirklich zutrifft ... wobei dann ATi gleich zwei Karten hat die an der "alten" GTX nicht vorbeikommen ;D

reunion
2005-11-24, 20:39:44
Asus EAX1800XT mit 700 MHz-Chiptakt (http://www.computerbase.de/news/hardware/grafikkarten/ati/2005/november/asus_eax1800xt_700_mhz-chiptakt/)

//Edit:

Sapphire Hybrid Radeon X1800 XT, 512MB GDDR3, 2x DVI, ViVo, PCIe, full retail sofort lieferbar:

http://shop.vv-computer.de/shop/info/501304/?referer=geizhals.at

HIS Excalibur Radeon X1800 XT, 512MB GDDR3, 2x DVI, ViVo, PCIe sofort lieferbar:

http://www.kosatec.de/pvg/pvg.php?artid=16469&coopid=gh
http://www.bestseller-computer.de/?ID=11026

erwingage
2005-11-25, 11:38:29
Asus EAX1800XT mit 700 MHz-Chiptakt (http://www.computerbase.de/news/hardware/grafikkarten/ati/2005/november/asus_eax1800xt_700_mhz-chiptakt/)

//Edit:

Sapphire Hybrid Radeon X1800 XT, 512MB GDDR3, 2x DVI, ViVo, PCIe, full retail sofort lieferbar:

http://shop.vv-computer.de/shop/info/501304/?referer=geizhals.at

HIS Excalibur Radeon X1800 XT, 512MB GDDR3, 2x DVI, ViVo, PCIe sofort lieferbar:

http://www.kosatec.de/pvg/pvg.php?artid=16469&coopid=gh
http://www.bestseller-computer.de/?ID=11026


die asus karte ist natürlich eine super angebot :wink:
nur schade das ich ein SLI-board habe! :rolleyes:

StefanV
2005-11-25, 12:00:51
die asus karte ist natürlich eine super angebot :wink:
nur schade das ich ein SLI-board habe! :rolleyes:
LOL?!

Warum das denn?!
Du glaubst doch nicht ernsthaft, das in einem SLI Brett nur nV Karten laufen, oder?!

Radeonator
2005-11-25, 12:02:21
Die r520 unterstüt kein SM3.0 oder?

Odal
2005-11-25, 12:07:07
LOL?!

Warum das denn?!
Du glaubst doch nicht ernsthaft, das in einem SLI Brett nur nV Karten laufen, oder?!


ich denke mal das zielte darauf ab das er sich einfach 2 GTX oder dergleichen ins board stecken möchte. Was ja mit seinem sli board und 2 x1800xt nicht wirklich geht

zeckensack
2005-11-25, 12:19:42
Die r520 unterstüt kein SM3.0 oder?Der R520 unterstützt PS3.0 und mit analakribischer Auslegung der Bedingungen auch VS3.0.

Radeonator
2005-11-25, 13:22:11
Der R520 unterstützt PS3.0 und mit analakribischer Auslegung der Bedingungen auch VS3.0.

Aber dadurch ist es immer noch nicht nutzbar, es sei denn es wird daraufhin optimiert oder?

StefanV
2005-11-25, 13:28:28
Aber dadurch ist es immer noch nicht nutzbar, es sei denn es wird daraufhin optimiert oder?
Natürlich ists das :|

zeckensack
2005-11-25, 14:17:46
Aber dadurch ist es immer noch nicht nutzbar, es sei denn es wird daraufhin optimiert oder?Was genau willst du denn hören? Wenn du so unspezifisch nach "SM3.0" fragst, dann kannst du mehr auch nicht verlangen.

Nein, der R520 kann keine Vertex-Texturen. Ging's dir darum?

aths
2005-11-25, 14:24:44
GeForce 6 und GeForce 7 liefern mit HQ bitidentischen Output. Wenn für dich das dann noch flimmert, dann hat das auch schon die GeForce 6 getan.Soweit ich weiß, ist es nicht bitidentisch, aber fast. Soweit ich weiß, flimmert die GF-7-Serie in HQ – bei aktuellen Treibern – trotzdem nicht.

mapel110
2005-11-25, 14:33:37
Soweit ich weiß, ist es nicht bitidentisch, aber fast. Soweit ich weiß, flimmert die GF-7-Serie in HQ – bei aktuellen Treibern – trotzdem nicht.
http://www.beyond3d.com/forum/showthread.php?t=26004
Die chancen stehen nicht schlecht, dass sich diesem Thema nochmal jemand annimmt. :)

Radeonator
2005-11-25, 14:44:52
Immer locker bleiben :rolleyes:
Ich wollte lediglich wissen ob man bei der GPU ganz "normal" SM3.0 Pfade in Games anwenden kann oder nicht. Genauer : Wird die Karte als SM3.0 capable erkannt oder muss man nachhelfen ?

Demirug
2005-11-25, 14:52:13
Immer locker bleiben :rolleyes:
Ich wollte lediglich wissen ob man bei der GPU ganz "normal" SM3.0 Pfade in Games anwenden kann oder nicht. Genauer : Wird die Karte als SM3.0 capable erkannt oder muss man nachhelfen ?

Da ein "SM 3.0 Pfad" in einem Game ja nicht zwingend nur vom Shadermodel abhängt gibt es dazu keine eindeutige Antwort.

zeckensack
2005-11-25, 15:06:14
Immer locker bleiben :rolleyes:
Ich wollte lediglich wissen ob man bei der GPU ganz "normal" SM3.0 Pfade in Games anwenden kann oder nicht. Genauer : Wird die Karte als SM3.0 capable erkannt oder muss man nachhelfen ?Ich bin locker. Deine Frage hörte sich so an (siehe deine Signatur), als wäre völlig an dir vorbeigegangen was der R520 an neuen Features gebracht hat. Und dazu gehört eben volle PS3-Unterstützung in Hardware, und VS3-Unterstützung minus Vertex-Texturen -- wobei mir gerade unklar ist, was VS3 eigentlich sonst noch neues brachte :|
Das steht so in den Caps, und wenn Spiele sich darauf verlassen, können sie dies auch ohne besondere Anpassung nutzen.

Coda
2005-11-25, 15:11:29
wobei mir gerade unklar ist, was VS3 eigentlich sonst noch neues brachte - Mehr Output Registers, die frei zugeordnet werden (Semantics-Mapping, damit das auch mit den Pixelshadern übereinstimmt). Also effektiv einfach mehr Interpolatoren, die alle FP sein müssen.
- Mehr Temp-Register (32)

Radeonator
2005-11-25, 15:18:52
Ich bin locker. Deine Frage hörte sich so an (siehe deine Signatur), als wäre völlig an dir vorbeigegangen was der R520 an neuen Features gebracht hat.

Ganz ehrlich : Ist größtenteils auch so :biggrin:

Und dazu gehört eben volle PS3-Unterstützung in Hardware, und VS3-Unterstützung minus Vertex-Texturen -- wobei mir gerade unklar ist, was VS3 eigentlich sonst noch neues brachte :|

Geometry instancing gehört doch auch zum VS oder? *

Das steht so in den Caps, und wenn Spiele sich darauf verlassen, können sie dies auch ohne besondere Anpassung nutzen.

Na dann hoffe ich mal auf eine baldige Einführung von Mainstream 1800er VPUs von ATi :)

*Ist ja mal echt derbe das man mit vermeindlichen PS3.0 Features zugeschissen wird aber zur VS 3.0 Spezifikation kaum 1-2 Features zu finden sind :|

Coda
2005-11-25, 15:26:32
*Ist ja mal echt derbe das man mit vermeindlichen PS3.0 Features zugeschissen wird aber zur VS 3.0 Spezifikation kaum 1-2 Features zu finden sind Das meiste kam da schon mit VS2.x dazu die ATi nie unterstützt hat. X1800XT ist vom Vertexshader heute in etwa auf Stand der GeForce FX 5200 ;)

Geometry instancing gehört doch auch zum VS oder? *Das ist eine künstliche Limitierung in den DX-Specs. Es hat nicht direkt was mit dem VertexShader zu tun sondern kommt schon davor in der Pipeline.

Radeonator
2005-11-25, 16:26:31
Das meiste kam da schon mit VS2.x dazu die ATi nie unterstützt hat. X1800XT ist vom Vertexshader heute in etwa auf Stand der GeForce FX 5200 ;)


:uwoot:

@Demirug: Gibt es denn irgendwo die Specs für VS2.x / VS3.0 ?

Demirug
2005-11-25, 17:10:56
:uwoot:

@Demirug: Gibt es denn irgendwo die Specs für VS2.x / VS3.0 ?

In der DirectX Dokumentation.

mapel110
2005-11-25, 19:26:42
http://www.beyond3d.com/previews/nvidia/nv40/index.php?p=5#over
Kleine Übersicht gibts hier.

Die selbe Tabelle wo dann auch der R520 drin vorkommt, gibts wohl nicht bzw hab ich nicht gefunden.

Coda
2005-11-25, 19:54:21
R520 stimmt dort mit PS_3_0 überein und bei VS_3_0 fehlt der Hacken bei "Vertex Texture Fetch". Die Texture-Sampler sind virtuell vorhanden fehlen in HW aber auch.

reunion
2005-11-26, 12:53:17
Das meiste kam da schon mit VS2.x dazu die ATi nie unterstützt hat. X1800XT ist vom Vertexshader heute in etwa auf Stand der GeForce FX 5200 ;)



Dafür ist man in punkto Performance weit in Front.

Demirug
2005-11-26, 13:01:30
Dafür ist man in punkto Performance weit in Front.

Aber nur solange das Vertexhsader Programm kein dynamisches Branching nutzt. Dann bricht ATI recht böse ein.

Das Problem mit der brachialen Vertexleistung ist das entweder die CPU nicht schnell genug ist um ausreichend Objekte zu puschen oder die Pixelshader dahinter die FIFOs gar nicht schnell genug leer bekommen. Bis auf wenige Ausnahmen (z.B. 3D Mark) nutzt sie also nicht viel.

Coda
2005-11-26, 16:19:53
Dafür ist man in punkto Performance weit in Front.Warum must du immer gleich wieder Nachtreten? Darum ging es im Moment überhaupt nicht.

Es ging darum, dass ATi bei R4xx verdammt viel an Features versäumt hat, auch wenn sie nicht gleich SM3.0 unterstützt haben. SM2.x bietet mit Caps da nämlich sehr viel Luft nach oben. Das ist eine Feststellung, die Schlüsse kann jeder daraus ziehen wie er will.

reunion
2005-11-27, 21:17:25
Warum must du immer gleich wieder Nachtreten? Darum ging es im Moment überhaupt nicht.


Schlecht gelaunt?


Es ging darum, dass ATi bei R4xx verdammt viel an Features versäumt hat, auch wenn sie nicht gleich SM3.0 unterstützt haben. SM2.x bietet mit Caps da nämlich sehr viel Luft nach oben.


Ich weiß, und ich habe nur erwähnt, dass man dafür in punkto Performance mehr bietet.


Das ist eine Feststellung, die Schlüsse kann jeder daraus ziehen wie er will.

Meine Aussage war auch nichts anderes.

Aber nur solange das Vertexhsader Programm kein dynamisches Branching nutzt. Dann bricht ATI recht böse ein.


Wird das denn in der Praxis eingesetzt? - Und wie arg bricht man da ein, bzw. warum?


Das Problem mit der brachialen Vertexleistung ist das entweder die CPU nicht schnell genug ist um ausreichend Objekte zu puschen oder die Pixelshader dahinter die FIFOs gar nicht schnell genug leer bekommen. Bis auf wenige Ausnahmen (z.B. 3D Mark) nutzt sie also nicht viel.

Mhm, nV hat ja ein ähnliches Problem mir ihrer PS-Power.

Coda
2005-11-27, 21:30:11
Schlecht gelaunt?Bei deiner Einstellung immer.

Ich weiß, und ich habe nur erwähnt, dass man dafür in punkto Performance mehr bietet.Was mich daran stört ist dass du wieder so tust als ob ATi die Features nur weggelassen hat um dadurch höhere Performance zu erzielen.

Wird das denn in der Praxis eingesetzt? - Und wie arg bricht man da ein, bzw. warum?Unter den Vorraussetzungen wird man es genauso wenig einsetzen wie dyn. branching im Pixelshader. Das Problem bei ATi ist dass man nicht pro Vertexshader einen Instruction-Pointer hat wie bei nVIDIA.

Mhm, nV hat ja ein ähnliches Problem mir ihrer PS-Power.Nein. Die ROPs kommen sehr gut mit dem PS-Output zurecht.

Mr. Lolman
2005-11-27, 21:33:40
Was mich daran stört ist dass du wieder so tust als ob ATi die Features nur weggelassen hat um dadurch höhere Performance zu erzielen.

Ists nicht so?

Coda
2005-11-27, 21:34:24
Ists nicht so?Nein. R420 war eine Notlösung weil R400 nicht schnell genug war.

ATi hätte wohl liebend gerne SM3.0 gebracht auch bei etwas weniger Performance. Das hätte sich im Endeffekt auch sicherlich besser verkauft.

Mr. Lolman
2005-11-27, 21:37:55
Nein. R420 war eine Notlösung weil R400 nicht schnell genug war.

ATi hätte wohl liebend gerne SM3.0 gebracht auch bei etwas weniger Performance. Das hätte sich im Endeffekt auch sicherlich besser verkauft.

Also doch wegen der Performance X-D

Coda
2005-11-27, 21:39:56
Nein, weil es ja ein ganz anderer Chip war. Wenn sie mehr Zeit gehabt hätten hätte R420 wohl etwas mehr der SM2.x Spec unterstützt bei evtl. etwas weniger Takt.

Es war eine Designentscheidung wegen Zeitdruck, nicht weil sie gemeint haben die Features seinen "noch nicht zu gebrauchen" wie ihr Marketing danach natürlich immer wieder verlautbaren ließ. Deshalb finde ich es auch etwas bedenklich ATi dafür zu loben was sie mit R420 abgeliefert haben in diesem Zusammenhang, wahrscheinlich sind sie selber nicht damit glücklich gewesen.

Pirx
2005-11-27, 21:41:56
...
Das Problem mit der brachialen Vertexleistung ist das entweder die CPU nicht schnell genug ist um ausreichend Objekte zu puschen oder die Pixelshader dahinter die FIFOs gar nicht schnell genug leer bekommen. Bis auf wenige Ausnahmen (z.B. 3D Mark) nutzt sie also nicht viel.
Bringt es beim 3DMark in den Game-Tests was und wenn ja, warum bringt es dann in Games "nichts"?

reunion
2005-11-27, 22:04:01
Was mich daran stört ist dass du wieder so tust als ob ATi die Features nur weggelassen hat um dadurch höhere Performance zu erzielen.


Das war deine Interpretation, ich habe das in keinster Weise erwähnt.


Unter den Vorraussetzungen wird man es genauso wenig einsetzen wie dyn. branching im Pixelshader. Das Problem bei ATi ist dass man nicht pro Vertexshader einen Instruction-Pointer hat wie bei nVIDIA.


Ja, aber nV hat schon seit eineinhalb Jahren SM3-Hardware, und trotzdem kein dyn. Branching im VS, obwohl die Hardware leistungsfähig genug ist? Seltsam.


Nein. Die ROPs kommen sehr gut mit dem PS-Output zurecht.

Okay, trotzdem scheint man viel PS-Leistung nicht auf die Straße zu bekommen.

Coda
2005-11-27, 22:28:52
Ja, aber nV hat schon seit eineinhalb Jahren SM3-Hardware, und trotzdem kein dyn. Branching im VS, obwohl die Hardware leistungsfähig genug ist? Seltsam.Seit wann benützen Spieleentwickler etwas was nicht in der Breite verfügbar ist? Müssen wir das wirklich nochmal durchkauen?

Übrigens hatte schon NV30 performantes dyn. branching im Vertexshader.

Okay, trotzdem scheint man viel PS-Leistung nicht auf die Straße zu bekommen.Das hat andere Gründe. Im Moment ist noch nichts wirklich bloß Shaderlimitiert. Vielleicht solltest du Demirug das mal glauben.

Radeonator
2005-11-27, 22:43:15
Die Rechenleistung die in einer Pipe gebracht wird und vor allem die theoretischen möglichkeiten sind IMO mal sehr beeindruckend!

ATi sollte Featureseitig endlich mal aus dem Quark kommen, aber die nächste Generation steht ja scheinbar schon in den Startlöchern ?!

p.s.: Könnte man eine Pipe nicht eigentlich eher als einen Stream bezeichnen :|

*sry für so noobige fragen ;o)

Coda
2005-11-27, 22:44:52
ATi sollte Featureseitig endlich mal aus dem Quark kommenSind sie doch längst. R5xx da lange nicht mehr so schlimm.

, aber die nächste Generation steht ja scheinbar schon in den Startlöchern ?!R580 hat ein identisches Featureset wie RV530.

p.s.: Könnte man eine Pipe nicht eigentlich eher als einen Stream bezeichnen Wieso?

deekey777
2005-11-28, 15:38:22
ATi Radeon X1000 - Performance and Image quality (http://www.nordichardware.com/Reviews/?skrivelse=449)

We made use of the standard settings for image quality which was "High quality" for both ATi's and nVidia's cards.

Aha!

aths
2005-11-28, 16:10:00
R520 stimmt dort mit PS_3_0 überein und bei VS_3_0 fehlt der Hacken bei "Vertex Texture Fetch". Die Texture-Sampler sind virtuell vorhanden fehlen in HW aber auch.Der Haken.

ATi Radeon X1000 - Performance and Image quality (http://www.nordichardware.com/Reviews/?skrivelse=449) Die haben die Beispielbilder seltsam vergrößert – unbrauchbar. Außerdem haben sie Screenshots vom temporal AA.

deekey777
2005-11-28, 16:12:58
[...] Außerdem haben sie Screenshots vom temporal AA.

Vielleicht haben die Tester zwei nacheinander folgende Bilder übereinander gelegt. :biggrin:
Na ja, ist nicht schlimm.

aths
2005-11-28, 16:13:55
Vielleicht haben die Tester zwei nacheinander folgende Bilder übereinander gelegt. :biggrin:
Na ja, ist nicht schlimm.Doch. Wer keine Ahnung hat – wie man schon am Vergrößerungsalgo sieht – sollte einfach mal das Review schreiben anderen überlassen.

Mr. Lolman
2005-11-28, 16:14:41
We made use of the standard settings for image quality which was "High quality" for both ATi's and nVidia's cards.

:confused:

deekey777
2005-11-28, 16:17:04
:confused:

Sie haben womöglich einfach die Schieberegler nach ganz rechts verschoben.

Nicht-Standardsettings wäre IMO zB Quality mit einer ausgeschalteten Optimierung.

Mr. Lolman
2005-11-28, 16:27:21
Sie haben womöglich einfach die Schieberegler nach ganz rechts verschoben.

Nicht-Standerdsettings wäre IMO zB Quality mit einer ausgeschalteten Optimierung.

Alles klar.

BTW: Heftig wie oft und tw. deutlich die X1800XL vor der GTX liegt :eek:

mapel110
2005-11-28, 16:31:54
Alles klar.

BTW: Heftig wie oft und tw. deutlich die X1800XL vor der GTX liegt :eek:
Steinzeittreiber 77.77 ahoi.

Blaire
2005-11-28, 16:32:42
Doch. Wer keine Ahnung hat – wie man schon am Vergrößerungsalgo sieht – sollte einfach mal das Review schreiben anderen überlassen.

Vor allem würden mich FEAR Screens interessieren , denn ich glaube nicht das Ati da soviel rendert, wie es Nvidia Karten tun.

Mr. Lolman
2005-11-28, 16:33:02
Steinzeittreiber 77.77 ahoi.

Bei ATi gabs auch nur den Previewtreiber...

mapel110
2005-11-28, 16:35:30
Bei ATi gabs auch nur den Previewtreiber...
tja, da wusste nvidia noch nicht, wie viele Optimierungen sie im Treiber freischalten müssen ^^

warte immernoch auf nen gescheites Review, aber AIL arbeitet ja dran.

Mr. Lolman
2005-11-28, 16:41:51
tja, da wusste nvidia noch nicht, wie viele Optimierungen sie im Treiber freischalten müssen ^^

X-D

Bin auch schon sehr gespannt, was AiL da abliefern wird. Desweiteren wart ich auf den nächsten GraKatest vom 3DC, und bin auch neugierig was ComputerBase als nächstes bringt (wär schön, wenn sie ihr Benchmarkportfolio noch um ein paar Simulatoren (Renn/Flug) erweitern würden)

Und als Kontrastprogramm zieh ich mir dann die neue PCGH rein :tongue:

Coda
2005-11-28, 16:46:38
Lolman so langsam bin ichs leid. Alle Benchmarks wo nVIDIA vorne liegt sind "verfälscht" und andersrum haben alle wo ATi vorne liegt natürlich "optimale Testbedingungen". Lügst du dir da eigentlich nicht selber in die Tasche?

Mr. Lolman
2005-11-28, 16:49:33
Lolman so langsam bin ichs leid. Alle Benchmarks wo nVIDIA vorne liegt sind "verfälscht" und andersrum haben alle wo ATi vorne liegt natürlich "optimale Testbedingungen". Lügst du dir da eigentlich nicht selber in die Tasche?

Wo hab ich das behauptet? Wegen dem "Kontrastprogramm?" Dann lies dir zB. mal meinen AF-Thread im Ati-Forum durch.

Coda
2005-11-28, 16:57:05
Hm na gut. Evtl. sollten wir weniger streiten und selber messen ;)

Mr. Lolman
2005-11-28, 17:00:05
Hm na gut. Evtl. sollten wir weniger streiten und selber messen ;)

Ja machen wir das - sobald die X1800XT auf der ATi-Page verfügbar ist...

Coda
2005-11-28, 18:03:37
Wie meinst du das? "Verfügbar auf der ATi-Page"?

Mr. Lolman
2005-11-28, 18:30:37
Wie meinst du das? "Verfügbar auf der ATi-Page"?
http://www.ati.com/buy/pricespcusa.html

Mr. Lolman
2005-11-29, 12:06:36
Andere Szenen der Screenshots vom nordichardware-Review (http://www.nordichardware.com/Reviews/?skrivelse=449):

http://img520.imageshack.us/img520/7848/techreportscene19fc.gif http://img520.imageshack.us/img520/9480/techreportscene27ve.gif

StefanV
2005-11-29, 12:20:13
Lolman so langsam bin ichs leid. Alle Benchmarks wo nVIDIA vorne liegt sind "verfälscht" und andersrum haben alle wo ATi vorne liegt natürlich "optimale Testbedingungen".
Richtig, wobei ATi froh sein kann, das niemand auf die Idee kam, mit 'nem A64 X2/4x00+ zu benchen :naughty:

Mr. Lolman
2005-11-29, 12:26:08
Richtig,

Na, der Geläuterte wirft mit Steinen?


wobei ATi froh sein kann, das niemand auf die Idee kam, mit 'nem A64 X2/4x00+ zu benchen :naughty:

:confused:

deekey777
2005-11-29, 12:28:54
Richtig, wobei ATi froh sein kann, das niemand auf die Idee kam, mit 'nem A64 X2/4x00+ zu benchen :naughty:

Und woher kommt dieser Leistungszuwachs, wenn die meisten Spiele nichts mit mehr als einer CPU anfangen können?

Grestorn
2005-11-29, 12:30:03
Und woher kommt dieser Leistungszuwachs, wenn die meisten Spiele nichts mit mehr als einer CPU anfangen können?Vom Treiber

deekey777
2005-11-29, 14:06:24
Vom Treiber

Du hättest auch "vom Lüfter" schreiben können, doch weiter bringt es mich nicht. ;(

HIS RADEON X1800 XL 256MB PCI-E Based on ATI RADEON X1800 XL (http://www.digit-life.com/articles2/video/r520-2.html)

Der Artikel von vorhin, aber endlich in Englisch. Interessant sind die Überlegungen des Autors zu der Zukunft der X1800XL R520 A5.

Grestorn
2005-11-29, 14:25:59
Du hättest auch "vom Lüfter" schreiben können, doch weiter bringt es mich nicht. ;( Die neuen Treiberversionen enthalten Optimierungen, die auf einem Multi-Core System zu höherer Performance führen.

Was genau hattest Du als ausführlichere Antwort erwartet?

Mr. Lolman
2005-11-29, 14:30:39
Was genau hattest Du als ausführlichere Antwort erwartet?

Wie das Ganze z.B. funktioniert. Denn mit besserer Auslastung der beiden Cores kann man eigentlich nur den CPU-Load des Treibers senken...

zeckensack
2005-11-29, 14:35:43
Wie das Ganze z.B. funktioniert. Denn mit besserer Auslastung der beiden Cores kann man eigentlich nur den CPU-Load des Treibers senken...Na irgendwie hast du dir die Antwort jetzt aber selbst gegeben.

Der Treiber verrichtet Arbeit. Teile davon können, cleveres Design vorausgesetzt, aufgeteilt werden, sodass sie sich parallel auf mehreren Prozessoren abarbeiten lassen.

Die exakt gleiche Erklärung führt auch bei der Frage "wie kann ein Spiel von Multi-Cores profitieren?" zum Ziel. Man ersetze lediglich "Der Treiber" durch "Das Spiel" ...

Mr. Lolman
2005-11-29, 14:40:56
Na irgendwie hast du dir die Antwort jetzt aber selbst gegeben.

Der Treiber verrichtet Arbeit. Teile davon können, cleveres Design vorausgesetzt, aufgeteilt werden, sodass sie sich parallel auf mehreren Prozessoren abarbeiten lassen.

Die exakt gleiche Erklärung führt auch bei der Frage "wie kann ein Spiel von Multi-Cores profitieren?" zum Ziel. Man ersetze lediglich "Der Treiber" durch "Das Spiel" ...

Ich hätte aber nicht gedacht, dass der CPU-load so hoch ist, dass man mit den 80er Treibern bis zu 20% höherer Performance erzielen kann. Außerdem müsste der Unterschied bei grakalimitierten Settings wieder geringer werden. (und genau deswegen versteh ich den Hype um die Multicoreunterstützung nicht ganz)

Grestorn
2005-11-29, 14:59:40
Ich hätte aber nicht gedacht, dass der CPU-load so hoch ist, dass man mit den 80er Treibern bis zu 20% höherer Performance erzielen kann.Ist aber wohl so, dass doch recht viel Leistung in D3D und dem Treiber verloren geht.

Außerdem müsste der Unterschied bei grakalimitierten Settings wieder geringer werden.höchst wahrscheinlich, ja.

(und genau deswegen versteh ich den Hype um die Multicoreunterstützung nicht ganz)Wer hyped das denn? Ach ja, stimmt... ist ja etwas positives für nV, dann bleibt Dir ja nichts anderes, als es zu relativieren und kleinzureden. Nix neues an der Front ... :)

mapel110
2005-11-29, 15:04:04
ATI hat das doch auch schon irgendwo angekündigt, allerdings glaube erst für nächstes Jahr irgendwann. Find mal wieder keinen Link dazu auf die Schnelle. Mache einfach zu wenig bookmarks. ;(

Mr. Lolman
2005-11-29, 15:33:11
Wer hyped das denn? Ach ja, stimmt... ist ja etwas positives für nV, dann bleibt Dir ja nichts anderes, als es zu relativieren und kleinzureden. Nix neues an der Front ... :)

Na momentan eh niemand. Ich kann mich aber noch gut an die Posts im NV Forum erinnern. Aber macht ja nix: Die Multicore-Treiberoptimierungen kommen den Spielern zugute, und deswegen sind sie als positiv zu bewerten. :up:

StefanV
2005-11-29, 16:53:52
:confused:
Hast das mit der Leistungssteigerung u.A. bei Quake4 im CPU Forum nicht mitbekommen??

Da hatte die Dual Core mal eben 20% mehr Leistung, um den dreh, als ein gleich getakteter Single Core Prozessor...

Aber nur mit 'ner nV Karte.

Mr. Lolman
2005-11-29, 17:04:58
Hast das mit der Leistungssteigerung u.A. bei Quake4 im CPU Forum nicht mitbekommen??

Da hatte die Dual Core mal eben 20% mehr Leistung, um den dreh, als ein gleich getakteter Single Core Prozessor...

Aber nur mit 'ner nV Karte.

Hab ich eh schon geschrieben. Nur gibts diese Mehrleistung anscheinend nur in relativ CPU-limitierten Settings (was es ja nicht unbedingt schlecht macht. Dementsprechend glaub ich aber auch nicht, dass bei GPU-intensiven Szenen,die NVKarten plötzlich die Atis abhängen)

Coda
2005-11-29, 17:56:27
Nur gibts diese Mehrleistung anscheinend nur in relativ CPU-limitierten Settings Wieso eigentlich? Die Batches müssen sowohl in GPU- als auch in CPU-limtierten Szenen verarbeitet werden.

Zur GPU-Limitierung gehört im allg. alles was das Spiel nicht machen kann während die Grafik-API damit beschäftigt ist. Und vor allem viele Batches beschäftigen die CPU auf Grafikseite enorm.

Mr. Lolman
2005-11-29, 18:48:49
Andererseits wartet im Falle eines GPU-bedingten Framerateeinbruchs (z.B. durch AA/AF), die CPU auf die GraKa, da ja (z.B.) die Zahl der Batches unabhängig von Auflösung+AA/AF konstant ist. Und wenn die CPU schon Däumchen dreht, dürfte eine zusätzliche Entlastung kaum noch für Mehrleistung sorgen können...

Für endgültige Gewissheit brauchts wohl Benchmarks.

mapel110
2005-11-29, 19:02:36
Andererseits wartet im Falle eines GPU-bedingten Framerateeinbruchs (z.B. durch AA/AF), die CPU auf die GraKa, da ja (z.B.) die Zahl der Batches unabhängig von Auflösung+AA/AF konstant ist. Und wenn die CPU schon Däumchen dreht, dürfte eine zusätzliche Entlastung kaum noch für Mehrleistung sorgen können...

Für endgültige Gewissheit brauchts wohl Benchmarks.
In Zeiten von SLI ist sowas jedenfalls ziemlich brauchbar. Da ist man selten GPU-Limitiert und Dual Core CPUs müssen besser gefüttert werden.
Für High End Benchmarks ist das jedenfalls von großer Bedeutung.
Aber bei ATI fehlen ja derzeit eh noch die X1800 Master Karten, da brauchts den Treiber noch nicht unbedingt.

deekey777
2005-12-01, 19:50:23
HIS RADEON X1800 XT 512MB (http://www.ixbt.com/video2/r520-3.shtml)

Auch bei diesem Test von iXBT (RUS) wurde RT15.8 eingesetzt und so der Verbraucht der X1800XT 512MB gemessen. Die Spannung des Chips liegt anders als bei der X1800XL bei 1,35V, die Stromstärke bis zu 35: Der R520 der X1800XT verbraucht bis zu 48W, und dem Text nach ist es etwas weniger als die Hälfte des Gesamtverbrauchs der X1800XT.
Der Lüfter läßt den Chip nicht heißer als 75°-76°C werden, doch ist schon heiß genug. Vielleicht sollte ATi den Lüfter etwas schneller laufen lassen.

reunion
2005-12-10, 21:41:26
Jedemenge FarCry HDR+AA-Shots:

http://www.beyond3d.com/forum/showthread.php?t=26518

Performance was better than i expected. 1280x1024/4xAA/8xHQAF, HDR rendering 7 was perfectly playable. I can't remember any situation where i went below 30fps, even not in heavy firefights. Well, look at the fps numbers on the screenies, they speak for themself.
Screenies are taken with HDR rendering 7. With rendering 2, which looks almost as nice as 7, you can expect ~20% better fps.

Coda
2005-12-10, 21:49:47
Mit AA kommt das ganze wirklich nochmal deutlich besser.

Wirklich schade, dass die TMUs von dem Ding kein FP16 filtern können, dadurch wird die Karte für mich nutzlos.

mapel110
2005-12-10, 22:01:29
Ist nur die Frage wo der Patch bleibt. Den gibts nun schon inoffiziell seit 2 Monaten. Die sollen mal in die Pötte kommen.
Aber da wird wohl wieder Ubisoft solange drauf hocken, bis selbst aktuelle ATI-Hardware FP16-Filtering kann und aktuelle nviida-Hardware auch HDR+AA beherrscht. :rolleyes:

Coda
2005-12-10, 22:24:18
Far Cry braucht keine FP16-Filterung.

deekey777
2005-12-10, 22:27:29
Far Cry braucht keine FP16-Filterung.

Das war eh anders gemeint. Mich würde es nichteinmal wundern, daß ein offizieller Patch 1.4 oä nicht erscheint, da sich ubisoft und die Crytek GmbH nicht mehr gut vertragen, seit Crytek mit EA einen Deal abgeschlossen hat.

Coda
2005-12-10, 22:30:25
Das ist natürlich möglich. Aber Crytek kann doch mit Haftungsausschluss einen "inoffiziellen" Patch veröffentlichen.

Es sei denn im Vertrag steht wirklich dass nur Ubisoft patchen darf.

deekey777
2005-12-10, 22:45:55
Beim Release des SDK gab es ein Riesentheater: Crytek wollte es, ubisoft wollte es nicht, und die Modder mußten verärgert auf das SDK warten.

Blaire
2005-12-12, 14:36:14
http://theinquirer.net/?article=28275 :tongue:

Blaire
2005-12-12, 16:44:39
Erstes Crossfire-REVIEW
http://techreport.com/reviews/2005q4/radeon-x1800-crossfire/index.x?pg=1

Coda
2005-12-12, 16:49:42
Wieso werden immer nur Mainstream-Spiele getestet *seufz*

reunion
2005-12-12, 16:58:05
Erstes Crossfire-REVIEW
http://techreport.com/reviews/2005q4/radeon-x1800-crossfire/index.x?pg=1


Der Performancegewinn scheint im Vergleich zur nV-Lösung relativ bescheiden. Während eine X1800XT relativ nahe an der "GTX 512" liegt, kann das Crossfiresystem nicht mal die normale GTX gefährden.

dildo4u
2005-12-12, 17:03:03
Der Performancegewinn scheint im Vergleich zur nV-Lösung relativ bescheiden. Während eine X1800XT relativ nahe an der "GTX 512" liegt, kann das Crossfiresystem nicht mal die normale GTX gefährden.
Nvidia hat ja nun auch schon gut 1.5Jahre Erfahrung mit SLI systemen ich wette nach 3-4 Neuen Treiberreleases siehts das schon ganz anderes aus.

Blaire
2005-12-15, 22:01:13
Nächstes Crossfire-Review:
http://www.hexus.net/content/item.php?item=4112

Coda
2005-12-15, 22:29:43
Nvidia hat ja nun auch schon gut 1.5Jahre Erfahrung mit SLI systemen ich wette nach 3-4 Neuen Treiberreleases siehts das schon ganz anderes aus.nVIDIA hat aber auch eine Brückenverbindung zwischen den Karten. Das ist nicht zu unterschätzen wenn AFR nicht möglich ist.

deekey777
2005-12-15, 23:41:03
Driven by the New Catalyst: Sapphire RADEON X1800 XL Review (http://www.xbitlabs.com/articles/video/display/sapphire-x1800xl.html)

Noise, Power Consumption, Overclocking, 2D Quality (http://www.xbitlabs.com/articles/video/display/sapphire-x1800xl_4.html)

"The power consumption of the RADEON X1800 XL was measured in our earlier reviews. It is 60W when a hard 3D application is running. We also measured the consumption of the Sapphire RADEON X1800 XL in two 2D modes: 1) in office applications and 2) under a very high load created by the 2D Transparent Windows test from PCMark05. The power consumption turned to be 44W in the first test and 49.7W in the second test, which was still below 60W the card consumed in 3D mode. The numbers are normal, considering that the maximum consumption of the GeForce 7800 GT is about 55-56W."

deekey777
2005-12-21, 16:26:17
[ASUS EAX1800XT TOP] (http://www.vr-zone.com/?i=3055)

:biggrin:

dildo4u
2005-12-21, 16:36:42
[ASUS EAX1800XT TOP] (http://www.vr-zone.com/?i=3055)

:biggrin:
Nette Karte scheint aber nicht wirklich an der ebend so nicht erhältlichen 7800GTX 512MB vorbei zu kommen bin mal gespannt ob Asus die Karte wirklich in Stückzahl ausliefern kann oder ob sie eine Limited Edition draus machen.:tongue:

Chrisch
2005-12-21, 16:44:21
[ASUS EAX1800XT TOP] (http://www.vr-zone.com/?i=3055)

:biggrin:
in dieser Graka sehe ich keinen Vorteil den normalen XT´s gegenüber....

Hat nicht jede XT´s den selben Ram wie diese?

Edit: und vom externen NT halte ich schonmal garnichts ;)

mapel110
2005-12-21, 16:48:24
Hat nicht jede XT´s den selben Ram wie diese?
Nach dem OC-Ergebnis zu urteilen nicht. 900 Mhz Ramtakt hab ich bislang noch nicht gesehen. Allerdings kenne ich auch nur ein paar X1800XT-Besitzer.

dildo4u
2005-12-21, 16:52:59
Nach dem OC-Ergebnis zu urteilen nicht. 900 Mhz Ramtakt hab ich bislang noch nicht gesehen. Allerdings kenne ich auch nur ein paar X1800XT-Besitzer.
Laut dem test ist es 1.25ns ram also der selbe wie bei den Nomalen XTs die GTX 512mb hat 1.1NS ram ich denke Asus wird einfach von Haus aus mher Spannung anlegen deshalb auch das Extra NT.

Sunrise
2005-12-21, 17:08:08
Es gibt bereits seit Wochen das PE-BIOS zum Download, wer wagt, gewinnt. Die Bestückung der Karten (der Speicher) ist absolut identisch. Jedoch bitte bedenken, dass es hier keine Garantien für eine Funktion der jeweiligen Karten und diesem BIOS gibt und dies zudem auch eingehend mit Garantieverlust verbunden ist.

deekey777
2006-01-07, 17:49:38
Geklaut hier: http://www.driverheaven.net/#news95744 (56k unfreundlich)
http://img349.imageshack.us/img349/1059/corsair975xcrossfiresystems3bb.th.jpg (http://img349.imageshack.us/my.php?image=corsair975xcrossfiresystems3bb.jpg)
:|
X1800Pro? Interessant.

mapel110
2006-01-07, 17:54:33
Geklaut hier: http://www.driverheaven.net/#news95744 (56k unfreundlich)
http://img349.imageshack.us/img349/1059/corsair975xcrossfiresystems3bb.th.jpg (http://img349.imageshack.us/my.php?image=corsair975xcrossfiresystems3bb.jpg)
:|
X1800Pro? Interessant.
Ich würde da eher auf Dummheit von Corsair tippen.

dildo4u
2006-01-07, 18:23:41
Computerbase Crossfire Review

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_club3d_radeon_x1800_xt_crossfire-edition/

Blaire
2006-01-09, 21:57:27
http://www.hardocp.com/article.html?art=OTMw

Auch hier ein ähnliches Bild die GTX 512@SLI gewinnt relativ klar.

deekey777
2006-01-09, 22:01:04
http://www.hardocp.com/article.html?art=OTMw

Auch hier ein ähnliches Bild die GTX@SLI gewinnt relativ klar.

Es wird auch eine 7800GTX 512 benutzt.

Blaire
2006-01-09, 22:03:42
Es wird auch eine 7800GTX 512 benutzt.

Logisch oder? :D Habs korrigiert. ;)

aths
2006-01-26, 18:21:48
Wenn man es richtig macht kann man die Signalwege verkürzen. Kürzere Signalwege erlauben einen kleineren DIE und reduzieren die Latenzen.

Allerdings wäre ein Kaskadierter Stern IMHO besser gewesen. In diesem Zusammenhang empfehle ich Lektüre die sich mit den Signalwegs Problemen bei den ersten Supercomputern (z.B die ersten Crays) befasst. Also als man noch von einem Schrank zu nächsten mit richtigen Signaldrähten musste. Im Prinzip haben wir heute die gleichen Probeleme wieder eben nur in einem kleineren Maßstab.Ein ähnliches Problem hatte ich schon mal – wenn auch in kleinerem Maßstab – ein wenig durchdacht. Jedoch ohne zu einem Ergebnis gekommen zu sein. Das Problem wäre ja, entweder massig Leitungen zu verlegen wobei jede Leitung ihre definierte Bedeutung hat, oder mit weniger Leitungen auszukommen und darüber unterschiedliche Daten zu senden. Dann braucht man aber auch ein Protokoll, und das gibt Overhead (Verarbeitung, zusätzliche Marker-Bits.) Will man Daten "durchrouten" wirds richtig hässlich, da die Auslastung der verschiedenen Signalwege bekannt sein muss, um die optimale Route zu finden. Und dann müsste man noch berücksichtigen, ob man möglichst geringe Latenz braucht und dafür nur wenige Daten übertragen will, oder ob man einen großen Berg übertragen will wobei die Latenz jedoch nicht die entscheidende Rolle spielt. Die entstehende Verteilerlogik dürfte recht komplex werden.

Eine Frage ist auch wie man den Empfänger behandelt. Kann man prinzipiell jeder Einheit was schicken, inkl. Anweisungen was sie damit machen soll, oder kann man nur Daten schicken die gerade von der betroffenen Einheit erwartet werden?

Spielen kausale Zusammenhänge eine Rolle, also müssten die Daten in einer bestimmten Reihenfolge eintreffen weil sie voneinander abhängen, wirds richtig hässlich ...