PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Sammelthread: ATI X1900 XT(X) Reviews und Diskussionen


Seiten : 1 2 3 [4] 5

MuLuNGuS
2006-01-25, 10:31:12
tja, was soll man sagen:

is 'ne gute neue karte.

und jetzt weiter im takt!
®

mapel110
2006-01-25, 10:38:34
550 € ist dennoch ein bisschen viel. Aber wenn offenbar die X1800er weitergeführt wird, verständlich.

Sternenkind
2006-01-25, 10:40:15
Schön das die Diskussion hier wieder sachlich wird. Es ist wirklich schade was hier zeitweise abläuft. Tombman kommt daher mit seinem SLI Rotz der für 99,9% User uninteressant ist, wobei er völlig übersieht, dass EINE x1900 gegenüber einem GTX Gespann doch recht gut abschneidet (von dem wirtschaftlichen Aspekt gar nicht erst zu sprechen). Das die (nicht verfügbare) 512er GTX von der x1900 klar dominiert wird was Leistung und Bildqualität (und Preis) angeht, dürfte selbst dem größten Fanboy aufgefallen sein. Und die 'normale' GTX? Naja die hat schon mit der 'alten' x1800 ihre Probleme bzw. wird von der geschlagen.
Ach ja und da sind noch Skynet und Co mit super wichtigen und tollen Insiderinfo. Wayne? NVidia muss erstmal in der Praxis zeigen was der G71 wirklich drauf hat, Zahlenspielerei nützt keinem etwas. Ihr 'Insider' könntet ja mal NVidia den Tipp geben, das 'vernichtende' Potenzial der G71 in die Bildqualität einfließen zu lassen wenn sie doch so toll ist, dann müsst ihr euch auch nicht mehr vor der Bildqualität ATIs verstecken.
Ach ja, als wenn keine ATI keine 'PE' in der Hinterhand hätte... wir wissen alle das es so kommen wird und wie das Geschäft läuft. Und 'vernichtend' die Konkurrenz zu schlagen wäre für jeden der beiden Anbieter ein Schuss ins eigene Bein...

Die x1900 ist die klare Referenz in allen Bereichen, was in 2-3 Monaten sein wird steht auf einem anderem Blatt und hat in diesem Thread nix zu suchen. Für was gibt es das Spekulationsforum?

Ailuros
2006-01-25, 10:42:21
ATI´s X1900XT ist eine sehr gute Karte mit der besten bisher möglichen Bildqualität.

Es stimmt auch so. Bis zu D3D10 kann NV leider die Vorteile des R580 nicht mehr aufholen; stets IMHO natuerlich.

Gast
2006-01-25, 10:51:13
550 € ist dennoch ein bisschen viel.
War beim G70 und R520 am Anfang auch nicht anders. IMHO normal. :)

Aber wenn offenbar die X1800er weitergeführt wird, verständlich.
Das kommt noch hinzu.
Der Preis der X1800XT wird bestimmt bald deutlich fallen und damit alle anderen Preise logischerweise auch.
Etwas besseres kann uns Usern gar nicht passieren.
Dumm aus der Wäsche gucken nur diejenigen, die sich in letzter Zeit 2 7800GTX 512 für 1300 € oder mehr geholt haben.
Das ist eben der Preis, den man bezahlen muss, wenn man immer das Schnellste haben will.

[dzp]Viper
2006-01-25, 11:06:57
Das erste mal, dass ich ein Bild der X1900 All in Wonder sehe :)

Beachtenswert - Singleslot Kühler :eek:

http://www.hartware.de/media/reports/415/aiw_card_s.jpg

Godmode
2006-01-25, 11:08:36
Viper']Das erste mal, dass ich ein Bild der X1900 All in Wonder sehe :)

Beachtenswert - Singleslot Kühler :eek:

http://www.hartware.de/media/reports/415/aiw_card_s.jpg

Die hat leider nur 500 MHz Chiptakt.
http://www.3dcenter.de/artikel/2006/01-24.php

doom1
2006-01-25, 11:15:45
so mit dem ganzem blablabla ich hab mir jetzt bei Alternate die
http://www.alternate.de/html/shop/productDetails.html?artno=JBXS06&
bestellt denke sie ist morgen oder übermorgen da und wehe euch die taugt nix ich hau sie euch gnadenlos um die Ohren :tongue:

Hoffendlich mag mein DFI SLI Mobo ne ATI :confused:

crusader4
2006-01-25, 11:19:17
Viper']Das erste mal, dass ich ein Bild der X1900 All in Wonder sehe :)

Beachtenswert - Singleslot Kühler :eek:

http://www.hartware.de/media/reports/415/aiw_card_s.jpgAn sich toll, nur leider mit ein paar Fehlern aus meiner Sicht:

verringerte Taktraten: 500Mhz Core
nur 256MB Speicher
Eigentlich wollte ich meine AIW 9800 Pro mit der ablösen, aber das werd ich mir schwer überlegen. Hatte echt gehofft, ATI hatte die performancetechnische Unterscheidung in Gamer und Multimedia endgültig aufgegeben. Schade.

SKYNET
2006-01-25, 11:24:28
So muss auch mal meinen Senf dazu geben.

Das manche Leute Nvidia verteiligen bis zum Abwinken ist hier nicht sonderlich Hilfreich. Es ist doch so...

Vergleichen wir mal eine Radeon 9800 Pro und eine 6800GT

Wenn ich jemanden frage welche der Karten schneller ist dann sagt mir fast jeder natürlich die Geforce die hat mehr Frames ist hammer schnell usw.

Nur keiner der Leute sagt mir das ich zwar eine karte mit höheren FPS Werten besitze diese aber wiederum eine grottenschlechte Bild Qualität sowie Treiber Probleme aufweisst die ich mit der vermeintlischen Radeon nicht gehabt hätte.

Alles was bei der Geforce nicht H Quality gezockt wird ist shit. Stellst den Regler auf Leistung musst mit ansehen wie in deinem Mohaa Wände Lila sind oder bei Css das Texturflimmern in Aztek ! Was bitte denkt man sich dabei eine Graka zu verteidigen die noch nichtmal im Stande ist ein Rasen Grün zu erzeugen. Das einzige was Sie ausser schnellen Frames bieten kann ist ein Atomarer verseuchter Rasen den man sich für teuers geld gekauft hat.

übrigens was soll das mit dem ja die 7900 Owend alles ? Was ? Wie ? mit einer noch schlechteren BQ ? Einem Noch grellerem Ultra leuchtenden Rasen ? Mit noch schlechteren Treibern die Wände in Lila und Rosa Schweinchen umwandeln ?

Jeder der nur ein wenig drüber nachdenkt hat sich schonmal über diese probleme beschwert und kann dieses nicht verleugnen ausser er hatte noch nicht die möglichkeit eine ATI zu Besitzen.


aorry, was du sagst ist quatsch, bin von ner 9800pro auf ne 6800GT umgestiegen damals... und die BQ war bei beiden karten gleich schlecht/gut wie auch immer mans handhaben will, nur das die 6800GT soviel rawpower hatte das damalige spiele auch mit SSAA noch flüssig liefen und somit die BQ auf der 6800GT, zumindest mit SSAA besser war! =)

SKYNET
2006-01-25, 11:27:18
Also Tombmans gesülze kann einem echt auf den Zeiger gehen...
Rechne mal die Effizienz der beiden Lösungen in Prozent aus, 1900XT<>1900CF vs. 7800<>7800SLI
uuuuuuuups,fast identisch...


fast identisch? :|

CF -> steigerung 18.75%
SLI -> steigerung 83.33%

:rolleyes:

Chill187
2006-01-25, 11:30:00
Hier http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/ gibts einen Test.

Werft mal einen Blick auf dei Temperaturen der Karten,is das nicht ein bischen zu heiss?

SKYNET
2006-01-25, 11:30:27
falsch
jeder nvidia-user hat rumgeflennt wegen der ach so beschissenen qualität.

nun plötzlich ist das drex-af der nvidia aber gut genug

doppelmoral ahoi :rolleyes:


nö, ich bin auch kein fan von dem winkel-af scheiß, aber das süppchen haben uns die kanadier ja nunmal eingebrockt... aber wies aussieht, haben wir das ja auch im grünen lager nimmer allzulange... ebenfalls dank der kanadier! ;)

Tidus
2006-01-25, 11:47:45
fast identisch? :|

CF -> steigerung 18.75%
SLI -> steigerung 83.33%

:rolleyes:
Stimmt zwar, aber alle vergessen immer wieder das CF noch in den Kinderschuhen steckt, im Gegensatz zu SLI...am Anfang war SLI auch nich das wahre :rolleyes:

Fetza
2006-01-25, 11:48:26
aorry, was du sagst ist quatsch, bin von ner 9800pro auf ne 6800GT umgestiegen damals... und die BQ war bei beiden karten gleich schlecht/gut wie auch immer mans handhaben will, nur das die 6800GT soviel rawpower hatte das damalige spiele auch mit SSAA noch flüssig liefen und somit die BQ auf der 6800GT, zumindest mit SSAA besser war! =)

kann ich nicht bestätigen, msaa war klar schlechter und auch das af ist meiner meinung nach zum release des chips klar schlechter gewesen, und später immer noch nen tacken unschärfer gewesen. Zudem kommt das nv40 derbst einbricht beim zuschalten von aa...

greetz

Fetza

SKYNET
2006-01-25, 11:54:12
das AA der NV4x reihe ist ebenbürdig mit dem der R3x0 serie, also bitte mal bei der warheit bleiben, und das AF ist besser, nur marginal und nicht sichtbar, aber messbar =)

mapel110
2006-01-25, 11:59:17
Zurück zum Topic und nicht olle Kammellen rauskramen, Danke!

Gast
2006-01-25, 11:59:45
das AA der NV4x reihe ist ebenbürdig mit dem der R3x0 serie, also bitte mal bei der warheit bleiben,
Unsinn.

Gast
2006-01-25, 12:00:19
Diese Aussage mit 12x4 gab's schon vorher zu lesen, zB http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3882213&postcount=22 (und eigentlich schon früher).
Willst du sagen, Ati lügt?
Ich glaube nicht.

Q

eXodia
2006-01-25, 12:02:03
Unsinn.

Aha :| - Erklär mir das bitte mal?

Sry. 4 Offtopic

Greetz

(del676)
2006-01-25, 12:02:53
nö, ich bin auch kein fan von dem winkel-af scheiß, aber das süppchen haben uns die kanadier ja nunmal eingebrockt... aber wies aussieht, haben wir das ja auch im grünen lager nimmer allzulange... ebenfalls dank der kanadier! ;)

jaja :rolleyes:

ati hat bei jeder karte das AF immer verbessert
während nvidia es verschlechtert hat
ich warte noch auf das 3dc review, und eventuell die g71 bis eine kaufentscheidung fälle, aber mein glauben an den willen bei nvidia das AF zu verbessern tendiert gegen 0 - sie hatten lange genug zeit und ihnen wars SCHEISSegal

aths
2006-01-25, 12:08:24
nö, ich bin auch kein fan von dem winkel-af scheiß, aber das süppchen haben uns die kanadier ja nunmal eingebrockt... aber wies aussieht, haben wir das ja auch im grünen lager nimmer allzulange... ebenfalls dank der kanadier! ;)Na ... der G70-Refresh wird wohl noch kein besseres AF haben, denke ich mal. Und wie es beim D3D10-Teil aussieht, wage ich derzeit noch nicht zu spekulieren. Mir liegt lediglich eine nebulöse Bemerkung von Dave Kirk vor, aus der man entnehmen könnte dass erst ca. 2009 bei Nvidia mit wirklich gutem AF wieder zu rechnen sei. Wie ernst man das nehmen kann, weiß ich aber nicht. (Auch Demirug erwähnte schon mal die Möglichkeit, dass die GPU der Zukunft gar kein AF mehr bietet, welches sich dafür dann vom Entwickler programmieren lässt.) (Mit Shader Model 3 kann man die Programmierung von vernünftigem AF vergessen, ob SM4 ausreicht weiß ich nicht, vielleicht gibts ja schon erste Absprachen für SM5.)

eXodia
2006-01-25, 12:08:38
ati hat bei jeder karte das AF immer verbessert

Was am Anfang auch nich schwer war, da man es imho nichtmal AF nennen konnte.

während nvidia es verschlechtert hat

Was daran liegt das es niemand gestört hat das das AF der Radeons schlechter war. Deshalb lag der Schluss auch nahe das AF etwas zu "Optimieren", da es ja sowieso niemanden interessiert.

Greetz

SKYNET
2006-01-25, 12:09:48
Na ... der G70-Refresh wird wohl noch kein besseres AF haben, denke ich mal. Und wie es beim D3D10-Teil aussieht, wage ich derzeit noch nicht zu spekulieren. Mir liegt lediglich eine nebulöse Bemerkung von Dave Kirk vor, aus der man entnehmen könnte dass erst ca. 2009 bei Nvidia mit wirklich gutem AF wieder zu rechnen sei. Wie ernst man das nehmen kann, weiß ich aber nicht. (Auch Demirug erwähnte schon mal die Möglichkeit, dass die GPU der Zukunft gar kein AF mehr bietet, welches sich dafür dann vom Entwickler programmieren lässt.) (Mit Shader Model 3 kann man die Programmierung von vernünftigem AF vergessen, ob SM4 ausreicht weiß ich nicht, vielleicht gibts ja schon erste Absprachen für SM5.)


vom G70 refresh habe ich auch net gesprochen! ;)

Gast
2006-01-25, 12:12:26
joa, das kommt raus wenn man nen overkill an shaderpower einbaut :)
deshalb ist die ati imho auch wesentlich besser für neuere games geeignet
ich bin schon auf benches von oblivion gespannt (wird doch sicher das eine oder andere shaderchen haben)
Nö, das kommt raus, wenn man irgendwas beim AA verhunzt hat (entweder Fear oder Nv).

Ohne AA sind's maximal 40% Unterschied, was allerdings auch schon beachtlich ist. AA hat aber nichts mit der Shader-Power zu tun.

Q

Ailuros
2006-01-25, 12:12:44
Willst du sagen, Ati lügt?
Ich glaube nicht.

Q

So wie es ATI praesentiert haben sie zuerst extra Transistoren in hoeherer Bildqualitaet investiert und dann spaeter mit R580 noch mit extra ALU-Leistung und natuerlich nochmal mehr Transistoren nachgeladen.

Das Problem ist eben IMO dass R520 viel zu spaet ankam.

deekey777
2006-01-25, 12:14:51
R580 Architecture Interview (http://www.beyond3d.com/reviews/ati/r580/int/)
Lest lieber das... :P

aths
2006-01-25, 12:17:32
Ich hab mich geändert, ich war vllt früher totaler ATI Befürworter, naja das war mal.

Ich bin nur noch minimal rot, mein Gott, aber da bin ich ziehmlich alleine hier. Les dir die letzen Seiten durch. Objektive Beiträge findet man selten. Entweder man ist grün oder rot. Und die Grünen sind seit G70 deutlich aufm Vormarsch. Das HWluxx ist schon total grün, hier wirds auch immer schlimmer.

Aber manche lernen es nie. Der G71 wird den R580 vernichten, was soll das? Ist doch überhaupt nicht sicher. Und wenn man was dagegen sagt, ist man immer gleich ATI Fanboy, sowas ist unerhört....Der G71, oder wie er auch immer heißen wird, der vermutete G70-basierende Chip mit 8 Pixelquads, hat natürlich seine Stärken. Aber auch seine Schwächen. Ich vermute, dass Nvidia in etwa gleichziehen wird. Alles was massive Texelpower kostet, dürfte auf dem G71 etwas schneller sein. Wenn es ums arithmetische Rechnen im Pixelshader geht, muss Nvidia entweder im Treiber noch ein kleines Wunder vollbringen, oder der Radeon X1900 den Vortritt lassen.

Letztlich interessiert mich als Endkunde nicht nur die fps-Rate, sondern viel mehr noch die mit sinnvollen Maßnahmen erreichbaren Bildqualität. Hier ist ATIs 6x MSAA mit 6x sparse Transparenz-Modus einfach genial. MSAA funktioniert zudem auf FP16-Targets, das heißt dass MSAA auch im Zusammenhang mit HDR-Rendering möglich ist. Dazu kommt das als "Area-AF" vermarktete AF, welches im 8x-Modus fast GeForce3-Qualität bietet. Endlich wieder beinahe volles 8x AF bei fast allen Winkeln!! Sehr brauchbar bei WoW und allen Spielen, die keine auf 90° ausgerichtete rechteckige Architektur zeigen. Da kann der G70 nicht mithalten.

deekey777
2006-01-25, 12:20:46
Willst du sagen, Ati lügt?
Ich glaube nicht.

Q
Ich sag gar nichts.
http://www.beyond3d.com/reviews/ati/r580/int/index.php?p=04

To achieve this structure of tripling the Pixel Shader ALU's without tripling all the rest of the corresponding raster resources the shaders still use the same number of dispatch processors (four dispatch processors for both R520 and R580, each handling 128 batches/"threads") but is done so by increasing the number of pixels within a batch - i.e. 16 for R520 and 48 pixels for R580. Increasing the batch size should have ramifications on both overall shader efficiency and dynamic branching, how much of an impact do you see here?

[Eric Demers] Yes, we did have to triple the granularity size. We also did have to triple the GPR resources, since we did not want to reduce the number of threads. Having said that, we have not seen a single case where R580 doesn't significantly beat an R520 in real shaders with flow control. The reality is that 16 pixels or 48 pixels, from a granularity standpoint, are very similar when there's millions of pixels out there being rendered. Both R520 and R580 run circles around any other architecture out there that supports the most advanced shaders with flow control. In fact, R580 runs circles around anything :-) We could construct artificial cases where the granularity increase would reduce performance, but those cases would probably have to have a good amount of ALU, and so would still be much faster due to the 3x ALU count, anyway...
:|

Gast
2006-01-25, 12:25:54
http://www.elitebastards.com/hanners/club3d/x1900xtx/charts/rightmark-ps.png

400% mehr Leistung? Wo soll die denn herkommen aus 200% mehr Shader-Einheiten?


Q

Ailuros
2006-01-25, 12:26:32
Ich sag gar nichts.

:|

Falscher quote :P

When we designed the R520, we were already starting the design of the R580. The R580 (X1900) was designed to be both the next high end after R520, but was also designed to be more balanced overall for the newest applications. We designed the R520 first with a Spring 05 introduction target, and it was a reasonable design for that time, that introduced many new technologies. We might of done a 2x ALU, but there was already so much new technology in R520, that we decided against that. But it ended up being delayed, and so lost some of its steam due to that. I feel that for the current newest applications today, R580 is a better balanced part (given that it often doubles the performance of R520, I think that's reasonable). But in Spring 05, R520 would have rocked :-)

http://www.beyond3d.com/reviews/ati/r580/int/index.php?p=03

Popeljoe
2006-01-25, 12:26:41
Der G71, oder wie er auch immer heißen wird, der vermutete G70-basierende Chip mit 8 Pixelquads, hat natürlich seine Stärken. Aber auch seine Schwächen. Ich vermute, dass Nvidia in etwa gleichziehen wird. Alles was massive Texelpower kostet, dürfte auf dem G71 etwas schneller sein. Wenn es ums arithmetische Rechnen im Pixelshader geht, muss Nvidia entweder im Treiber noch ein kleines Wunder vollbringen, oder der Radeon X1900 den Vortritt lassen.

Letztlich interessiert mich als Endkunde nicht nur die fps-Rate, sondern viel mehr noch die mit sinnvollen Maßnahmen erreichbaren Bildqualität. Hier ist ATIs 6x MSAA mit 6x sparse Transparenz-Modus einfach genial. MSAA funktioniert zudem auf FP16-Targets, das heißt dass MSAA auch im Zusammenhang mit HDR-Rendering möglich ist. Dazu kommt das als "Area-AF" vermarktete AF, welches im 8x-Modus fast GeForce3-Qualität bietet. Endlich wieder beinahe volles 8x AF bei fast allen Winkeln!! Sehr brauchbar bei WoW und allen Spielen, die keine auf 90° ausgerichtete rechteckige Architektur zeigen. Da kann der G70 nicht mithalten.

Alleine der letzte Absatz läßt mich auf einen Spitzenartikel zur X1900XT hoffen!
Da muß ich echt gestehen, daß ich dich dabei etwas falsch eingeschätzt habe... :redface:
Hut ab! Du bemühst dich wirklich um eine ausgewogene Betrachtung. :up:
P1

Demirug
2006-01-25, 12:26:50
Willst du sagen, Ati lügt?
Ich glaube nicht.

Q

Aber scheinbar weiß die rechte nicht was die Linke tut. Den Eric Demers hat gegenüber Dave Baumann die 48 Pixel pro Batch bestätigt.

Ronny145
2006-01-25, 12:32:41
so mit dem ganzem blablabla ich hab mir jetzt bei Alternate die
http://www.alternate.de/html/shop/productDetails.html?artno=JBXS06&
bestellt denke sie ist morgen oder übermorgen da und wehe euch die taugt nix ich hau sie euch gnadenlos um die Ohren :tongue:

Hoffendlich mag mein DFI SLI Mobo ne ATI :confused:


48 Vertex Shader, interessant
Letztens stand auf der PCGH was von 48 ROPs. Der nächste schreibt 48 Pixel Pipelines. Muss echt schwer sein.

deekey777
2006-01-25, 12:36:35
400% mehr Leistung? Wo soll die denn herkommen aus 200% mehr Shader-Einheiten?


Q

Zweifelst du an der Macht?

http://www.digit-life.com/articles2/video/r580-part2.html#p5
Interessant ist der Tex-intersiver Test des D3D Rightmark Beta 4:

As we can see, advantage of the R580 over the R520 has practically no effect as performance is limited by texture units, 16 in both cases. Thus NVIDIA formally looks like a winner in this case. But as it's still a tad faster in the first scenario with computations (in a procedural test) and slightly slower in the second scenario (in a parallax mapping test), programmers will most likely prefer the first shader modifications and not create two different shaders for different cards. ATI will win in this situation, unless programmers decide for some reason (I wonder why?) to create a texture-priority shader in order to equalize G70 and R580. In this case ATI has implemented all the 32 new pixel processors for nothing. It's an interesting situation – too much depends on a context and programmers' preferences. We'll see what ways they will choose in their applications. But don't forget about a possible situation when the choice is already made – for example, the game is already released. Then the case may go against the R580. Just because programmers didn't know about its features and high performance in computing rather than texture sampling.

PingpiN
2006-01-25, 12:40:51
Zdnet hat mall wieder die qualität der beiden graka Spezialisten verglichen.
http://www.zdnet.de/enterprise/client/0,39023248,39140380-7,00.htm
:)

Ronny145
2006-01-25, 12:45:29
Zdnet hat mall wieder die qualität der beiden graka Spezialisten verglichen.
http://www.zdnet.de/enterprise/client/0,39023248,39140380-7,00.htm
:)


Bei dem Rennspiel dort liegen Welten dazwischen. Ist aber in fast jedem Rennspiel so. Schon ein großer Unterschied. Mit ein paar HQ Werten wurde dort gebencht. Gar nicht so schlecht der Test. HQAF auf der XTX nimmt auch kaum Leistung.

doom1
2006-01-25, 12:56:39
bissel OT jetzt :smile: hat es eigendlich nie einen Patch für F1 (EA) gegeben?

Ailuros
2006-01-25, 13:04:38
Zdnet hat mall wieder die qualität der beiden graka Spezialisten verglichen.
http://www.zdnet.de/enterprise/client/0,39023248,39140380-7,00.htm
:)


*kopfklatsch*

Ein weiteres Beispiel für die bessere Bildqualität bei ATI mit adaptivem Antialiasing (unteres Bild) gegenüber den Geforce-Chip bei transparentem Antialiasing: Der Zaun wird deutlich schärfer gerendert

*seufz*

PingpiN
2006-01-25, 13:13:29
*kopfklatsch*



*seufz*
HM warum willst du mir auf denn Kopfklatschen hab ich was schlimmes gepostet? ;(

BodyLove
2006-01-25, 13:14:11
Nicht dir, sondern wohl eher sich selbst, nach der Aussage im Artikel.;)

Odal
2006-01-25, 13:18:43
Und es geht munter weiter mit falschen FEAR Werten, auch THG irrt.

Ist auch falsch. Ich habe bereits mit zwei schlappen 256mb GTX @ 485/1380 70fps avg auf 1024 4xAA/8xAF + SS, also selbe settings. (cpu @ 2.8ghz, wie THG)

oha die Verschwörung ist bereits im Gange, plötzlich wendet auch THG sich von NVidia ab.

Ailuros
2006-01-25, 13:20:58
HM warum willst du mir auf denn Kopfklatschen hab ich was schlimmes gepostet? ;(

Der Kopfklatsch war fuer den quote und die screenshots darueber; bei der GeForce gruseln die Bodenlinien mehr und bei der Radeon der Zaun deutlich mehr trotz adaptivem AA auf beiden. Wenn es mal auf der einen Stelle auf der einen GPU und auf einer anderen Stelle auf der anderen GPU mehr "gruselt" sehe ich bei bestem Willen keine bessere Bildqualitaet.

Die F1 engine hat eben zum Erbrechen schlechtes MIPmapping.

Coda
2006-01-25, 13:29:34
jeder nvidia-user hat rumgeflennt wegen der ach so beschissenen Ich nicht. Ich finde das HQ-AF ganz ordentlich, nur leider gibt es Fälle wo das offenbar doch wieder ausgehebelt wird.

Armaq
2006-01-25, 13:38:20
Nur weil der R420 kein PS.3 hatte? Der Vorsprung, gibt es überhaupt Einen :confused: , hat NV durch die Verzögerungen des R520 erhalten.

Aber Vorsprung seitens NV sehe ich nicht. NV muss noch auf 90nm,braucht HQAF(kein eigentlich Prob, naja bei NV weiß man nie), HDR + AA, das hat ATI schon geschafft.

Denke nicht, dass NV durch die Probs von ATI mit 90nm profitiert, obwohl ja beide bei TSMC fertigen lassen.

Natürlich hat man einen Zeitvorsprung, wenn man eine Technologie eher am Markt positioniert.

Danach kam der r520 mit gehöriger Verspätung. Man hat den Sommer über den Fehler gesucht und das hat mit Sicherheit Ressourcen verschlungen.
Nvidia konnte da munter vor sich hin basteln.
Ati hat jetzt bewiesen, dass sie mit dem r580 wieder aufgerückt sind. Einen Vorsprung hat nV dennoch.

Godmode
2006-01-25, 13:38:22
[Eric Demers] Yes, we did have to triple the granularity size. We also did have to triple the GPR resources, since we did not want to reduce the number of threads. Having said that, we have not seen a single case where R580 doesn't significantly beat an R520 in real shaders with flow control. The reality is that 16 pixels or 48 pixels, from a granularity standpoint, are very similar when there's millions of pixels out there being rendered. Both R520 and R580 run circles around any other architecture out there that supports the most advanced shaders with flow control. In fact, R580 runs circles around anything :-) We could construct artificial cases where the granularity increase would reduce performance, but those cases would probably have to have a good amount of ALU, and so would still be much faster due to the 3x ALU count, anyway...
:|

Jetzt weiß ich was Demirug damals gemeint hat, dass ATI die Effizienz des R520 beim DB nicht halten kann.

Chill187
2006-01-25, 13:44:11
Hier http://www.computerbase.de/artikel/...900_cf-edition/ gibts einen Test.

Werft mal einen Blick auf dei Temperaturen der Karten,is das nicht ein bischen zu heiss?

Ailuros
2006-01-25, 13:50:33
Ich nicht. Ich finde das HQ-AF ganz ordentlich, nur leider gibt es Fälle wo das offenbar doch wieder ausgehebelt wird.

Ich hol mir den Leistungsverlust durch Uebertaktung wieder rein. Wuerde ich heute aufruesten, wuerde ich mich aber zugegeben auch auf eine X1900 orientieren.

Gast
2006-01-25, 13:51:11
Ati hat jetzt bewiesen, dass sie mit dem r580 wieder aufgerückt sind. Einen Vorsprung hat nV dennoch.
Was für Vorsprung?
Hast du andere Tests gelesen?
Jetzt hat ATI einen Vorsprung.

(del676)
2006-01-25, 13:51:32
Hier http://www.computerbase.de/artikel/...900_cf-edition/ gibts einen Test.

Werft mal einen Blick auf dei Temperaturen der Karten,is das nicht ein bischen zu heiss?

zu heiß isses wenns abschmiert :)

deekey777
2006-01-25, 13:52:58
Hier http://www.computerbase.de/artikel/...900_cf-edition/ gibts einen Test.

Werft mal einen Blick auf dei Temperaturen der Karten,is das nicht ein bischen zu heiss?
Nein, ist es nicht: Die heiße Luft wird anders als bei der Konkurrenz nach außen geblasen.

Armaq
2006-01-25, 13:53:48
Was für Vorsprung?
Hast du andere Tests gelesen?
Jetzt hat ATI einen Vorsprung.

Technologisch. Implementieren von Sm3.

Gast
2006-01-25, 13:58:25
Technologisch. Implementieren von Sm3.
LOL?
Gerade technologisch hat ATI Nvidia mit HDR + AA überrollt. Darüber hinaus ist das AF technologisch besser.

"Dabei kommt hinzu, daß sich ATI bis auf einen Punkt keine Schnitzer leistet: Man hat weiterhin das bekannte qualitativ gute Anti-Aliasing, dazu kommt die mit dem R520-Chip verbesserte Filter-Qualität. HDR-Rendering kann zwar auch die Konkurrenz, aber nicht im Zusammenspiel mit Anti-Aliasing - in diesem Punkt ist ATI derzeit meilenweit vorn und es ist etwas verwunderlich, daß nVidia als derjenige Chip-Entwickler, der HDR-Rendering schon vor mehr als einem Jahr (mit dem NV40) möglich machte, bis dato dieses noch nicht mit einem unter HDR-Rendering funktionierendem Anti-Aliasing ausstatten konnte: Schließlich macht es gerade bei HighEnd-Grafikkarten wenig Sinn, für das eine Bildqualitäts-Feature (HDR-Rendering) ein anderes (Anti-Aliasing) opfern zu müssen."

http://www.3dcenter.de/artikel/2006/01-24.php

Raff
2006-01-25, 14:02:22
Nein, ist es nicht: Die heiße Luft wird anders als bei der Konkurrenz nach außen geblasen.

Dennoch werden die Karten ein klitzekleines bisschen heiß ... was man dann auch hören kann. ;) Und alles, was heiß ist, lohnt gekühlt zu werden ... gerade aus Sicht der Lebenszeit.

MfG,
Raff

trollkopf
2006-01-25, 14:04:17
Q&A with two folks at ATI:

http://www.beyond3d.com/reviews/ati/r580/int/

glaube das wurde noch nicht nerwähnt?

edit:
wurde es natürlich doch :redface:

deekey777
2006-01-25, 14:09:45
Dennoch werden die Karten ein klitzekleines bisschen heiß ... was man dann auch hören kann. ;) Und alles, was heiß ist, lohnt gekühlt zu werden ... gerade aus Sicht der Lebenszeit.

MfG,
Raff
Für einen Chip mit 384 Mio Transistoren und 625/650 MHz ist die Temperatur in Ordnung.

Q&A with two folks at ATI:

http://www.beyond3d.com/reviews/ati/r580/int/

glaube das wurde noch nicht nerwähnt?
Ach doch. :)

Raff
2006-01-25, 14:13:20
http://www.beyond3d.com/reviews/ati/r580/int/

As for the number of texture units, it's more based on available BW. The actual amount of memory BW per engine clock hasn't drastically changed since our 9700 products (ratio close to 3:4, now 7:8), but the textures have been more and more BW consuming (64b texels, larger 2kx2k or even 4kx4k textures are becoming more common). Consequently, if we scaled up the number of texture units, we would have been somewhat unbalanced compared to previous products, and with textures consuming even more BW, it would have been unbalanced for us.

In fact, I think that adding more texture is really somewhat backwards looking, were you want to shoot for high fillrates, especially in older games -- Newer games call for much more ALU instead. It's really if your designing for last year's games or next years. We chose next year's.

Das Problem wird auch Nvidia haben. Es sei denn, sie graben irgendwo ausreichend vorhandenen 1-GHz-Speicher aus. Hier steht jedenfalls deutlich, dass ATi eben auf die schöne neue Pixel-Shader-Welt schielt, die mehr und mehr nach Arithmetik-Power abfährt. Daher nur mehr ALUminiums. Scheint ja zu klappen. Und für alte Spiele hat man eh genug Füllrate. Wobei Nvidia sicher nicht schlecht mit mehr Texelpower fährt ... man verschenkt sie wohl nur. Aber kann man dann ja in SSAA investieren. ;)

€dit: Auf die Gefahr hin, dass das eine Wiederholung ist.

MfG,
Raff

Frank1974
2006-01-25, 14:15:02
Hallo

Hat schon einer eine 1900XT oder XTX, mich würde gerne ein Usertest interesieren, da gebe ich mehr drauf als auf die Reviews im Internet :wink:

Die Spiele sind egal, was ihr so habt.
Vielen Dank

MFG
Frank

up¦²
2006-01-25, 14:18:33
Nein, ist es nicht: Die heiße Luft wird anders als bei der Konkurrenz nach außen geblasen.

Finde ich übrigens nicht optimal:
weil das netzteil ja nach außen bläßt, szsg. saugt entsteht womöglich ein "luftstillstand", wenn sich beide kräfte aufheben.

Viel besser wäre ein breiter saugschlitz ohne rippen (zischen), wo dann zuerst kalte raumluft in den pc erst entlang der gpu muß.

Sternenkind
2006-01-25, 14:21:46
Hallo

Hat schon einer eine 1900XT oder XTX, mich würde gerne ein Usertest interesieren, da gebe ich mehr drauf als auf die Reviews im Internet :wink:

Die Spiele sind egal, was ihr so habt.
Vielen Dank

MFG
Frank

Würde mich auch interessieren aber bitte objektiv bleiben in JEDER Hinsicht. Danke. :)

Black-Scorpion
2006-01-25, 14:22:14
Hallo

Hat schon einer eine 1900XT oder XTX, mich würde gerne ein Usertest interesieren, da gebe ich mehr drauf als auf die Reviews im Internet :wink:

Die Spiele sind egal, was ihr so habt.
Vielen Dank

MFG
Frank
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3911615&postcount=737
Schau mal in seine Sig. ;)

jojo4u
2006-01-25, 14:25:22
Finde ich übrigens nicht optimal:
weil das netzteil ja nach außen bläßt, szsg. saugt entsteht womöglich ein "luftstillstand", wenn sich beide kräfte aufheben..

Meiner Meinung nach Unsinn. Demenstsprechend sollte man also auch keine Gehäuselüfter haben?

Sternenkind
2006-01-25, 14:28:13
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3911615&postcount=737
Schau mal in seine Sig. ;)

da sehe ich 3DMurkse einer x800...!?

Raff
2006-01-25, 14:30:24
da sehe ich 3DMurkse einer x800...!?

Die erste Zeile der Signatur. ;)

MfG,
Raff

reunion
2006-01-25, 14:31:21
Du kennst Skynets Kontakte nicht, und er hat Recht ;)

Wenn das die gleichen, mysteriösen Kontakte sind, die behauptet haben, dass nV innerhalb kürzester Zeit mit einer neuen Treiberversion wieder winkelunabhängiges AF anbietet, dann gute Nacht.

Sternenkind
2006-01-25, 14:32:02
@ Raff

UUUUUUUUUUUUUUUUUUUUUUUUNNNNNNNNNNNNNDDDDDDDDDDDD?!?! Ne x1900xtx... macht noch lange keinen Bericht. ;-)

Spasstiger
2006-01-25, 14:37:05
Hier http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/ gibts einen Test.

Werft mal einen Blick auf dei Temperaturen der Karten,is das nicht ein bischen zu heiss?

Zu heiß ist das noch nicht, auch wenns beim Overclocking eine Hürde darstellen könnte.
Sind aber immerhin 30 Watt mehr an Wärme als bei einer GeForce 7800 GTX 512.

Wer High-End kauft, sollte sich daran aber nicht stören.

MadManniMan
2006-01-25, 14:39:35
Wenn das die gleichen, mysteriösen Kontakte sind, die behauptet haben, dass nV innerhalb kürzester Zeit mit einer neuen Treiberversion wieder winkelunabhängiges AF anbietet, dann gute Nacht.

Achja, ich erinnere mich...

tombman, wirds nicht Zeit für ne Entschuldigung? Was haste mich ausgelolt, als ich anzuzweifeln wagte, daß WU-AF per Treiber hinterherkommt :|

up¦²
2006-01-25, 14:40:09
Meiner Meinung nach Unsinn. Demenstsprechend sollte man also auch keine Gehäuselüfter haben?

Wieso?
denk doch mal nach! :wink:
wenn sie luft reinblasen, ok!
Dann wird ja der luftstrom verbessert!

SKYNET
2006-01-25, 14:40:10
LOL?
Gerade technologisch hat ATI Nvidia mit HDR + AA überrollt. Darüber hinaus ist das AF technologisch besser.

"Dabei kommt hinzu, daß sich ATI bis auf einen Punkt keine Schnitzer leistet: Man hat weiterhin das bekannte qualitativ gute Anti-Aliasing, dazu kommt die mit dem R520-Chip verbesserte Filter-Qualität. HDR-Rendering kann zwar auch die Konkurrenz, aber nicht im Zusammenspiel mit Anti-Aliasing - in diesem Punkt ist ATI derzeit meilenweit vorn und es ist etwas verwunderlich, daß nVidia als derjenige Chip-Entwickler, der HDR-Rendering schon vor mehr als einem Jahr (mit dem NV40) möglich machte, bis dato dieses noch nicht mit einem unter HDR-Rendering funktionierendem Anti-Aliasing ausstatten konnte: Schließlich macht es gerade bei HighEnd-Grafikkarten wenig Sinn, für das eine Bildqualitäts-Feature (HDR-Rendering) ein anderes (Anti-Aliasing) opfern zu müssen."

http://www.3dcenter.de/artikel/2006/01-24.php

oh-ja, technologisch ist ATI vorne.... besonders weil sie immernoch kein echtes SM3.0 haben.... siehe signatur! :P

Frank1974
2006-01-25, 14:43:12
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3911615&postcount=737
Schau mal in seine Sig. ;)

Ja schon klar er hat eine, aber ich wollte Aussagekräftige Benchmarks, von Spielen :rolleyes:
Am besten einen kompletten Usertest, mit BQ(schöne Shots von Spielen), Lautstärke, Wärmeentwicklung usw.

MFG
Frank

Gast
2006-01-25, 14:45:47
LOL die CONNECT 3D Radeon X1900XTX 512MB ist schon ausverkauft ! Gut das ich gestern noch eine für 618,-€ bestellt habe :)

Black-Scorpion
2006-01-25, 14:46:14
oh-ja, technologisch ist ATI vorne.... besonders weil sie immernoch kein echtes SM3.0 haben.... siehe signatur! :P
Stimmt, deine Sig sagt alles.
Vorallem der erste Punkt sagt deutlich woher bei dir der Wind weht.

'edit' Zitat hinzugefügt

Sternenkind
2006-01-25, 14:47:05
Oh Skynet, war ja klar das das kommen würde. Bitte keine 'Echtes/Unechtes SM3/HDR/Haumichtot' Diskussion...entscheidend ist was der User auf dem Bildschirm zu sehen bekommt. ATI wins again...got it?

(del676)
2006-01-25, 14:47:07
Wenn das die gleichen, mysteriösen Kontakte sind, die behauptet haben, dass nV innerhalb kürzester Zeit mit einer neuen Treiberversion wieder winkelunabhängiges AF anbietet, dann gute Nacht.

joa, unsere beiden "insider" verbreiten gerne irgendwelche "insider" news und hoffen dann dass man drauf vergisst X-D

martma
2006-01-25, 14:47:39
Ja schon klar er hat eine, aber ich wollte Aussagekräftige Benchmarks, von Spielen :rolleyes:
Am besten einen kompletten Usertest, mit BQ(schöne Shots von Spielen), Lautstärke, Wärmeentwicklung usw.

MFG
Frank


Ich hab gerade noch eine X1900XTX von Saphhire bei Arlt in Augsburg bekommen. Sobald ich zuhause bin, kommen die ersten Ergebnisse.

Gast
2006-01-25, 14:49:19
oh-ja, technologisch ist ATI vorne.... besonders weil sie immernoch kein echtes SM3.0 haben.... siehe signatur! :P
:rolleyes:
Kein echtes SM3?
Dann eben unechtes SM3...
Hauptsache SM3 :P
Und was sagst du zu den anderen Punkten?
AF?
HDR + AA?

BTW wenn ich mir die Dynamic Branching Performance ansehe, könnte ich auch behaupten, dass der g70 kein SM3-Chip ist, weil der Sinn (mehr Performance)von DB je nach Situation nicht erfüllt wird. ;)

Black-Scorpion
2006-01-25, 14:49:53
Ja schon klar er hat eine, aber ich wollte Aussagekräftige Benchmarks, von Spielen :rolleyes:
Am besten einen kompletten Usertest, mit BQ(schöne Shots von Spielen), Lautstärke, Wärmeentwicklung usw.

MFG
Frank
Schicke ihm doch mal eine PM.
Ich kann mir aber nicht vorstellen das er auch so eine Geduld hat wie misterh bei seinen Thread hat. ;)

Undertaker
2006-01-25, 14:52:23
oh-ja, technologisch ist ATI vorne.... besonders weil sie immernoch kein echtes SM3.0 haben.... siehe signatur! :P

nenn mir doch bitte eine anwendung, in der die aktuellen x1800/1900 etwas aufgrund dieser, deiner meinung nach nicht vollständig erfüllten, spezifikation nicht darstellen können :)

und von der shaderpower her sind die x1900 dem aktuellen g70 / dem kommenden g71 deutlich überlegen, weswegen ich mir auch noch nicht so sicher wäre das die 7900(?) die 1900xtx überflügeln wird, noch mehr füllrate wird auf absehbare zeit einfach nicht benötigt :)

das rührt nicht zuletzt daher, dass ich den g71 bei ~550-625mhz chiptakt sehe, beim speicher wird fast keinerlei steigerung möglich sein

was deine ominösen kontakte sagen glaube ich nicht (am ende wollen die dich ja nur verarschen...?) :)

Frank1974
2006-01-25, 14:53:03
Stimmt, deine Sig sagt alles.
Vorallem der erste Punkt sagt deutlich woher bei dir der Wind weht.

Ähm könnstest du bitte genauer erklären was du mit deinem Post sagen willst, ich weiß ehrlich gesagt nicht wovon du sprichts :confused:

MFG
Frank

tRpii
2006-01-25, 14:54:34
oh-ja, technologisch ist ATI vorne.... besonders weil sie immernoch kein echtes SM3.0 haben.... siehe signatur! :P

Was bringt einem "echtes SM3.0" wenn die Performance unter AA/AF teilweise erschreckend ist? Zumal spiele ich das Game und sitze nicht davor und überlege mir, ob ein paar Effekte nun echt oder etwas ähnliches sind.

Gast
2006-01-25, 14:54:59
Ähm könnstest du bitte genauer erklären was du mit deinem Post sagen willst, ich weiß ehrlich gesagt nicht wovon du sprichts :confused:

MFG
Frank
Er meinte Skynet...nicht dich ;)

Frank1974
2006-01-25, 14:57:43
Schicke ihm doch mal eine PM.
Ich kann mir aber nicht vorstellen das er auch so eine Geduld hat wie misterh bei seinen Thread hat. ;)

Wieso Geduld, wo ich meine GTX bekommen habe, lies ich sie auch bei den Spielen die ich habe überall durchlaufen, so ein Aufwand ist das nicht er muss ja nur eine Karte Testen, nicht wie die Reviews einen ganzen Haufen.
Es sollte auf jedenfall einer einen Usertest machen, damit alle hier im Forum was davon haben.

MFG
Frank

Black-Scorpion
2006-01-25, 14:59:17
Ähm könnstest du bitte genauer erklären was du mit deinem Post sagen willst, ich weiß ehrlich gesagt nicht wovon du sprichts :confused:

MFG
Frank
Habe es oben editiert.
Hier schreiben so viele und das zu schnell. ;)

reunion
2006-01-25, 14:59:25
Wie immer das beste Review - Xbitlabs: The Fast and Furious: ATI Radeon X1900 XTX Review (http://www.xbitlabs.com/articles/video/display/radeon-x1900xtx.html)
Auch wenn nur mit Q und Cat. 6.1 gebencht wurde.

Odal
2006-01-25, 15:00:36
mich würde auchmal interessieren wieviel die karten overclocking mässig mitmachen. ist dahingehend schon was bekannt?

nicht das ich mir jetzt eine x1900xt oder eine 7900 kaufen möchte, sowas kommt dann vielleicht im herbst in meinen Rechner.

BodyLove
2006-01-25, 15:00:45
Wieso Geduld, wo ich meine GTX bekommen habe, lies ich sie auch bei den Spielen die ich habe überall durchlaufen, so ein Aufwand ist das nicht er muss ja nur eine Karte Testen, nicht wie die Reviews einen ganzen Haufen.
Es sollte auf jedenfall einer einen Usertest machen, damit alle hier im Forum was davon haben.

MFG
Frank


Naja, kannst du dieses Spiel in der Auflösung, mit dem HQ-Details und AA und AF, danach andere Auflösung, ohne AA mit AF, dann doch AA, aber bitte mit AF. Dann ein anderes Spiel, mit genau dem Prozedere, wie auch im vorigen Spiel. Misterh hat einiges geleistet. Ich will dich in solch einer Situation erleben. Ich selbst würde irgendwann, tschüss sagen.:)

mapel110
2006-01-25, 15:02:01
Wie immer das Beste:
Xbitlabs: http://www.xbitlabs.com/articles/video/display/radeon-x1900xtx.html
http://www.xbitlabs.com/articles/video/display/radeon-x1900xtx_19.html
Für mich sieht das so aus, als ob speziell bei Farcry HDR eher an der Shaderpower hängt als an der Speicherbandbreite. Wie sonst soll so eine Steigerung zustande kommen?!
/edit
Zumindest ist das bei ATI so. Bei nvidia bremst wohl wirklich die Bandbreite...

up¦²
2006-01-25, 15:04:27
http://www.xbitlabs.com/articles/video/display/radeon-x1900xtx_19.html
Für mich sieht das so aus, als ob speziell bei Farcry HDR eher an der Shaderpower hängt als an der Speicherbandbreite. Wie sonst soll so eine Steigerung zustande kommen?!

Sorry, wenn ich mich 'reinhänge', aber das wird doch schon an hand von AoE3 deutlich!
Wie soll man das sonst erklären?

Gast
2006-01-25, 15:04:27
http://www.xbitlabs.com/articles/video/display/radeon-x1900xtx_19.html
Für mich sieht das so aus, als ob speziell bei Farcry HDR eher an der Shaderpower hängt als an der Speicherbandbreite. Wie sonst soll so eine Steigerung zustande kommen?!
/edit
Zumindest ist das bei ATI so. Bei nvidia bremst wohl wirklich die Bandbreite...
Vielleicht ist der Speicher-Kontroller des R580 nicht nur Marketing...

ALT_F4
2006-01-25, 15:05:30
Hallo könnte auch einen Usertest machen Ihr müsstet mir aber sagen was Ihr wollt

Black-Scorpion
2006-01-25, 15:06:45
Wieso Geduld, wo ich meine GTX bekommen habe, lies ich sie auch bei den Spielen die ich habe überall durchlaufen, so ein Aufwand ist das nicht er muss ja nur eine Karte Testen, nicht wie die Reviews einen ganzen Haufen.
Es sollte auf jedenfall einer einen Usertest machen, damit alle hier im Forum was davon haben.

MFG
Frank
Das Geduld bezog sich darauf sich z.T. die Demo extra runterzuladen oder das Game extra zu kaufen weil es jemand gebencht haben wollte.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=255007
Schau dir den Thread mal an, dann weißt du was mit Geduld gemeint war.

Frank1974
2006-01-25, 15:06:52
Naja, kannst du dieses Spiel in der Auflösung, mit dem HQ-Details und AA und AF, danach andere Auflösung, ohne AA mit AF, dann doch AA, aber bitte mit AF. Dann ein anderes Spiel, mit genau dem Prozedere, wie auch im vorigen Spiel. Misterh hat einiges geleistet. Ich will dich in solch einer Situation erleben. Ich selbst würde irgendwann, tschüss sagen.:)

Da verstehen wir uns falsch, ich meinte einen fertigen Test nur mit Spielen die er auswählt, so machen es die Reviews im Netzt ja auch, wenn Spiele dabei sind die man nicht hat, ist es halt pech, aber die 3Dmarks sollte eh jeder haben.
Computerbase oder die anderen Seiten, testen ja auch nur einen Bruchteil aller Spiele, damit muss man sich halt auch zufrieden geben.

MFG
Frank

reunion
2006-01-25, 15:07:01
Hier ein sehr schöner Vergelich, der zeigt, dass R580 noch immer ein Winzling ist:

http://www.xbitlabs.com/images/video/radeon-x1900xtx-illustrations/chips_sm.jpg

http://www.xbitlabs.com/articles/video/display/radeon-x1900xtx_6.html

mapel110
2006-01-25, 15:07:36
Sorry, wenn ich mich 'reinhänge', aber das wird doch schon an hand von AoE3 deutlich!
Wie soll man das sonst erklären?
Bei AOE3 verwenden die ATI-Karten wohl nicht das "echte" HDR, sondern geringere Genauigkeit.

jojo4u
2006-01-25, 15:14:41
Wie immer das beste Review - Xbitlabs: The Fast and Furious: ATI Radeon X1900 XTX Review (http://www.xbitlabs.com/articles/video/display/radeon-x1900xtx.html)

Hmmm...
- kein high-quality bei nvidia
- ignoriert Spannungsdifferenz XT->XT bei Interpolierung der XTX Verlustleistung
- jeweils kein Transparency Antialiasing aktiviert

Odal
2006-01-25, 15:15:36
Hallo könnte auch einen Usertest machen Ihr müsstet mir aber sagen was Ihr wollt

übertaktest du auch? mich würde persönlich interessieren was so eine x1900XT ohne hardware oder biosmodifikationen taktmässig so mitmachen.

und dann bitte mal Fear, COD2, HL2 und Q4 benchen.

was für einen treiber hast du? schon den 6.2beta?

Undertaker
2006-01-25, 15:16:53
Hallo könnte auch einen Usertest machen Ihr müsstet mir aber sagen was Ihr wollt

wenn vom monitor möglich bitte aktuelle games in 1920x1200 :)

mapel110
2006-01-25, 15:17:01
http://www.xbitlabs.com/articles/video/display/radeon-x1900xtx_10.html
So beeindruckend sieht das dynamic branching beim X1800 aber nicht aus. Bei x1900 schon deutlich besser, obwohl da ja eigentlich eher das Gegenteil spekuliert wurde.
Oder zeigen die letzten 3 Werte was anderes?!
:|

Demirug
2006-01-25, 15:22:53
http://www.xbitlabs.com/articles/video/display/radeon-x1900xtx_10.html
So beeindruckend sieht das dynamic branching beim X1800 aber nicht aus. Bei x1900 schon deutlich besser, obwohl da ja eigentlich eher das Gegenteil spekuliert wurde.
Oder zeigen die letzten 3 Werte was anderes?!
:|

Branching Effizienz kann man eigentlich nicht mit FPS messen. Bei der X1900 spielt da ja die höhere Rechenleistung mit rein.

Guest
2006-01-25, 15:25:28
Zdnet hat mall wieder die qualität der beiden graka Spezialisten verglichen.
http://www.zdnet.de/enterprise/client/0,39023248,39140380-7,00.htm
:)


Sieht genauso beschissen wie bei GT Legends aus. Warum ist bei Rennspielen+ G70 die Qualität so mies?

Frank1974
2006-01-25, 15:26:53
Ich komme mir richtig Verarscht vor mit meiner 7800GTX, die ist am 22.06.2005 erschienen als sogenannte Highend Karte, dann kam die GTX512 nur 4 Monate später, dann kurze Zeit danach die 1800XT und jetzt die 1900XT bzw XTX, wenn ich mir dieses Traurige Bild der 7800GTX anschaue

http://www.anandtech.com/video/showdoc.aspx?i=2679&p=12

muss ich mir die Frage stellen habe ich jetzt nur noch Lowend oder was?

MFG
Frank

Mumins
2006-01-25, 15:28:35
Sieht genauso beschissen wie bei GT Legends aus. Warum ist bei Rennspielen+ G70 die Qualität so mies?

Genau das ist der Grund warum ich demnächst auf die X1900 wechseln werde. Bei einer Stunde GTLegends am Tag mit der 7800GT bekomme ich langsam Augenkrebs. Überall flimmerts und flackerts und für 4S oder 8S langt die Power nicht.

ShadowXX
2006-01-25, 15:32:06
nenn mir doch bitte eine anwendung, in der die aktuellen x1800/1900 etwas aufgrund dieser, deiner meinung nach nicht vollständig erfüllten, spezifikation nicht darstellen können :)


VTF (Vertex Texture Fetch) wird benutzt in: Chronicles of Narnia, Pacific Fighter, Pitfall: Lost Expedition, Powerdrome, etc.

Ob das jetzt innerhalb der Games nV "monströse" vorteile gegenüber den ATIs was bringt, kann ich natürlich nicht sagen.

Aber man sollte diesen kleinen lapsus seitens ATI auch nicht ganz unter den Tisch kehren, da es (wie man sieht) durchaus Games gibt die es benutzen....

Undertaker
2006-01-25, 15:34:08
und wie äußert sich das in der praxis? was fehlt? screens bitte :)

mapel110
2006-01-25, 15:36:05
Genau das ist der Grund warum ich demnächst auf die X1900 wechseln werde. Bei einer Stunde GTLegends am Tag mit der 7800GT bekomme ich langsam Augenkrebs. Überall flimmerts und flackerts und für 4S oder 8S langt die Power nicht.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=268345&highlight=gtl+flimmert
Wenn du deine Karte hast, kannst du bitte mal in dem Thread deine Erfahrungen posten.
und wie äußert sich das in der praxis? was fehlt? screens bitte :)
Das Wasser wird bei Pacific Fighters damit dargestellt. Habs selbst aber noch nicht gesehen. (Das Game gibts schon für 10 €. Hm, mal schauen ob ichs mir nachher mal hole.)

ShadowXX
2006-01-25, 15:42:56
und wie äußert sich das in der praxis? was fehlt? screens bitte :)

Alles lesen bitte:


Ob das jetzt innerhalb der Games nV "monströse" vorteile gegenüber den ATIs was bringt, kann ich natürlich nicht sagen..


Da ich weder die Games noch eine 7800GTX (nicht mehr) habe, kann ich dir nicht sagen, was der visuelle Unterschied ist.

Er wird aber wohl vorhanden sein, da speziell Narnia (habs mal bei einem Kumpel gespielt) am Anfang großspurig darüber erzählt (in Textform), das bestimmte Sachen nur auf nV-HW dargestellt werden können.

Bei Pacif Fighter gibts es auch definitiv bei nV eine andere (bessere, aber wesentlich langsamere) Wasserdarstellung dadurch...

StefanV
2006-01-25, 16:00:24
An sich toll, nur leider mit ein paar Fehlern aus meiner Sicht:

verringerte Taktraten: 500Mhz Core
nur 256MB Speicher
Eigentlich wollte ich meine AIW 9800 Pro mit der ablösen, aber das werd ich mir schwer überlegen. Hatte echt gehofft, ATI hatte die performancetechnische Unterscheidung in Gamer und Multimedia endgültig aufgegeben. Schade.
Ich denke, das diese Einschränkung leider notwendig ist, um überhaupt ein funktionierendes Produkt zu bekommen.

Bei der 8500DV ists besonders deutlich, der Takt jenes Teiles wurde stark gesenkt, allerdings steckt auch entsprechend viel auf der Karte!

StefanV
2006-01-25, 16:01:00
Das Wasser wird bei Pacific Fighters damit dargestellt. Habs selbst aber noch nicht gesehen. (Das Game gibts schon für 10 €. Hm, mal schauen ob ichs mir nachher mal hole.)
Falsch, PF nutzt OGL und entsprechend eine nV Extension, ergo falsche Baustelle.

ALT_F4
2006-01-25, 16:02:07
was spricht für Ati :)

Bildqualität:

Kantenglättung (FSAA) besser als bei Nvidia
Adaptive Kantenglättung besser als Nvidia
HDR mit FSAA die Geforce kann nicht beides zusammen
Anisotrope Texturfilterung High Quality AF Modus, indem Objekte und Texturen in allen Winkeln optimal gefiltert werden.


Was bitte hat Nvidia entgegenzusetzten ? Texturflimmern ? Hehe

Gast
2006-01-25, 16:02:09
Falsch, PF nutzt OGL und entsprechend eine nV Extension, ergo falsche Baustelle.Ja und? Trotzdem nutzt es VTF für das Wasser. Ob jetzt OpenGL o. D3D ist in dem Zusammenhang vollkommen egal.

Gast
2006-01-25, 16:03:22
Was bitte hat Nvidia entgegenzusetzten ? Texturflimmern ? HeheMuss dieses Sticheln denn wirklich sein? Du weißt doch genau, dass nach so einem Satz gleich wieder ein paar beleidigte Fanboys aus den Löchern gekrochen kommen.

reunion
2006-01-25, 16:03:52
ATi scheint beim Video Playback deutliche Vorteile zu haben:

http://www.xbitlabs.com/articles/video/display/radeon-x1900xtx_13.html

StefanV
2006-01-25, 16:04:31
Willst du sagen, Ati lügt?
Ich glaube nicht.

Q
Ich auch nicht, es kann aber sein, das sie sich geirrt haben, got Radeon 8500? ;)

ALT_F4
2006-01-25, 16:05:19
Sorry gast hast recht :) Entschuldigung Fanboys :biggrin:

Gast
2006-01-25, 16:06:38
[Eric Demers] Yes, we did have to triple the granularity size.We also did have to triple the GPR resources, since we did not want to reduce the number of threads. Having said that, we have not seen a single case where R580 doesn't significantly beat an R520 in real shaders with flow control. The reality is that 16 pixels or 48 pixels, from a granularity standpoint, are very similar when there's millions of pixels out there being rendered. Both R520 and R580 run circles around any other architecture out there that supports the most advanced shaders with flow control. In fact, R580 runs circles around anything :-) We could construct artificial cases where the granularity increase would reduce performance, but those cases would probably have to have a good amount of ALU, and so would still be much faster due to the 3x ALU count, anyway...

thade
2006-01-25, 16:13:36
Sollte es NV tatsächlich schaffen beim G71 HDR+AA, HQAF, weniger Leistungsverlust bei Qualieinstellungen, Speed auf dem Level von einem R580, zu haben, dann würde ich dem G71 positiv entgegen sehen.

Sollten sie nur ein Speedupdate bringen, nur um den R580 zu schlagen, dann hat NV bei mir endgültig verspielt. Wer dann immer noch auf Seiten dieser Firma ist, der sollte sich mal klar sein, dass NV die Kunden nur verarscht.

ATI hat jetzt alle Vorteile auf ihrer Seite. War ja die X1800 schon besser als der G70, nur an Speed fehlte es halt. Und auf was schauen die Kiddis? Auf den Speed, denn ein Kiddi kauft sich doch keine Graka die nur den 2. Längsten hat.

Naja so ist das halt, ATI is back, NV muss nachziehen. :)

Gouvernator
2006-01-25, 16:15:59
So, etwas COD2 gezockt 1600x1200 2xaa,16af : 30-35 fps. 2048x1536 6xAA+AAA+HQ AF : 20 fps sieht saugeil aus . Eigentlich will man nix mehr, das Spiel läuft ruckelfrei wie auf einer Konsole, mit 2048x1536 habe ich einige Levels durchgehalten . BF2 läuft mit 40-50 fps bei 2048x1536 6xAA, bei HQ AAA mit 20-25. Serious Sam 2 ist mit 1600x1200 ohne AA aber mit max. Details 50-70 fps spielbar, HDR geht nicht.
Nature 2003 : ohne AA - 120 fps, mit 6xAA - 100fps , 1600x1200 6xAA - 68 fps

mapel110
2006-01-25, 16:16:25
Sollte es NV tatsächlich schaffen beim G71 HDR+AA, HQAF, weniger Leistungsverlust bei Qualieinstellungen, Speed auf dem Level von einem R580, zu haben, dann würde ich dem G71 positiv entgegen sehen.

Sollten sie nur ein Speedupdate bringen, nur um den R580 zu schlagen, dann hat NV bei mir endgültig verspielt. Wer dann immer noch auf Seiten dieser Firma ist, der sollte sich mal klar sein, dass NV die Kunden nur verarscht.

ATI hat jetzt alle Vorteile auf ihrer Seite. War ja die X1800 schon besser als der G70, nur an Speed fehlte es halt. Und auf was schauen die Kiddis? Auf den Speed, denn ein Kiddi kauft sich doch keine Graka die nur den 2. Längsten hat.

Naja so ist das halt, ATI is back, NV muss nachziehen. :)
Wenn nvidia wieder vorbeizieht in Sachen Speed, haben wir die gleiche Situation wie vor der X1900. So what?!

thade
2006-01-25, 16:21:48
Wenn nvidia wieder vorbeizieht in Sachen Speed, haben wir die gleiche Situation wie vor der X1900. So what?!

Das ist zu befürchten, genauso wird auch NV denken. Also könnt ihrs vergessen, der G71 wird nur ein Speedupdate, also schreibe ich den Chip schon ab. Denn sollte es wirklich so kommen, was nützt einem eine Highend Karte, die kein HDR und AA kann? Ist doch total lächerlich.

Aber die NVler und ihre Doppelmoral......

Armaq
2006-01-25, 16:26:13
Aber die NVler und ihre Doppelmoral......

Oh Gott. Wann hört denn dieser Mist endlich auf. Ich glaube einige Spezialisten haben ihre Meinung hier mindestens ein 12x kund getan. Es reicht. Wir wissen wer wen besser findet. Danke.
Das ist nicht nur an Lucian gerichtet, sondern auch an den Rest.

Odal
2006-01-25, 16:28:27
finde auch das Spiele ohne AA unbrauchbar sind. 2xAA und 4xAF ist das minimum was man einstellen müssen kann. Wenn HDR erzwingt das AA aus ist ist das unbrauchbar und nicht spielbar.

Gast
2006-01-25, 16:29:28
Wir wissen wer wen besser findet. Danke.

:confused:
Warum so angesäuert?
Ich glaube nicht, dass es hier viele gibt, die nur einer Firma huldigen.
Man nimmt einfach, was besser ist.
Und das ist zur Zeit ATI, dazu noch recht deutlich.

desert
2006-01-25, 16:31:29
und direct3d. das glitzerwasser gibts aber nur unter opengl afaik. Und es sieht um klassen besser aus. und mit einer gf7XXX läuft es auch in einer guten geschwindigkeit. Kann gerne nachher wenn ich zuhause bin bilder von posten.

Spiele es in 1024 X 768, 4aa und 16 af mit tsaa und habe so im schnitt 30 - 40 fps, über land wenn keine große wasserflächen auch mit 60 fps

TrigPe
2006-01-25, 16:31:40
was spricht für Ati :)

Bildqualität:

Kantenglättung (FSAA) besser als bei Nvidia
Adaptive Kantenglättung besser als Nvidia
HDR mit FSAA die Geforce kann nicht beides zusammen
Anisotrope Texturfilterung High Quality AF Modus, indem Objekte und Texturen in allen Winkeln optimal gefiltert werden.


Was bitte hat Nvidia entgegenzusetzten ? Texturflimmern ? Hehe

...vernünftige Linuxtreiber. Ich könnte jedesmal kotzen wenn ich Linux starte. Sobald NV wuAF anbietet, wird meine ATI in hohem Bogen aus dem Rechner fliegen.


MfG

doom1
2006-01-25, 16:32:09
Ironie ON
wollen wir nicht hoffen das sie es aufeinmal mit einem Treiber gerichtet bekommen denn dann............
Ironie OFF

thade
2006-01-25, 16:32:19
Wir wissen wer wen besser findet.

Wäre NV um Klassen besser als ATI, würd ich wohl kaum so auf NV Schimpfen. NV ist nicht schlecht, das sagt ja keiner, vom Speed sind se ne Wucht, ATI hat im !Moment! eindeutige Vorteile. NVs Speedvorteil ist weg, was bleibt dann noch?

TrigPe
2006-01-25, 16:36:21
Ironie ON
wollen wir nicht hoffen das sie es aufeinmal mit einem Treiber gerichtet bekommen denn dann............
Ironie OFF

... würde ich bei ATI bleiben. ;) Allein, mir fehlt der Glaube.


MfG

Spasstiger
2006-01-25, 16:36:40
So, etwas COD2 gezockt 1600x1200 2xaa,16af : 30-35 fps. 2048x1536 6xAA+AAA+HQ AF : 20 fps sieht saugeil aus . Eigentlich will man nix mehr, das Spiel läuft ruckelfrei wie auf einer Konsole, mit 2048x1536 habe ich einige Levels durchgehalten . BF2 läuft mit 40-50 fps bei 2048x1536 6xAA, bei HQ AAA mit 20-25. Serious Sam 2 ist mit 1600x1200 ohne AA aber mit max. Details 50-70 fps spielbar, HDR geht nicht.
Nature 2003 : ohne AA - 120 fps, mit 6xAA - 100fps , 1600x1200 6xAA - 68 fps

Klingt gut!
Falls du Half-Life 2 hast, könntest du mal den Benchmark von Lost Coast ausführen? Ein Komilitone kommt mit seiner Radeon X1800 XT 512 MB @ 1600x1200 mit 6x adaptivem AA, 16:1 HQ-AF, höchste Details + HDR auf gerundete 46 fps.

tRpii
2006-01-25, 16:38:22
Wenn nvidia wieder vorbeizieht in Sachen Speed, haben wir die gleiche Situation wie vor der X1900. So what?!

Und das ist leider das Problem, würde mehr auf die BQ geachtet als auf die Performance, dann hätten wir heute ein ganz anderes Bild. ATi könnte mit verminderter BQ sicherlich auch noch das ein oder andere Prozentchen rausholen, aber ich finde es gut, dass sie einen "etwas" andere Weg gehen.

Ich hoffe stark, dass nVIDIA etwas an sich arbeitet und die BQ verbessert und nicht immer nur auf die Performance-Krone aus ist.

Ich persönlich nehme lieber weniger FPS dafür eine bessere BQ in kauf.

ALT_F4
2006-01-25, 16:42:05
@tRpii da stimme ich dir 100 pro zu :cool:

PingpiN
2006-01-25, 16:43:47
Alle die jetzt schon eine X1900 Karte haben!macht mall bitte ein fetten Far Cry HDR-AA Shoot und zwar in 2000 nochwas auflösung bitte. :cool: :)

Spasstiger
2006-01-25, 16:44:52
Ich muss übrigens sagen, dass HQ-AF ist nicht nur Marketing, es bringt wirklich sichtbar was. Auf dem Rechner des oben genannten Komilitonen mit der X1800 XT kamen mir die Texturen in Lost Coast außergewöhnlich scharf vor (vor allem beim Flug durchs Level im Benchmark), das hab ich mit meiner Radeon 9700 einen Tick schlechter erlebt (und natürlich stark ruckelnd). Und das obwohl ich meinen Monitor von der Farbwiedergabe und vom Kontrast her besser einschätze als den vom Komilitonen.
HQ-AF ist bei ihm dauerhaft aktiv, gibt ja auch keinen Grund, das abzuschalten.

P.S.: Geschwindigkeitsgewinn bei Abschalten von adaptivem AA und HQ-AF, also bei Verwendung von klassischen MSAA und Standard-AF, beträgt 9 fps, von 46 auf 55 fps (@X1800 XT @Lost Coast @Settings siehe Posting oben).

Undertaker
2006-01-25, 16:45:53
mal ne frage: wenn der g70 kein hdr+aa kann, wie kann computerbase dies bei lost coast dann benchen?

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/21/#abschnitt_hl2_lost_coast

oder liegt das daran, das es sich um dieses merkwürige abgespeckte hdr handelt, welches auch auf r420/480 läuft?

PingpiN
2006-01-25, 16:46:55
mal ne frage: wenn der g70 kein hdr+aa kann, wie kann computerbase dies bei lost coast dann benchen?

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/21/#abschnitt_hl2_lost_coast
Lost coast verwendet nur 8 Bit HDr oder so ähnlich. :cool: :mad:

ShadowXX
2006-01-25, 16:48:03
mal ne frage: wenn der g70 kein hdr+aa kann, wie kann computerbase dies bei lost coast dann benchen?

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/21/#abschnitt_hl2_lost_coast

Valve benutzt quasi ein SoftwareHDR.....deshalb gehts.

doom1
2006-01-25, 16:50:25
So, etwas COD2 gezockt 1600x1200 2xaa,16af : 30-35 fps. 2048x1536 6xAA+AAA+HQ AF : 20 fps sieht saugeil aus . Eigentlich will man nix mehr, das Spiel läuft ruckelfrei wie auf einer Konsole, mit 2048x1536 habe ich einige Levels durchgehalten . BF2 läuft mit 40-50 fps bei 2048x1536 6xAA, bei HQ AAA mit 20-25. Serious Sam 2 ist mit 1600x1200 ohne AA aber mit max. Details 50-70 fps spielbar, HDR geht nicht.
Nature 2003 : ohne AA - 120 fps, mit 6xAA - 100fps , 1600x1200 6xAA - 68 fps

Was für ein Treiber 6.1?

Sk_Antilles
2006-01-25, 17:01:12
und direct3d. das glitzerwasser gibts aber nur unter opengl afaik. Und es sieht um klassen besser aus. und mit einer gf7XXX läuft es auch in einer guten geschwindigkeit. Kann gerne nachher wenn ich zuhause bin bilder von posten.

Das es mit einer GF7xxx gut läuft, dafür würde ich meine Hand nicht ins Feuer legen, denn es gibt auch inzwischen eine GF7300 mit fetter 64bit Speicheranbindung. ;)

mapel110
2006-01-25, 17:08:09
... würde ich bei ATI bleiben. ;) Allein, mir fehlt der Glaube.


MfG
Und das zu Recht. Der Linuxtreiber hat bei ATI keine Priorität. Da arbeitet meist nur ein Mann dran.

Interview ist ein paar Monate alt.
http://hardwarefanatics.com/modules.php?name=News&file=article&sid=6&page=7
HF – How much time is your team spending on driver development for your Linux drivers these days?

TM – It’s not a matter of time, but rather a matter of how many people. Our plan is to have a team that is proportional to the size of each market. So, hypothetically speaking, if the whole PC market is 90% Windows, 5% Linux and 5% Mac, our development teams are structured to roughly reflect those proportions.

Gast
2006-01-25, 17:15:32
So wie es ATI praesentiert haben sie zuerst extra Transistoren in hoeherer Bildqualitaet investiert und dann spaeter mit R580 noch mit extra ALU-Leistung und natuerlich nochmal mehr Transistoren nachgeladen.

Das Problem ist eben IMO dass R520 viel zu spaet ankam.
Hm? Nein, das meinte ich nicht. Es ging mir um den 4*4 vs. 12*4 Thread-Größen-Disput.


Q

Gast
2006-01-25, 17:23:37
Ich sag gar nichts.
http://www.beyond3d.com/reviews/ati/r580/int/index.php?p=04

To achieve this structure of tripling the Pixel Shader ALU's without tripling all the rest of the corresponding raster resources the shaders still use the same number of dispatch processors (four dispatch processors for both R520 and R580, each handling 128 batches/"threads") but is done so by increasing the number of pixels within a batch - i.e. 16 for R520 and 48 pixels for R580. Increasing the batch size should have ramifications on both overall shader efficiency and dynamic branching, how much of an impact do you see here?

[Eric Demers] Yes, we did have to triple the granularity size. We also did have to triple the GPR resources, since we did not want to reduce the number of threads. Having said that, we have not seen a single case where R580 doesn't significantly beat an R520 in real shaders with flow control. The reality is that 16 pixels or 48 pixels, from a granularity standpoint, are very similar when there's millions of pixels out there being rendered. Both R520 and R580 run circles around any other architecture out there that supports the most advanced shaders with flow control. In fact, R580 runs circles around anything :-) We could construct artificial cases where the granularity increase would reduce performance, but those cases would probably have to have a good amount of ALU, and so would still be much faster due to the 3x ALU count, anyway...
:|

Interessant. Aber komisch.
Danke jedenfalls.


Q

Gouvernator
2006-01-25, 17:24:32
Klingt gut!
Falls du Half-Life 2 hast, könntest du mal den Benchmark von Lost Coast ausführen? Ein Komilitone kommt mit seiner Radeon X1800 XT 512 MB @ 1600x1200 mit 6x adaptivem AA, 16:1 HQ-AF, höchste Details + HDR auf gerundete 46 fps.

57,22 fps ~+24%

Gast
2006-01-25, 17:27:00
Zweifelst du an der Macht?

http://www.digit-life.com/articles2/video/r580-part2.html#p5
Interessant ist der Tex-intersiver Test des D3D Rightmark Beta 4:
Was hat das eine mit dem anderen zu tun?
Ich redete von einem Performance-Vorsprung, der höher ist, als der rechnerische Vorsprung selbst bei nie erreichbarer, 100%iger Effizienz.


Q

Gast
2006-01-25, 17:32:13
Ich auch nicht, es kann aber sein, das sie sich geirrt haben, got Radeon 8500? ;)
Yep, i've got one.


Q

Spasstiger
2006-01-25, 17:34:48
57,22 fps ~+24%

Hm, nichts weltbewegendes, halt im Rahmen. Danke für deine Mühe. :)

up¦²
2006-01-25, 17:37:42
MSI ist auch aufgetaucht:

http://www.msi.com.tw/images/product_img/vga_img/V803_RX1900XT_XTX-VT2D512E.jpg

http://www.msi.com.tw/program/products/vga/vga/pro_vga_detail.php?UID=722

deekey777
2006-01-25, 17:39:46
Was hat das eine mit dem anderen zu tun?

Ich tippe auf gar nichts.

Ich redete von einem Performance-Vorsprung, der höher ist, als der rechnerische Vorsprung selbst bei nie erreichbarer, 100%iger Effizienz.


Q

Okay.

deekey777
2006-01-25, 17:58:12
mal ne frage: wenn der g70 kein hdr+aa kann, wie kann computerbase dies bei lost coast dann benchen?

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/21/#abschnitt_hl2_lost_coast

oder liegt das daran, das es sich um dieses merkwürige abgespeckte hdr handelt, welches auch auf r420/480 läuft?

Gibt mir eine Quelle an, wo gesagt wird, daß die G70&NV40 kein HDR+AA beherrscht.

Leseempfehlung: http://www.3dcenter.de/artikel/nv40_technik/index4.php

HDR auf R300 in Half-life 2 (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=184654)

Und insbesondere das: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3509064&postcount=308

MadManniMan
2006-01-25, 18:25:09
Gibt mir eine Quelle an, wo gesagt wird, daß die G70&NV40 kein HDR+AA beherrscht.

Leseempfehlung: http://www.3dcenter.de/artikel/nv40_technik/index4.php

HDR auf R300 in Half-life 2 (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=184654)

Und insbesondere das: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3509064&postcount=308

All jenes behandelt aber Spezialfälle, die sich nur mit dem Begriff HDR brüsten, ohne wirklich HDR zu bieten.

LovesuckZ
2006-01-25, 18:27:14
Aber die NVler und ihre Doppelmoral......

Ich find das drollig.
Alles das, was den Leuten bei Nvidia missfallen hat in der Vergangenheit, ist dann Legitim, wenn es von ATi kommt.
Die Doppelmoral herrsch klar auf der roten Seite der Medaille.
Wenn man Nvidia irgendwas vorwerfen kann, dann doch nur, dass sie sich technologisch wenigsten trauen, weiter zu gehen.
Ohne Nvidia gäbe es vieles nicht, was ATi User verwenden könnten.

[dzp]Viper
2006-01-25, 18:32:18
Ich find das drollig.
Alles das, was den Leuten bei Nvidia missfallen hat in der Vergangenheit, ist dann Legitim, wenn es von ATi kommt.
Die Doppelmoral herrsch klar auf der roten Seite der Medaille.
Wenn man Nvidia irgendwas vorwerfen kann, dann doch nur, dass sie sich technologisch wenigsten trauen, weiter zu gehen.
Ohne Nvidia gäbe es vieles nicht, was ATi User verwenden könnten.


Das ist hoffentlich ENDLICH der Letzte Post dieser Art - Posts die darauf Antworten werden ohne kommentare getrashed..
LovesuckZ - du bist lang genug hier, du weißt genau wo solche Aussagen hinführen.. Also denkt mal etwas weiter und lass es einfach....

deekey777
2006-01-25, 18:33:31
All jenes behandelt aber Spezialfälle, die sich nur mit dem Begriff HDR brüsten, ohne wirklich HDR zu bieten.

Definiere HDR?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3507284&postcount=302

mapel110
2006-01-25, 18:39:47
All jenes behandelt aber Spezialfälle, die sich nur mit dem Begriff HDR brüsten, ohne wirklich HDR zu bieten.
Version 3 nutzt jedenfalls FP16-Blending und Filtering, was manche jedenfalls schon "echtes" HDR nennen.

deekey777
2006-01-25, 18:45:11
Version 3 nutzt jedenfalls FP16-Blending und Filtering, was manche jedenfalls schon "echtes" HDR nennen.
Auch die vierte Implementierung ist echtes HDRR, mit der dritten könnte man ggf. mehr erreichen.
Aber irgendwie möchte hier niemand dies ausprobieren, obwohl LC nur mit einem simplen Befehl gestartet werden muß...

StefanV
2006-01-25, 18:58:04
Was festzuhalten bleibt, ist, das die x1900 momentan in der Lage ist, die übrige Performance besser zu nutzen, als es bei den Vorgängern der Fall war.

Das die BQ besser sein würde als bei den Vorgängern, war zu erwarten...

Insgesamt ist die x1900 genau da schneller als die x1800, wo mans erwartet hat, deutlich mächtigere Shaderpower bei gleicher Füllrate.

Ob der G71 so viel schneller sein kann, darf bezweifelt werden, denn die aktuellen 16Piper dürften auch schon ordentlich an der Bandbreite hängen, wie man bei einigen Benches sieht, wird die Rechenleistung mit der Zeit immer wichtiger als die Füllrate...

@Quasar
Steht auf www.ati.com immer noch die Füllraten und Bandbreitenangabe eines nie wirklich breit verfügbaren Modelles mit 300MHz Takt? ;)

Banshee18
2006-01-25, 19:02:46
Auch die vierte Implementierung ist echtes HDRR, mit der dritten könnte man ggf. mehr erreichen.
Aber irgendwie möchte hier niemand dies ausprobieren, obwohl LC nur mit einem simplen Befehl gestartet werden muß...
Was genau meinst du?

chrisihamm
2006-01-25, 19:07:35
Hi,

haben eigentlich die X1900xt Karten auch den 1,1ns Speicher drauf,wie die XTX?

mfg

Katrin
2006-01-25, 19:14:49
ja.. sollen sie haben !

deswegen weiss ich auch nicht, ob ich lieber ne TX oder doch ne XTX ;-)

Fetza
2006-01-25, 19:48:11
ja.. sollen sie haben !

deswegen weiss ich auch nicht, ob ich lieber ne TX oder doch ne XTX ;-)

XT oder XTX meinst du :)

deekey777
2006-01-25, 19:53:35
Was genau meinst du?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3697597&postcount=278

Coda
2006-01-25, 19:56:04
All jenes behandelt aber Spezialfälle, die sich nur mit dem Begriff HDR brüsten, ohne wirklich HDR zu bieten.HL² hat "echtes" HDR. Es wird definitiv Overbright-Info gespeichert, ich hab nur das Paper verlegt.

Onkeltom421
2006-01-25, 20:12:52
HL² hat "echtes" HDR. Es wird definitiv Overbright-Info gespeichert, ich hab nur das Paper verlegt.


Du sollst nich Kiffen ;)

OT: HDR hin oder her, arbeitet ATI immer noch noch mit Fp10(?)? und NV mit Fp16?

Wenn ja wie groß ist der Performanceunterschied zwischen diesen beiden?

Spasstiger
2006-01-25, 20:15:01
OT: HDR hin oder her, arbeitet ATI immer noch noch mit Fp10(?)? und NV mit Fp16?

Die alten DX9-ATI-Karten unterstützen ausschließlich fp24.

ShadowXX
2006-01-25, 20:18:00
Du sollst nich Kiffen ;)

OT: HDR hin oder her, arbeitet ATI immer noch noch mit Fp10(?)? und NV mit Fp16?

Wenn ja wie groß ist der Performanceunterschied zwischen diesen beiden?

Nein...ATI bietet FP16 und einen Int 10-10-10-2 Modus (keine Ahnung wie die Kurzschreibweise davon ist) an (ab x1000-Reihe).

Beide mit MSAA.....die Int-Variante dürfte allerdings schneller sein.

Allerdings kann ATI kein FP16-Filtering.....(was widerrum nV kann)

Mancko
2006-01-25, 20:18:02
was spricht für Ati :)
[B]Was bitte hat Nvidia entgegenzusetzten ? Texturflimmern ? Hehe

Qualitativ hochwertigeres HDR. Wenn man die X1800XT heran nimmt noch ne ganze Menge mehr.
Die X1900XT ist natürlich besser, was aber auch keine Kunst ist. Neuere Sachen sind immer besser. Das wirst dann auch in 1 1/2 Monaten wieder erleben können und dann wiederum im Sommer.

Gast
2006-01-25, 20:18:50
Hi,

haben eigentlich die X1900xt Karten auch den 1,1ns Speicher drauf,wie die XTX?

mfgLaut einigen Reviews haben die XT und Crossfire Karten nur 1,26ns Speicher drauf.

Mancko
2006-01-25, 20:20:46
Das ist zu befürchten, genauso wird auch NV denken. Also könnt ihrs vergessen, der G71 wird nur ein Speedupdate, also schreibe ich den Chip schon ab. Denn sollte es wirklich so kommen, was nützt einem eine Highend Karte, die kein HDR und AA kann? Ist doch total lächerlich.

Aber die NVler und ihre Doppelmoral......

Ob du ihn nun abschreibst interessiert aber nunmal leider nicht die Bohne.
Es ineressiert ja auch keinen wenn ich den R520 oder R420 vom Tag 1 abgeschrieben habe.
Es interessiert nur wie sich das ganze in der Menge auswirkt.
Bis dato ganz zum Vorteil von Nvidia und das nunmal auch gerechtfertigt denn die Masse hat nunmal Recht aber niemals ein Einzelner :)

Gast
2006-01-25, 20:23:27
Die alten DX9-ATI-Karten unterstützen ausschließlich fp24.
Da verwechselst du etwas.
Das FP24 bezieht sich auf die Shader.
Bei FP24-HDR bräuchte man 96bit Framebuffer.

Mancko
2006-01-25, 20:23:47
Und das ist leider das Problem, würde mehr auf die BQ geachtet als auf die Performance, dann hätten wir heute ein ganz anderes Bild. ATi könnte mit verminderter BQ sicherlich auch noch das ein oder andere Prozentchen rausholen, aber ich finde es gut, dass sie einen "etwas" andere Weg gehen.

Ich hoffe stark, dass nVIDIA etwas an sich arbeitet und die BQ verbessert und nicht immer nur auf die Performance-Krone aus ist.

Ich persönlich nehme lieber weniger FPS dafür eine bessere BQ in kauf.

Also es ist noch nicht allzulange her da war es genau anders herum und ATI war als Sparwütige Firma bekannt die bei den Produkten wo es nur ging herumgespart hat.
Billige Lüfter, niedrige Präzision bei den FIltern, Trillinear zu erst gar nicht angeboten, dann Filtertestprogramme per Treiber erkannt und hochgestellt ansonsten runter usw.
Die Liste ist da schon recht lang und auch beim R5xx finde ich Ansätze wo gespart wurde - z.B. bei der HDR Präzision oder beim VT siehe Pacific Fighters.

Katrin
2006-01-25, 20:23:57
hmm

ich dachte, die XT hat auch 1.1ns RAM

deekey777
2006-01-25, 20:26:01
hmm

ich dachte, die XT hat auch 1.1ns RAM

Spielt doch eh keine Rolle, daß die XTX 1.1 ns Speicher hat, denn dieser bekommt nicht die volle Spannung.

Also es ist noch nicht allzulange her da war es genau anders herum und ATI war als Sparwütige Firma bekannt die bei den Produkten wo es nur ging herumgespart hat.
Billige Lüfter, niedrige Präzision bei den FIltern, Trillinear zu erst gar nicht angeboten, dann Filtertestprogramme per Treiber erkannt und hochgestellt ansonsten runter usw.
Die Liste ist da schon recht lang und auch beim R5xx finde ich Ansätze wo gespart wurde - z.B. bei der HDR Präzision oder beim VT siehe Pacific Fighters.

Wo wurde bei der HDR Präzision gespart? Und ob sich das fehlende VT tatsächlich als Nachteil erweist, steht noch in den Sternen.

Gast
2006-01-25, 20:27:31
Die Liste ist da schon recht lang und auch beim R5xx finde ich Ansätze wo gespart wurde - z.B. bei der HDR Präzision
FP16-HDR. Genau so wie der G70.
Oder was meinst du?

Mancko
2006-01-25, 20:28:14
FP16-HDR. Genau so wie der G70.
Oder was meinst du?

War mein Fehler ich meinte das FP16-Filtering.

Ronny145
2006-01-25, 20:31:18
Laut einigen Reviews haben die XT und Crossfire Karten nur 1,26ns Speicher drauf.


Welche reviews wären das?

reunion
2006-01-25, 20:34:22
Spielt doch eh keine Rolle, daß die XTX 1.1 ns Speicher hat, denn dieser bekommt nicht die volle Spannung.


Dies kann man aber mittels Software spielend leicht ändern.

Coda
2006-01-25, 20:35:58
Du sollst nich Kiffen ;)Wie bitte?

reunion
2006-01-25, 20:37:09
;D

Ach Coda, sei doch nicht so todernst.

Odal
2006-01-25, 20:55:55
jaja getroffene hunde bellen hehe

@spannung sicher das die bei der x1900 noch genauso einfach per software regelbar ist?

btw: ich warte immer noch auf OC ergebnisse einer x1900

Fetza
2006-01-25, 20:58:27
das AA der NV4x reihe ist ebenbürdig mit dem der R3x0 serie, also bitte mal bei der warheit bleiben, und das AF ist besser, nur marginal und nicht sichtbar, aber messbar =)

entschuldigung, wenn ich diesen post wieder nach vorne rücke, aber muss nur mal kurz anmerken: dat stimmt nich :D nv40 bietet kein gamma-korrektes downsampling, was wesentlich zum glättungseffekt beiträgt. Auch kann ich die bessere filterqualität sehen, es flimmert weniger und es ist auch leicht schärfer, insgesamt fällt es mir auf, wenn ich mir die zeit nehme und den screen ansehe, das es beim shooter spielen nicht mehr auffällt, weil die zeit nicht reicht is ne andere sache ;)

reunion
2006-01-25, 21:01:12
@spannung sicher das die bei der x1900 noch genauso einfach per software regelbar ist?



Ja, ATi schreibt das sogar auf die Verpackungen - warum sollte es auch anders sein?

Gast
2006-01-25, 21:02:53
es flimmert weniger und es ist auch leicht schärfer, Flimmern tut der NV40 nur in Q und wer das einstellt, ist selbst schuld. Dass ATIs AF zu Unschärfe neigt, ist ja nun wirklich nichts neues.

Nerothos
2006-01-25, 21:03:56
Kann man die Chips auch "undervolten"? Oder kann man die Spannung nur erhöhen?

Gast
2006-01-25, 21:05:21
dat stimmt nich :D nv40 bietet kein gamma-korrektes downsampling, was wesentlich zum glättungseffekt beiträgt.

doch, der NV40 bietet das auch, zumindest für 4xFSAA.

viel schlimmer ist dass ati keine abschaltung der gamma-anpassung ermöglicht. leider ist das downfiltering nämlich weder bei ati noch bei nv gamma-korrekt sondern fix, da kann es je nach monitor schon mal vorkommen dass das gamma-angepasste FSAA schlechter aussieht.

abgesehen davon dass der unterschied minimal ist.

Gast
2006-01-25, 21:06:52
Flimmern tut der NV40 nur in Q und wer das einstellt, ist selbst schuld. Dass ATIs AF zu Unschärfe neigt, ist ja nun wirklich nichts neues.
Genau. Ist ein altes Märchen zum Einschlafen.
Im Ernst, deine Aussage kannst du auch mit Screens beweisen?

deekey777
2006-01-25, 21:10:45
Wie bitte?

Wozu braucht jemand ein Paper? ;) :D
Skynet sollte weiterhelfen.
Zur fehlenden FP-Filterung: Radeon X1x00 - kein FP-Filtern? (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=253113)

PP
2006-01-25, 21:50:51
Ist das 1,1 oder 1,26ns?
http://img54.imageshack.us/img54/8751/speicherx1900xt8tn.jpg

Mumins
2006-01-25, 21:52:20
Ist das 1,1 oder 1,26ns?
http://img54.imageshack.us/img54/8751/speicherx1900xt8tn.jpg


1,1ns

Black-Scorpion
2006-01-25, 21:57:16
Steht doch da. ;)
BJ11 sollte 1,1ns sein.
http://www.samsung.com/Products/Semiconductor/GraphicsMemory/GDDR3SDRAM/512Mbit/K4J52324QC/K4J52324QC.htm

PP
2006-01-25, 21:59:22
Steht doch da. ;)
BJ11 sollte 1,1ns sein.
http://www.samsung.com/Products/Semiconductor/GraphicsMemory/GDDR3SDRAM/512Mbit/K4J52324QC/K4J52324QC.htm
Gut ;D Also haben die Gecube X1900 XT 1,1 ns :cool:

mapel110
2006-01-25, 22:02:26
Gut ;D Also haben die Gecube X1900 XT 1,1 ns :cool:
Geiles Upgrade von ner 7800 GT auf die Karte. Bin auch am Überlegen, aber mehr als Alternate dreijahres20€Zahlung kann ich im Moment nicht. :ugly:
(shice Gas-Jahresabrechnung)

Gast
2006-01-25, 22:19:31
Genau. Ist ein altes Märchen zum Einschlafen.
Im Ernst, deine Aussage kannst du auch mit Screens beweisen?

auf screens kann ich dir sogar beweisen dass high-performance nicht flimmert ;)

Armaq
2006-01-25, 22:21:55
tjo, mapel. da kommt der energiefuchs.
ich überlege, ob ich miene 6800GT+a8v deluxe verticke und mir dafür ein pcie board hole und ne x1900xt mit dem x2 von arctic. nur ist mein 3500er newcastle da nicht ne spaßbremse? achja das leben ist schön^^

danke für den tipp. geändert.

deekey777
2006-01-25, 22:22:34
Dies kann man aber mittels Software spielend leicht ändern.

Meinst du, ATi ließ sich ein Hintertürchen offen? ;) :)

Black-Scorpion
2006-01-25, 22:33:52
tjo, mapel. da kommt der energiefuchs.
ich überlege, ob ich miene 6800GT+a8v deluxe verticke und mir dafür ein pcix board hole und ne x1900xt mit dem x2 von arctic. nur ist mein 3500er newcastle da nicht ne spaßbremse? achja das leben ist schön^^
Ich glaube nicht das die Karte da rein passt. ;)
PCIX != PCIe

doom1
2006-01-25, 22:40:25
Gut ;D Also haben die Gecube X1900 XT 1,1 ns :cool:

Na paßt doch AtiTool-Volt erhöhen und gut ist.

Gouvernator
2006-01-25, 22:56:39
Bei mir laufen Speicher mit default Spannung bis 890 mhz .

misterh
2006-01-25, 22:57:18
kann sein dass einer schon geschrieben hat, aber ich frage mal trotzdem

Reicht ein 450W (12V 25A) für X1900XT (keine XTX)?

Gouvernator
2006-01-25, 22:57:59
Ich hab ein Aopen 300 WAtt .

Odal
2006-01-25, 22:58:55
und gpu?

StefanV
2006-01-25, 23:07:32
Ich hab ein Aopen 300 WAtt .
FSP300?? was auch immer...

StefanV
2006-01-25, 23:09:05
Ich glaube nicht das die Karte da rein passt. ;)
PCIX != PCIe
FYI:
http://www.pctweaks.de/bilder/svegdegi.jpg

Das obere ist ein 3,3V PCI Slot mit 66-133MHz, auch teilweise (als 100/133MHz Version) PCI-X genannt

Black-Scorpion
2006-01-25, 23:18:55
FYI:
http://www.pctweaks.de/bilder/svegdegi.jpg

Das obere ist ein 3,3V PCI Slot mit 66-133MHz, auch teilweise (als 100/133MHz Version) PCI-X genannt
Und auf wievielen Consumerboards findet man die?
Ich habe noch keines gesehen.

PP
2006-01-25, 23:22:35
Morgen Abend wird sie wieder eingebaut, und gefoltert…
http://img87.imageshack.us/img87/6066/dsc019179bb.th.jpg (http://img87.imageshack.us/my.php?image=dsc019179bb.jpg)

paul.muad.dib
2006-01-25, 23:33:04
The Radeon X1900 cards are significantly better performers than the Radeon X1800s that they replace. I am a little bit perplexed, though, by ATI's choices here. They've tied up roughly 60 million transistors and 50 square millimeters of die space on the R580 primarily in order to add pixel shading power, but even in ShaderMark, we didn't see anything approaching three times the performance of the R520. Would this chip have performed any differently in any of our benchmarks with just 32 pixel shader units onboard? Seems like it is limited, in its present form, by other factors, such as pixel fill rate, memory bandwidth, or perhaps even register space. Who knows? Perhaps the R580 will age well compared to its competitors as developers require additional shader power and use flow control more freely. I wouldn't be shocked to see future applications take better advantage of this GPU's pixel shading prowess, but no application that we tested was able to exploit it fully. For current usage models, NVIDIA's G70 architecture appears to be more efficient, clock for clock and transistor for transistor. Here's hoping that ATI's forward-looking design does indeed have a payoff down the road. (http://www.techreport.com/reviews/2006q1/radeon-x1900/index.x?pg=14)


Den Eindruck habe ich auch. Die dreifache Shaderleistung wurde in relativ wenig Gewinn bei fps umgesetzt. So stark Shaderlimitier scheinen aktuelle Spiele also noch nicht zu sein, oder liegen hier gar grundsätzliche Schwächen. Ich hatte erwartet, dass zumindest im Shadermark solches erkennbar sein sollte. Mehr als eine Verdopplung ist aber scheinbar nicht drin. Wäre es besser gewesen, eine nur 2 ALUs pro TMU zu nehmen? Besonders beim rv530 hätten mehr TMUs doch geholfen.

Gast
2006-01-25, 23:35:42
@Quasar
Steht auf www.ati.com immer noch die Füllraten und Bandbreitenangabe eines nie wirklich breit verfügbaren Modelles mit 300MHz Takt? ;)
Jo, steht da immer noch. ;)

Q

tombman
2006-01-25, 23:59:08
Direkter Vergleich CF vs SLI
http://www.trustedreviews.com/article.aspx?page=5517&head=15

StefanV
2006-01-26, 00:06:16
Und auf wievielen Consumerboards findet man die?
Ich habe noch keines gesehen.
2-3 High End Consumerboards.

Mir ist da einmal das 8KNXP Ultra-64 (S478) (http://www.gdhardware.com/hardware/motherboards/gigabyte/ultra64/1.jpg) sowie das ASUS P5WDG2-WS (LGA775) (http://www.asus.com/999/images/products/994/994_l.jpg) bekannt...

tombman
2006-01-26, 00:19:16
2-3 High End Consumerboards.

Mir ist da einmal das 8KNXP Ultra-64 (S478) (http://www.gdhardware.com/hardware/motherboards/gigabyte/ultra64/1.jpg) sowie das ASUS P5WDG2-WS (LGA775) (http://www.asus.com/999/images/products/994/994_l.jpg) bekannt...

Ersteres hatte ich, und zweiteres werd ich wahrscheinlich bald haben :D

up¦²
2006-01-26, 00:31:40
R580 Architecture Interview

In an effort to dig further into ATI's thinking behind the design of R580 and gain a greater understanding of the decisions that have lead to this process we decided to put some questions to them. In replay we have answers from Eric Demers, from ATI's Desktop Graphics Engineering group, as well as a few comments from Richard Huddy, who brings in the perspective from their ISV relations group, which has a front line role to play with developers and who plays an important part in shaping future hardware.

http://www.beyond3d.com/reviews/ati/r580/int/

paul.muad.dib
2006-01-26, 01:26:58
Habe ich mir eben durch gelesen. eine Erklärung, warum selbst im Shadermark "nur" maximal die doppelte Leistung erreicht wird, geben sie nicht.

(del)
2006-01-26, 01:51:13
Und das zu Recht. Der Linuxtreiber hat bei ATI keine Priorität. Da arbeitet meist nur ein Mann dran.

Interview ist ein paar Monate alt
Ende Oktober hab ich irgendwo gelesen, daß das Linux Team verstärkt wurde. Leider ohne Link nu :(

paul.muad.dib
2006-01-26, 02:17:38
Als ich noch Linux benutzt habe, hieß es da öfters, man wolle das mehr Arbeit hereinstecken und sogar im gleichen Rhytmus wie für windows neue Treiber veröffentlichen.
Nun die Häufigkeit sagt noch nichts über die Qualität aus, aber davon, die gleiche Arbeit wie in die Windows Treiber zu investieren, ist man noch weit entfernt. Andererseits würde ich auch mehr Ressourcen in etwas stecken, von dem 95% der Nutzer profitieren.

doom1
2006-01-26, 07:52:37
57,22 fps ~+24%

Ich hab mal ein paar Fragen
Laufen die ATT mit der Karte?
Ist auf der CD nur der kompl. Cat abgelegt oder aufgeteilt-Treiber-CCC-WDM.
Und was ist das hier ???

http://www.sapphiretech.com/de/products/graphics_specifications.php?gpid=136

ganz unter "2 Sapphire Select-Entsperrtasten" ?

tRpii
2006-01-26, 07:56:23
Habe ich mir eben durch gelesen. eine Erklärung, warum selbst im Shadermark "nur" maximal die doppelte Leistung erreicht wird, geben sie nicht.

Man sollte beachten, dass nur mit Beta-Treibern gebench worden ist. Wenn sie den MC etwas besser an die X1900 anpassen ist sicherlich etwas mehr drin. Zudem heisst 3xShaderleistung nicht, dass diese auch so umgesetzt werden kann.

TrigPe
2006-01-26, 09:33:57
Hallo,


also ich will ja nicht flamen, aber es ist schon sehr "witzig", dass sich einige R350/420 Besitzer hier über die AF Qualität von NV beschweren.
Macht mal die Augen auf. Seit Cat5.10 ist die AF Quali teilweise richtig grottig geworden.
Auch ohne HQAF ist der Qualitätsunterschied zwischen meiner x1600xt und der vorherigen 9800pro, in Spielen wie bsw FlatOut, schon als gewaltig zu beschreiben.


MfG

dr_mordio
2006-01-26, 09:42:24
Und was ist das hier ???

http://www.sapphiretech.com/de/products/graphics_specifications.php?gpid=136

ganz unter "2 Sapphire Select-Entsperrtasten" ?

Bei der Sapphire karte liegt ne DVD mit mehreren spielen bei (für jeden geschmack etwas).
mit den 2 entsperrtasten kannst du dir nach der testphase 2 der spiele als vollversion freischalten.
find ich besser als fest vorgegebene games

MfG
Alex

Mumins
2006-01-26, 11:30:35
Die Mastercard ist bei Alternate lieferbar:
http://www.alternate.de/html/shop/productDetails.html?artno=JBXB16&artno=JBXB16&

maddawn
2006-01-26, 11:32:37
sehr "günstig" XTX für 525€ + Versand (http://geizhals.at/deutschland/a184822.html) <--allerdings nicht sofort verfügbar

dafür das sie mit 649 gelistet ist fällt der Preis aber sehr rasch

edit: außerdem scheint es preislich keinen Unterschied zwischen xt und xtx zu geben

chemistry
2006-01-26, 11:34:11
sehr "günstig" XTX für 525€ + Versand (http://geizhals.at/deutschland/a184822.html)

dafür das sie mit 649 gelistet ist fällt der Preis aber sehr rasch

Da kann was nicht stimmen - das ist sicher irgendein Lockangebot - glaube vielmehr, dass das der Preis der XT ist. Sicher ein falscher Geizhals bzw. Webseiteneintrag.....

Gouvernator
2006-01-26, 11:36:17
Die Mastercard ist bei Alternate lieferbar:
http://www.alternate.de/html/shop/productDetails.html?artno=JBXB16&artno=JBXB16&

Braucht man nicht ! Ich wollte zuerst ein CF system und habe mir ein CF Board ausgesucht . Dann aber entschieden zu warten bis Ati´s neuer Chipsatz raus ist. Und jetzt wo ich schon eine XTX habe möchte ich gar kein CF/SLi . Die Leistung die bereits eine 1900 liefert ist ausreichend bis 1600x1200 in allen Spielen die ich gespielt habe, teilweise sogar für volles 6xAAA .

chemistry
2006-01-26, 11:37:11
Da kann was nicht stimmen - das ist sicher irgendein Lockangebot - glaube vielmehr, dass das der Preis der XT ist. Sicher ein falscher Geizhals bzw. Webseiteneintrag.....

Udate...der zweite Geizhalseintrag mit 531€ ist definitf schon mal falsch, wenn man im Shop auf suchen geht, sieht man den echten Preis, der 613€ beträgt...


Wäre zu schön, um wahr zu sein....

Katrin
2006-01-26, 11:37:57
ich habe gestern die XTX bei Profiseller-Bindlach bestellt.. Für 531€ !

die haben den Preis heute schon korigiert auf der Page 613,57 !

Ich habe zwar ne Mail von denen bekommen.. denke aber nicht, das ich die Karte bekomme... sicher geht meine Bestellung verloren oder so und ich muss nochmal bestellen ;-)

Sehr geehrte Damen und Herren,
vielen Dank für Ihre Bestellung.
Diese hat die Bestell-ID XXXXX mit folgenden Bestellpositionen:
Die Annahme Ihrer Bestellung erfolgt durch uns erst mit der Versendung der Ware! Es gelten unsere AGB`s!

Artikel# Bezeichnung Menge Einzelpreis Summe
SAP ATI Rad X1900 02VP-ATI1900XTX-512 Sapphire Rad X1900XT... 1 531,84 531,84

Versandkosten 7,75 EUR/Nachnahme 14,0... 7,75

Netto 465,16
Ust16% 74,43
Ust7% 0,00
Summe 539,59

chemistry
2006-01-26, 11:39:28
Braucht man nicht ! Ich wollte zuerst ein CF system und habe mir ein CF Board ausgesucht . Dann aber entschieden zu warten bis Ati´s neuer Chipsatz raus ist. Und jetzt wo ich schon eine XTX habe möchte ich gar kein CF/SLi . Die Leistung die bereits eine 1900 liefert ist ausreichend bis 1600x1200 in allen Spielen die ich gespielt habe, teilweise sogar für volles 6xAAA .

Bin im Moment auch noch unschlüssig, ob XF oder nicht - allerdings spiele ich in 1920*1200 (zumindest die Spiele, die es irgendwie können).
Werd wohl erst mal eine Karte testen.....
Vor allem interessant ist ja, dass mit dem neuen XF Chip(580) angeblich ja keine Masterkarte mehr nötig ist.....mal schauen...


@ Katrin

Schwer vorzustellen, da sie ja schreiben, dass die Annahme der Bestellung erst bei Versenden der Ware gemacht wird.....

Coda
2006-01-26, 11:40:13
Und auf wievielen Consumerboards findet man die?
Ich habe noch keines gesehen.Was spielt das in diesem Zusammenhang für ne Rolle? Die Dinger befinden sich auf sämtlichen Serverboards.

tRpii
2006-01-26, 11:44:43
ich habe gestern die XTX bei Profiseller-Bindlach bestellt.. Für 531€ !

die haben den Preis heute schon korigiert auf der Page 613,57 !

Ich habe zwar ne Mail von denen bekommen.. denke aber nicht, das ich die Karte bekomme... sicher geht meine Bestellung verloren oder so und ich muss nochmal bestellen ;-)

Sehr geehrte Damen und Herren,
vielen Dank für Ihre Bestellung.
Diese hat die Bestell-ID XXXXX mit folgenden Bestellpositionen:
Die Annahme Ihrer Bestellung erfolgt durch uns erst mit der Versendung der Ware! Es gelten unsere AGB`s!

Artikel# Bezeichnung Menge Einzelpreis Summe
SAP ATI Rad X1900 02VP-ATI1900XTX-512 Sapphire Rad X1900XT... 1 531,84 531,84

Versandkosten 7,75 EUR/Nachnahme 14,0... 7,75

Netto 465,16
Ust16% 74,43
Ust7% 0,00
Summe 539,59

Glaube nicht, dass du für den Preis von denen eine XTX bekommst. Wenn doch, dann ist sind denen 100€ durch die lappen gegangen.

Gouvernator
2006-01-26, 11:48:55
Bin im Moment auch noch unschlüssig, ob XF oder nicht - allerdings spiele ich in 1920*1200 (zumindest die Spiele, die es irgendwie können).
Werd wohl erst mal eine Karte testen.....
Vor allem interessant ist ja, dass mit dem neuen XF Chip(580) angeblich ja keine Masterkarte mehr nötig ist.....mal schauen...


@ Katrin

Schwer vorzustellen, da sie ja schreiben, dass die Annahme der Bestellung erst bei Versenden der Ware gemacht wird.....

Ja ich spiele auch 1920x1440 und 2048x1536... und 2048x1900 :biggrin:
Aber 1920x1200 ist wie 1600x1200 macht nicht viel aus. 1920x1440 ist DIE Auflösung die gerne verwechselt wird mit 1920x1200, welche schon in Richtung 2048x1536 geht und richtig Leistung braucht.

Katrin
2006-01-26, 11:56:34
Glaube nicht, dass du für den Preis von denen eine XTX bekommst. Wenn doch, dann ist sind denen 100€ durch die lappen gegangen.

naja.. denke auch nicht.. die hatten gestern die XT und die XTX für den gleichen Preis gelistet...... 531,xx€...

nen Versuch ist es wert... ich würde es nett finden, wenn sie mir ne Mail schreiben, das es nix wird... man will ja wissen, wie man dran ist...

hehe

Kati

chemistry
2006-01-26, 12:03:17
Ja ich spiele auch 1920x1440 und 2048x1536... und 2048x1900 :biggrin:
Aber 1920x1200 ist wie 1600x1200 macht nicht viel aus. 1920x1440 ist DIE Auflösung die gerne verwechselt wird mit 1920x1200, welche schon in Richtung 2048x1536 geht und richtig Leistung braucht.

Nein, ich verwechsel da schon nix. mein Dell 24" TFT hat nativ 1920*1200......da merk ich bei meiner X850XT einfach, dass ihr auch RAM fehlt, um derartige Auflösung ohne Framedrops darstellen zu können. Ausserdem spiel ich gern mit AA und AF, und endlich sind die neuen Karten da.....

Gouvernator
2006-01-26, 12:31:04
Ich meine das 1920x1200 eher zu 1600x1200 zuzuordnen ist und der Unterschied ist minimal. Die 300 Punkte horizontal Auflösung machen echt nicht viel aus. Man kann auch sagen 3000x1200, die Bildqualität wird dadurch kaum vebessert , die vertikal Auflösung ist entscheidend und leistungshungriger.

Aquaschaf
2006-01-26, 12:35:51
Die Anforderungen an das Netzteil sollte man übrigens ernst nehmen. Mit 420W und 20A auf der 12V-Leitung ist bei mir direkt beim Einschalten die Spannung zusammengebrochen, wenn mehr als ein weiteres Gerät an der 12V-Leitung hing.

BiG OnE
2006-01-26, 12:46:07
Moin, moin
naja.. denke auch nicht.. die hatten gestern die XT und die XTX für den gleichen Preis gelistet...... 531,xx€...

nen Versuch ist es wert... ich würde es nett finden, wenn sie mir ne Mail schreiben, das es nix wird... man will ja wissen, wie man dran ist...

ja, da hab ich auch zugeschlagen, aber ich glaube auch nicht so ganz daran, die Karte für den Preis zu bekommen.

Bis denne ...

dilated
2006-01-26, 13:10:25
Hallo,


also ich will ja nicht flamen, aber es ist schon sehr "witzig", dass sich einige R350/420 Besitzer hier über die AF Qualität von NV beschweren.
Macht mal die Augen auf. Seit Cat5.10 ist die AF Quali teilweise richtig grottig geworden.
Auch ohne HQAF ist der Qualitätsunterschied zwischen meiner x1600xt und der vorherigen 9800pro, in Spielen wie bsw FlatOut, schon als gewaltig zu beschreiben.


MfG
ich hatte beides und es sieht bei alten atis immernoch besser aus als auf 6x00ern

von dem anti aliasing fang ich erst garnicht an

6600gt-9800pro/xt
gewinnt klar 9800 bei der qualität da kannst schreiben was du willst

x1600 ist sicher besser von der bildqualität her,das heist aber nicht das
9800 ect. schlecht sind

so.....*auspust*

Odal
2006-01-26, 13:45:00
hehe wär nur schön wenn man als x1600 nutzer auch AF und AA nutzen könnte ohne das einem die Rohpower dank der nur 4 pipelines (4TMU 4 ROP) ausgeht ;)

eXodia
2006-01-26, 13:55:21
von dem anti aliasing fang ich erst garnicht an

:| - Das einzige was die Radeons bieten ist 6xMSAA. SS, oder gar mischmodi gibt es nicht und die 4xAA,2xAA sind ja die selben, was das AA betrifft kann ich dir also nicht zustimmen.

Greetz

Mumins
2006-01-26, 14:01:44
:| - Das einzige was die Radeons bieten ist 6xMSAA. SS, oder gar mischmodi gibt es nicht und die 4xAA,2xAA sind ja die selben, was das AA betrifft kann ich dir also nicht zustimmen.

Greetz
Das MSAA der ATI ist immer noch besser als das von Nvidia. Die Kanten werden besser geglättet, die 6800er haben kein gammakorrigiertes AA. SSAA ist auf 6800er nur bei wenigen Games sinnvoll nutzbar.

deekey777
2006-01-26, 14:02:02
hehe wär nur schön wenn man als x1600 nutzer auch AF und AA nutzen könnte ohne das einem die Rohpower dank der nur 4 pipelines (4TMUs 4 ROPs) ausgeht ;)

:uclap:

Blahblahblah....
Oder bist du bei Quake 3 hängen geblieben?
http://www.digit-life.com/articles2/digest3d/index0512.html#diags
Und dabei wird AF 16x benutzt, für ein Midrange-Produkt zu viel.

eXodia
2006-01-26, 14:05:28
Das MSAA der ATI ist immer noch besser als das von Nvidia. Die Kanten werden besser geglättet, die 6800er haben kein gammakorrigiertes AA. SSAA ist auf 6800er nur bei wenigen Games sinnvoll nutzbar.

Das MSAA ist das selbe, da die Samplepositionen die selben sind (6xAA ausgenommen, wofür die 9800Pro sowieso zu langsam ist). Und TSAA (was auch nicht richtiges SS erstetzen kann) ist auf dieser Karte genausowenig nutzbar wie SSAA, sie dir z.B. mal FC an. Und Mischmodi gibbet bei ATI nicht für gutes Geld und Gute Worte.

Greetz

deekey777
2006-01-26, 14:17:27
Das MSAA ist das selbe, da die Samplepositionen die selben sind (6xAA ausgenommen, wofür die 9800Pro sowieso zu langsam ist). Und TSAA (was auch nicht richtiges SS erstetzen kann) ist auf dieser Karte genausowenig nutzbar wie SSAA, sie dir z.B. mal FC an. Und Mischmodi gibbet bei ATI nicht für gutes Geld und Gute Worte.

Greetz

Die Samplepositionen sind "gespiegelt", sonst steht das MSAA ab G60 bis auf das Gamma-Zeug im Nichts nach. Und eine 9800Pro bewältigt auch locker 6xAA zB in Max Payne 2. Auch das Adaptive AA ist auf der 9800Pro nutzbar, ich spiele HL2 und RaSh nur mit 4xAAA.

Odal
2006-01-26, 14:21:35
:uclap:

Blahblahblah....
Oder bist du bei Quake 3 hängen geblieben?
http://www.digit-life.com/articles2/digest3d/index0512.html#diags
Und dabei wird AF 16x benutzt, für ein Midrange-Produkt zu viel.

nö ich spiele auch gerne DoomIII, Q4, Hl2, Battlefield2, GTL, Farcry, Civilization 4...

es ist bekannt das die x1600 aufgrund des TMU und ROP mangel oftmals keine brauchbaren frameraten erzielt um noch AA und AF nutzen zu können. Ausnahmen wie Shaderlimitierte FEAR (wo sie trotzdem nicht genug power hat um AA&AF in grösserem stil un TFT freundlicher auflösung zu nutzen) wo eine x1600 sehr gut mithält für eine 4 pipe karte gibts natürlich.

eXodia
2006-01-26, 14:24:06
Und eine 9800Pro bewältigt auch locker 6xAA zB in Max Payne 2.

Fear, BF2 etc.pp - wollte damit mur ausdrücken, dass 6xMSAA in modernen spielen nicht nutzbar ist. Das könnte man sonst auch auf die 6800 münzen, für alte Games ist das SS/Mischmodi sinnvoll nutzbar, und bringt dann auch imho mehr als 6xAA.

Auch das Adaptive AA ist auf der 9800Pro nutzbar, ich spiele HL2 und RaSh nur mit 4xAAA.

Hab ich nie bestritten, trotzdem dürftest du imho wohl bei FC mit 4xAAA Probleme bekommen.

Greetz

deekey777
2006-01-26, 14:31:47
Fear, BF2 etc.pp - wollte damit mur ausdrücken, dass 6xMSAA in modernen spielen nicht nutzbar ist. Das könnte man sonst auch auf die 6800 münzen, für alte Games ist das SS/Mischmodi sinnvoll nutzbar, und bringt dann auch imho mehr als 6xAA.
Man kann auch von der 9800Pro das auch nicht mehr erwarten, daß sie neue Spiele genau so gut verdaut wie Spiele, die 2003 erschienen sind. Die 6800 ist der 9800Pro aber zT deutlich überlegen.


Hab ich nie bestritten, trotzdem dürftest du imho wohl bei FC mit 4xAAA Probleme bekommen.

Greetz
In Far Cry ist schon 2xAAA zu viel. Aber auch für die X800XT ist 4xAAA im Dschungel nicht leicht verdaulich. Trotzdem ist meine 9800Pro für 4xAAA je nach Spiel weiterhin ausreichend.
nö ich spiele auch gerne DoomIII, Q4, Hl2, Battlefield2, GTL, Farcry, Civilization 4...

es ist bekannt das die x1600 aufgrund des TMU und ROP mangel oftmals keine brauchbaren frameraten erzielt um noch AA und AF nutzen zu können. Ausnahmen wie Shaderlimitierte FEAR (wo sie trotzdem nicht genug power hat um AA&AF in grösserem stil un TFT freundlicher auflösung zu nutzen) wo eine x1600 sehr gut mithält für eine 4 pipe karte gibts natürlich.

Laß doch die ROPs aus dem Spiel, auch die 6600GT hat 4 ROPs.
Und für AA&AF im größeren Stil gibt es Highend.

Mumins
2006-01-26, 14:41:22
Das MSAA ist das selbe, da die Samplepositionen die selben sind

Das mag in der Theorie zutreffen, trotzdem glättet das 4AA der Radeon besser als das des NV40.

eXodia
2006-01-26, 14:46:04
Das mag in der Theorie zutreffen, trotzdem glättet das 4AA der Radeon besser als das des NV40.

:| - Nein, das ist nicht nur in der Theorie so, sondern auch in der Realität. Die positionen sind nur gespiegelt, mehr nicht. Frag noch andere, aber die Qualität ist zu 100% (OK, 99,999% - nichts ist perfekt X-D) die gleiche.

Greetz

Coda
2006-01-26, 14:47:46
Naja das Gamma-Downfiltering gibts erst ab G70 - dann ist es aber wirklich identisch gut.

Odal
2006-01-26, 14:48:34
Laß doch die ROPs aus dem Spiel, auch die 6600GT hat 4 ROPs.
Und für AA&AF im größeren Stil gibt es Highend.


wer redet denn hier von einer 6600GT? :|

deekey777
2006-01-26, 14:55:07
wer redet denn hier von einer 6600GT? :|

Faule Ausrede. Nenn mir doch ein Beispiel, wo die 4 ROPs bei der X1600 heute ein Nachteil sind.

IVN
2006-01-26, 15:06:56
Faule Ausrede. Nenn mir doch ein Beispiel, wo die 4 ROPs bei der X1600 heute ein Nachteil sind.
Die ROPs nicht,die TMUs schon.


-Gibt es Waege sie auf mehr als 630MHz zu bringen?

reunion
2006-01-26, 15:12:07
Bei mir laufen Speicher mit default Spannung bis 890 mhz .


Darf man fragen, in wie weit sich die Performance dadurch steigert?

dilated
2006-01-26, 15:23:27
:| - Das einzige was die Radeons bieten ist 6xMSAA. SS, oder gar mischmodi gibt es nicht und die 4xAA,2xAA sind ja die selben, was das AA betrifft kann ich dir also nicht zustimmen.

Greetz
wenn die mischmodi dann auch noch zu gebrauchen wären(6600gt)
is ja ok

da aber bei der 6600gt nur 4x vernünftig läuft
(das sieht ungefähr so aus wie bei ati das 2x)

zählen die nicht 6800 evtl wieder anders ich hab den vergleich ja mit ner 6600gt angestellt nicht mit 6800gt oder höher

ich spiel hl2 mit vollen details bei 4xaaa 8x quality/tri af,
(das kann man bei der 6600 auch so einstellen,
nur siehts dann halt bei weitem nicht so gut aus,transparez antialiasing geht da ja nicht oder???hab keine mehr)

Odal
2006-01-26, 15:27:23
Faule Ausrede. Nenn mir doch ein Beispiel, wo die 4 ROPs bei der X1600 heute ein Nachteil sind.

guck dir die benchmarks an wo die x1600er hinter den x800er mit 12 pipes liegen.

mir ging es um dieses posting


Zitat von TrigPe
Hallo,

also ich will ja nicht flamen, aber es ist schon sehr "witzig", dass sich einige R350/420 Besitzer hier über die AF Qualität von NV beschweren. Macht mal die Augen auf. Seit Cat5.10 ist die AF Quali teilweise richtig grottig geworden. Auch ohne HQAF ist der Qualitätsunterschied zwischen meiner x1600xt und der vorherigen 9800pro, in Spielen wie bsw FlatOut, schon als gewaltig zu beschreiben.

MfG

und als R420/423 besitzer fühle ich mich da angesprochen und erwiederte das einer x1600 eben durch die kastration die nötige rohpower fehlt um AA und AF in TFT freundlichen auflösungen "auf die Strasse" zu bringen. Es liegt imo nicht nur an der fehlenden Bandbreite.

im prinzip is es mir wurscht wieviel pipelines, TMU, ALU oder ROPs oder sonstwas so ein teil hat, was mich nur interessiert ist was dabei untern strich rauskommt so das man das teil auch gut verwenden kann.