PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R520 schon Anfang 2005?


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 [30] 31 32 33 34 35 36 37 38 39 40 41 42

DrumDub
2005-09-01, 16:05:54
Laut Aussage von Microsoft und ATI ist Xenos leistungsfähiger als zwei Geforce 6800 Ultras im SLI-Betrieb und somit auch schneller als die 7800 GTX und das bei 500Mhz Taktrate. Und das ist keine Spekulation, da man natürlich Benchmarktests vorgenommen hat, die das belegen. aha... dann kannst du diese testergebnisse doch auch sicher mit nem link belegen, oder?

Gast
2005-09-01, 16:14:36
aha... dann kannst du diese testergebnisse doch auch sicher mit nem link belegen, oder?

Der Nvidia RSX entspricht weitestgehend dem G70, ist jedoch geringfügig langsamer.

Instructions/ALU

RSX = 2 per VS x 8 VS = 16
RSX = 5 per PS X 24 PS = 120

Xenos = 2 per ALU X 48 ALU = 96

Operations / ALU

RSX = 5 per VS X 8 VS = 40
RSX = 10 per PS X 24 PS = 240

Xenos = 5 per ALU X 48 ALU = 240

FLOPS / ALU

RSX = 10 per VS X 8 VS = 80
RSX = 27 per PS X 24 PS = 648

Xenos = 10 per ALU X 48 ALU = 480

Instructions / clock

RSX = 16 per clock per VS X 8 VS = 128
RSX = 120 per clock per PS X 24 PS = 2880

Xenos = 96 / ALU X 48 ALU = 4608

Operations / clock

RSX = 40 per clock per VS X 8 VS = 320
RSX = 240 per clock per PS X 24 PS = 5760

Xenos = 240 per clock per ALU X 48 ALU = 11,520

FLOPS / clock

RSX = 80 per clock per VS X 8 VS = 640
RSX = 648 per clock per PS X 24 PS = 15,552

Xenos = 480 per clock per ALU X 48 ALU = 23,040

Instructions / second

RSX = 8.8B per VS per second X 8 VS = 70.4
RSX - 66B per PS per second X 24 PS = 1584

Xenos = 48B per second per ALU X 48 ALU = 2304

Operations / second

RSX = 22B per second per VS X 8 VS = 176
RSX = 132B per second per PS X 24 PS = 3168

Xenos = 120B per second per ALU X 48 ALU = 5760

Floating Point Operations / Second

RSX = 44B per second per VS X 8 VS = 352
RSX = 356B per second per PS X 24 PS = 8544

Xenos = 240B per second per ALU X 48 ALU = 11,520

Black-Scorpion
2005-09-01, 16:15:20
Und was hat das schon wieder mit dem R520 zu tun?

Man kann den Xenos (R500) nicht mit dem R520 vergleichen.

Mastersdeath
2005-09-01, 16:17:47
Der Nvidia RSX entspricht weitestgehend dem G70, ist jedoch geringfügig langsamer.

Instructions/ALU

RSX = 2 per VS x 8 VS = 16
RSX = 5 per PS X 24 PS = 120

Xenos = 2 per ALU X 48 ALU = 96

Operations / ALU

RSX = 5 per VS X 8 VS = 40
RSX = 10 per PS X 24 PS = 240

Xenos = 5 per ALU X 48 ALU = 240

FLOPS / ALU

RSX = 10 per VS X 8 VS = 80
RSX = 27 per PS X 24 PS = 648

Xenos = 10 per ALU X 48 ALU = 480

Instructions / clock

RSX = 16 per clock per VS X 8 VS = 128
RSX = 120 per clock per PS X 24 PS = 2880

Xenos = 96 / ALU X 48 ALU = 4608

Operations / clock

RSX = 40 per clock per VS X 8 VS = 320
RSX = 240 per clock per PS X 24 PS = 5760

Xenos = 240 per clock per ALU X 48 ALU = 11,520

FLOPS / clock

RSX = 80 per clock per VS X 8 VS = 640
RSX = 648 per clock per PS X 24 PS = 15,552

Xenos = 480 per clock per ALU X 48 ALU = 23,040

Instructions / second

RSX = 8.8B per VS per second X 8 VS = 70.4
RSX - 66B per PS per second X 24 PS = 1584

Xenos = 48B per second per ALU X 48 ALU = 2304

Operations / second

RSX = 22B per second per VS X 8 VS = 176
RSX = 132B per second per PS X 24 PS = 3168

Xenos = 120B per second per ALU X 48 ALU = 5760

Floating Point Operations / Second

RSX = 44B per second per VS X 8 VS = 352
RSX = 356B per second per PS X 24 PS = 8544

Xenos = 240B per second per ALU X 48 ALU = 11,520

http://www.hardspell.com/newsimage/2005-6-21-16-10-14-654986702.gif ;D

Gast
2005-09-01, 16:18:48
Und was hat das schon wieder mit dem R520 zu tun?

Man kann den Xenos (R500) nicht mit dem R520 vergleichen.

Ich wollte nur zeigen, dass ein US-Chip sehr wohl konkurrenzfähig in Sachen Performance ist. Ein Xenos mit 700Mhz würde die 7800GTX geradezu plattmachen.

Exxtreme
2005-09-01, 16:24:24
tatsache ist, dass ati mit dem chip geld verdienen will UND mit der konkurrenz zumindest gleichziehen muss, was die leistung angeht... beides zusammen ist mit nem us-chip nicht möglich...
Sagt wer? Zufälligerweise die gleichen, die BEHAUPTET haben, daß 107 Mio. Transistoren @ 0.15µm bei 325 MHz völlig unmöglich sind? :D

Coda
2005-09-01, 16:25:24
Man kann von FLOPs aus nicht auf die Performance schließen.

Gast
2005-09-01, 16:26:36
Bei diesen rein theoretischen Angaben wird sogar noch vergessen, dass ein US-Chip in der Praxis dank Load Balancing wesentlich besser ausgelastet wird.

Coda
2005-09-01, 16:29:01
Du sagst es: "theoretische Angaben". Theoretisch hat auch der P4 einen weitaus höheren Durchsatz als ein Athlon 64.

Solche Vergleiche stinken zum Himmel und helfen keinem weiter.

Sagt wer? Zufälligerweise die gleichen, die BEHAUPTET haben, daß 107 Mio. Transistoren @ 0.15µm bei 325 MHz völlig unmöglich sind?Demirug z.B.

Gast
2005-09-01, 16:32:40
http://www.firingsquad.com/news/newsarticle.asp?searchid=8214

ShadowXX
2005-09-01, 16:33:13
Ich wollte nur zeigen, dass ein US-Chip sehr wohl konkurrenzfähig in Sachen Performance ist. Ein Xenos mit 700Mhz würde die 7800GTX geradezu plattmachen.

Den Link der von Mastersdeath gepostet wurde hast du dir aber mal angeschaut, oder??

Falls nicht, hier ist er nochmal: http://www.hardspell.com/newsimage/2005-6-21-16-10-14-654986702.gif

Danach sieht das ganze etwas anders aus........

Coda
2005-09-01, 16:34:13
Das ATi das sagt ist ja wohl logisch, oder? Gibt's dafür auch unabhängigere Quellen?

Das mit der Effizienz ist einfach BS, es gibt derzeit keine Spiele die Vertexlimitiert sind und der RSX hat im Pixelteil schon mehr Leistung als C1 insgesamt.

Gast
2005-09-01, 16:37:25
Den Link der von Mastersdeath gepostet wurde hast du dir aber mal angeschaut, oder??

Falls nicht, hier ist er nochmal: http://www.hardspell.com/newsimage/2005-6-21-16-10-14-654986702.gif

Danach sieht das ganze etwas anders aus........

Diese Angaben sind pro ALU. Sie müssen mit 48 multipliziert werden, dann sieht die Sache anders aus.

DrumDub
2005-09-01, 16:37:28
http://www.hardspell.com/newsimage/2005-6-21-16-10-14-654986702.gif ;D och, schon lange bekannt... deine "berechnung" oben ist aber... na ja, komisch. :rolleyes:

robbitop
2005-09-01, 16:46:30
Laut Aussage von Microsoft und ATI ist Xenos leistungsfähiger als zwei Geforce 6800 Ultras im SLI-Betrieb und somit auch schneller als die 7800 GTX und das bei 500Mhz Taktrate. Und das ist keine Spekulation, da man natürlich Benchmarktests vorgenommen hat, die das belegen.
Das ist von der reinen Rohleistungsangabe völlig utopisch. Von der Shaderleistung ist R500 vieleicht einem NV40 ein wenig überlegen aber auch da nicht allzuviel.

robbitop
2005-09-01, 16:48:12
Der Nvidia RSX entspricht weitestgehend dem G70, ist jedoch geringfügig langsamer.

Instructions/ALU

RSX = 2 per VS x 8 VS = 16
RSX = 5 per PS X 24 PS = 120

Xenos = 2 per ALU X 48 ALU = 96

Operations / ALU

RSX = 5 per VS X 8 VS = 40
RSX = 10 per PS X 24 PS = 240

Xenos = 5 per ALU X 48 ALU = 240

FLOPS / ALU

RSX = 10 per VS X 8 VS = 80
RSX = 27 per PS X 24 PS = 648

Xenos = 10 per ALU X 48 ALU = 480

Instructions / clock

RSX = 16 per clock per VS X 8 VS = 128
RSX = 120 per clock per PS X 24 PS = 2880

Xenos = 96 / ALU X 48 ALU = 4608

Operations / clock

RSX = 40 per clock per VS X 8 VS = 320
RSX = 240 per clock per PS X 24 PS = 5760

Xenos = 240 per clock per ALU X 48 ALU = 11,520

FLOPS / clock

RSX = 80 per clock per VS X 8 VS = 640
RSX = 648 per clock per PS X 24 PS = 15,552

Xenos = 480 per clock per ALU X 48 ALU = 23,040

Instructions / second

RSX = 8.8B per VS per second X 8 VS = 70.4
RSX - 66B per PS per second X 24 PS = 1584

Xenos = 48B per second per ALU X 48 ALU = 2304

Operations / second

RSX = 22B per second per VS X 8 VS = 176
RSX = 132B per second per PS X 24 PS = 3168

Xenos = 120B per second per ALU X 48 ALU = 5760

Floating Point Operations / Second

RSX = 44B per second per VS X 8 VS = 352
RSX = 356B per second per PS X 24 PS = 8544

Xenos = 240B per second per ALU X 48 ALU = 11,520

Das ist aber ein sehr zu gunsten des R500 verdrehter "Bench". Man kann Benches auch so drehen, dass ein NV30 eine R420 verputzt (Markros ahoi).
Völliger Unsinn. BTW: G70 < RSX und nicht umgekehrt.

deekey777
2005-09-01, 16:55:42
']Nun, es ist ja bald soweit mit dem Launch, dann werdet ihr es leider akzeptieren MÜSSEN! *Finger zählt*



Wer lesen kann, ist ganz klar im Vorteil, ich habe doch gesagt auf der GC, hinter verschlossen Türen, ein Rechner mit einem Pre-Sample auf dem quake 4 Demo durchlief...!

Wer lesen kann?
Derjenige, der schreiben kann, ohne daß dabei fast jeder Post wie ein Flame/Trollversuch wirkt, dem schenke ich auch meinen Glauben. Du warst also hinter den verschlossenen Türen oder konntest von draußen hören und schließt jetzt einfach so aus dem Pre-Sample, daß die Finalversion des Lüfters laut sein wird?
Ich bitte dich...
Man kann davon ausgehen, daß der R520 heiß wird und auch gut gekühlt werden muß. Doch einfach so reinschreiben, die kommende "X900XTPE" wird laut oder ähnliches, ist in meinen Augen entweder eine Panikmacherei oder gar Trollerei.

deekey777
2005-09-01, 17:06:45
Sagt wer? Zufälligerweise die gleichen, die BEHAUPTET haben, daß 107 Mio. Transistoren @ 0.15µm bei 325 MHz völlig unmöglich sind? :D

Eine Behauptung, die gut begründet wird, wird auch nicht wahrer, wenn sie falsch ist. Doch diese Behauptungen sind - je nach Verfasser - sehr gut begründet, so daß sie am wahrscheinlichsten erscheinen. Jede Behauptung, der R520 sei ein US Chip, wurde - je nach Verfasser - logisch und für jeden verständlich widerlegt.
Ob die Behauptungen 100%ig war sind? Hm, werden wir bald sehen. Doch aus deiner Sicht: Würde es sich zu diesem Zeitpunkt lohnen, einen US-Chip für den PC-Markt herauszubringen?

reunion
2005-09-01, 17:12:49
Das ist genauso eine Spekulation des Autors wie alle anderen. ATI hat niemals gesagt, dass der R520 getrennte PS und VS-Pipelines besitzt.


Ich bitte dich. Dieser Artikel wurde von Dave Baumann verfasst, der als Besitzer einer bedeutenden Webseite wie B3D mit Sicherheit unter NDA bei ATi steht, und schon längst weiß, wie R520 aussehen wird.

Gast
2005-09-01, 18:11:50
Den Link der von Mastersdeath gepostet wurde hast du dir aber mal angeschaut, oder??

Falls nicht, hier ist er nochmal: http://www.hardspell.com/newsimage/2005-6-21-16-10-14-654986702.gif

Danach sieht das ganze etwas anders aus........


Auf dem Schaubild ist doch die Speicherbandbreite des RSX falsch angegeben oder? Ist ja nicht in beide Richtungen gleich schnell und wie kommen die auf die Zahl? Cell will wohl nicht auf den Hauptspeicher zugreifen was *g

Von den Rohleistungsdaten her ist ne PS2 auch langsamer als ne XBOX, aber das sieht man kaum in Spielen und bei der neuen Generation ist der Leistungsunterschied vieleicht nicht ganz so groß, von daher denke ich das es quasi wurscht ist wer wo etwas langsamer ist, die Exklusiv Entwicklungen für die jeweiligen Konsolen werden zeigen was man rausholen kann und die Spiele die für beide Konsolen entwickelt werden, werden auf einen "gemeinsamen" Nenner ausgelegt, wie jetzt auch, da werden specials die die GPUs können nicht genutzt, Spiele werden auf beiden Konsolen genau gleich ausschaun.

Also WAYNE was welche Konsole wo ein bissl besser kann... und US und der R520 ist doch utopisch, der wurde lange vor dem C1(R500) begonnen und in eine andere weiterführende Richtung entwickelt.

Nicht umsonst arbeiten beide IHVs im "Endstadium" (in Silikon gießen 3Monate + Bugfix+Retapeout=min 9Monate) an der nächsten Generation und die Entwicklung der Nachfolger müssten schon begonnen haben.
Also zählt mal fleißig nach wann C1(R500) und R520 Entwickelt wurden und wann welcher Chip "fertig" war...

Gast
2005-09-01, 18:27:44
Das ist aber ein sehr zu gunsten des R500 verdrehter "Bench". Man kann Benches auch so drehen, dass ein NV30 eine R420 verputzt (Markros ahoi).
Völliger Unsinn. BTW: G70 < RSX und nicht umgekehrt.

http://www.theinquirer.net/?article=25838

Coda
2005-09-01, 18:32:28
Inquirer ist natürlich auch eine seeehr zuverlässige Quelle... Es macht einfach keinen Sinn. RSX taktet höher und hat ansonsten die gleiche Pipelinekonfiguration wie G70.

Gast
2005-09-01, 18:38:45
Inquirer ist natürlich auch eine seeehr zuverlässige Quelle... Es macht einfach keinen Sinn. RSX taktet höher und hat ansonsten die gleiche Pipelinekonfiguration wie G70.

Lies mal den Artikel genau durch, die Aussage stammt von einem Nvidia-Sprecher.

Coda
2005-09-01, 18:47:41
Es ist dann aber eher das 128bit Speicherinterface als die GPU an sich das Problem.

Tomcat70
2005-09-01, 20:57:00
http://www.xbitlabs.com/news/video/display/20050831203553.html

Gast
2005-09-01, 21:03:15
Wieviel Pipes hat der C1? Wenn man noch davon so reden kann?!?!

Ailuros
2005-09-01, 21:03:25
http://www.theinquirer.net/?article=25838

Gleiche "zuverlaessige" Quelle:

http://www.theinquirer.net/?article=25862

Ailuros
2005-09-01, 21:04:48
Lies mal den Artikel genau durch, die Aussage stammt von einem Nvidia-Sprecher.

Siehe vorigen Post. Gut dass Du Dich genauso gut wie der INQ blamieren kannst.

Ailuros
2005-09-01, 21:20:30
Wieviel Pipes hat der C1? Wenn man noch davon so reden kann?!?!

Wie Demirug schon sagte ist es eine einzige Pipeline, die auf 3 16-way SIMD Einheiten aufgeteilt ist.

http://www.beyond3d.com/articles/xenos/images/archs.gif

Oder auch anders ein dreifaches Shader array mit jeweils 16-way SIMDs.

http://www.beyond3d.com/articles/xenos/index.php?p=07

Die schon seit laengerer Zeit geleakten Pipeline-config Zahlen fuer die kommenden PC GPUs sind (nochmal) wie folgend:

R520 = 16/1/1/1
RV530 = 4/1/3/2
R580 = 16/1/3/1

Erste Zahl ist die Anzahl der ROPs und die folgenden Zahlen die Analogie der jeweiligen anderen Einheiten und/oder OPs zu den ROPs.

Dementsprechend glaube ich dass der mainstream RV530 und X700 Nachfolger ein quasi 2 quad chip sein wird, der aber mehr fragments bearbeiten kann.

Da das Ding mit bis zu 600MHz getaktet sein wird:

4 ROPs * 600MHz = 2400MPixels/s
(4*2) 8 TMUs * 600MHz = 4800MTexels/s
(4*3) 12 fragments * 600MHz = 7200 fragments/s

Obwohl es keinen Sinn macht einen Vergleich mit Xenos herzustellen, Xenos hat 8 ROPs die aber 4x MSAA verlustlos aufnehmen koennen (ergo 32c/64z). Eine etwas merkwuerdige Relation zum vorigen Zahlengewarkel und wie Xenos damit aussehen wuerde waere vielleicht:

8/?/6/2

8*6 = 48 (for both PS/VS) ALUs @ 500MHz
8*2 = 16 bilinear Texels/clock (4-way TMU array)

schneller Tipper
2005-09-01, 21:53:21
The [R520] graphics chip runs extremely fast, and although we’re still finalizing clocks, I can tell you that we’re hitting stock engine speeds never seen before in this industry,

Hoffentlich.

which requires totally new graphics architecture from ATI

Vieleicht reichen 16 Pipes schon um an die Spitze zu kommen.

Gast
2005-09-01, 21:53:46
Was kann/bringt dem R580 das 16/1/3/1 anstatt wie beim R520 das 16/1/1/1?

Gast
2005-09-01, 22:13:28
@Ailuros

hallo

viell. kannst du mir dann weiterhelfen
der RV 530 soll ja ca. 600 Mhz haben und NUR ein 128 bit !! Interface
aber ei hoch wird seine Performance sein ,
höher einer X800 PRO oder sogar X800 PRO

oder weit UNTER !! der Performance einer X800 PRO ??

HOFFE DU !! kannst mir diesbezüglich etwas weiterhelfen , und welche versionen des RV 530 wird es geben ? -- PRO ; XL ; XT ; XT PE ?

deekey777
2005-09-01, 22:46:11
@Ailuros

hallo

viell. kannst du mir dann weiterhelfen
der RV 530 soll ja ca. 600 Mhz haben und NUR ein 128 bit !! Interface
aber ei hoch wird seine Performance sein ,
höher einer X800 PRO oder sogar X800 PRO

oder weit UNTER !! der Performance einer X800 PRO ??

HOFFE DU !! kannst mir diesbezüglich etwas weiterhelfen , und welche versionen des RV 530 wird es geben ? -- PRO ; XL ; XT ; XT PE ?

Hast du ein Problem mit der Leertaste? Dein Plenken stört den Lesefluß sehr. ;(

Geh mal auf die Seite 353.

Was kann/bringt dem R580 das 16/1/3/1 anstatt wie beim R520 das 16/1/1/1?
Mehr Power! :biggrin:
http://timstvshowcase.com/homeimprovementdvd2.jpg

Iwan
2005-09-01, 22:47:06
Vieleicht reichen 16 Pipes schon um an die Spitze zu kommen.

wieso auch nicht, nur die pure anzahl an pipes sagt doch absolut nix über die performance einer graka aus. zum einen gehört dazu noch der takt der gpu und die effektivität dazu, und noch viel anderes mehr.

TheGood
2005-09-01, 23:56:08
Wie Demirug schon sagte ist es eine einzige Pipeline, die auf 3 16-way SIMD Einheiten aufgeteilt ist.

http://www.beyond3d.com/articles/xenos/images/archs.gif

Oder auch anders ein dreifaches Shader array mit jeweils 16-way SIMDs.

http://www.beyond3d.com/articles/xenos/index.php?p=07

Die schon seit laengerer Zeit geleakten Pipeline-config Zahlen fuer die kommenden PC GPUs sind (nochmal) wie folgend:

R520 = 16/1/1/1
RV530 = 4/1/3/2
R580 = 16/1/3/1

Erste Zahl ist die Anzahl der ROPs und die folgenden Zahlen die Analogie der jeweiligen anderen Einheiten und/oder OPs zu den ROPs.

Dementsprechend glaube ich dass der mainstream RV530 und X700 Nachfolger ein quasi 2 quad chip sein wird, der aber mehr fragments bearbeiten kann.

Da das Ding mit bis zu 600MHz getaktet sein wird:

4 ROPs * 600MHz = 2400MPixels/s
(4*2) 8 TMUs * 600MHz = 4800MTexels/s
(4*3) 12 fragments * 600MHz = 7200 fragments/s

Obwohl es keinen Sinn macht einen Vergleich mit Xenos herzustellen, Xenos hat 8 ROPs die aber 4x MSAA verlustlos aufnehmen koennen (ergo 32c/64z). Eine etwas merkwuerdige Relation zum vorigen Zahlengewarkel und wie Xenos damit aussehen wuerde waere vielleicht:

8/?/6/2

8*6 = 48 (for both PS/VS) ALUs @ 500MHz
8*2 = 16 bilinear Texels/clock (4-way TMU array)

Was ist denn grundsätzlich von diesem Desgin zu halten? Kann es für den R600 weiterverwendet werden und kann es auch auf Desktop PCs funktionieren?

Gast
2005-09-02, 01:12:27
bitte helft mir doch mal ,
blikce da nicht mehr durchin dem forum langsam , SORRY !

SEHR Wichtig für mich , da ich auf AGP setzen muss !
in welcher performance Liga liegt denn der RV530 in etwa ?

was vermutet man , ist ja ein middle range produkt ,
ca. 230 - 290 EURO denke ich mal der preis ,
je nach RV 530 Version und Rambestückung .

Ailuros
2005-09-02, 05:30:22
Was ist denn grundsätzlich von diesem Desgin zu halten? Kann es für den R600 weiterverwendet werden und kann es auch auf Desktop PCs funktionieren?

Mit fast doppelt so vielen Einheiten wuerde so ein Ding wohl einen gewaltigen Unterschied machen.

Ailuros
2005-09-02, 05:36:17
@Ailuros

hallo

viell. kannst du mir dann weiterhelfen
der RV 530 soll ja ca. 600 Mhz haben und NUR ein 128 bit !! Interface
aber ei hoch wird seine Performance sein ,
höher einer X800 PRO oder sogar X800 PRO

oder weit UNTER !! der Performance einer X800 PRO ??

HOFFE DU !! kannst mir diesbezüglich etwas weiterhelfen , und welche versionen des RV 530 wird es geben ? -- PRO ; XL ; XT ; XT PE ?


Im besten Fall Gleichstand oder leicht hoeher als die X800PRO nach eigener Schaetzung. Wie die jeweiligen Versionen heissen werden keine Ahnung, aber ATI wird wohl hier mit dem Takt spielen, denn Abschalten von Einheiten im mainstream Segment macht nicht viel Sinn.

ShadowXX
2005-09-02, 07:33:34
Mehr Power! :biggrin:


Genauer gesagt: mehr Shader/Fragment-Power.....

(Ich hab leider kein so schönes Bild wie deekey auf die schnelle gefunden...)

Winter[Raven]
2005-09-02, 08:22:38
Wer lesen kann?
Derjenige, der schreiben kann, ohne daß dabei fast jeder Post wie ein Flame/Trollversuch wirkt, dem schenke ich auch meinen Glauben. Du warst also hinter den verschlossenen Türen oder konntest von draußen hören und schließt jetzt einfach so aus dem Pre-Sample, daß die Finalversion des Lüfters laut sein wird?
Ich bitte dich...
Man kann davon ausgehen, daß der R520 heiß wird und auch gut gekühlt werden muß. Doch einfach so reinschreiben, die kommende "X900XTPE" wird laut oder ähnliches, ist in meinen Augen entweder eine Panikmacherei oder gar Trollerei.

Entschuldigung, aber ich sag mal so neben bei "Glasshaus", ich muss mich vor dir nicht rechtfertigen im Bezug auf die "verschlossene Türchen", ich sage nur was war und mehr nicht. Entweder du glaubst es oder lasst es! :mad:

Gast
2005-09-02, 08:39:51
Siehe vorigen Post. Gut dass Du Dich genauso gut wie der INQ blamieren kannst.

Diese Meldung ist ja auch neuer als die andere.
Das ist sogar noch besser. Da Xenos schneller als der RSX ist, ist er somit deutlich schneller als die 7800GTX.

Ronny145
2005-09-02, 09:47:24
']Entschuldigung, aber ich sag mal so neben bei "Glasshaus", ich muss mich vor dir nicht rechtfertigen im Bezug auf die "verschlossene Türchen", ich sage nur was war und mehr nicht. Entweder du glaubst es oder lasst es! :mad:


Willst du dich nur wichtig machen oder warst du dabei?

Gast
2005-09-02, 09:58:08
']Entschuldigung, aber ich sag mal so neben bei "Glasshaus", ich muss mich vor dir nicht rechtfertigen im Bezug auf die "verschlossene Türchen", ich sage nur was war und mehr nicht. Entweder du glaubst es oder lasst es! :mad:

Hm, dann lass ich es lieber.:)

Glashaus....

deekey777
2005-09-02, 10:35:44
Diese Meldung ist ja auch neuer als die andere.
Das ist sogar noch besser. Da Xenos schneller als der RSX ist, ist er somit deutlich schneller als die 7800GTX.

Ich würde daraus gar keine Schlüße auf die 7800GTX ziehen. Die RSX ist auch nicht 1:1 eine 7800GTX, da gibt es schon mindestens einen Unterschied.

ShadowXX
2005-09-02, 10:42:23
Ich würde daraus gar keine Schlüße auf die 7800GTX ziehen. Die RSX ist auch nicht 1:1 eine 7800GTX, da gibt es schon mindestens einen Unterschied.

Davon abgesehen, das der Xenos wohl auch nicht schneller als eine RSX sein wird.

Ich schätze beide Chips ca. gleichstark ein, mal hat der eine Vorteile, mal der andere.

VoodooJack
2005-09-02, 12:22:50
According to the analyst firm Pacific Crest Securities in a report from EETimes, the R520 is a 24-stage pipeline chip that operates at 700-MHz. ATI is also readying entry-level and mid-range chips, dubbed the RV515 and RV530, respectively. These chips, which are being made on a foundry basis by TSMC, are slated for introduction in September or October. TheInquirer is more towards a 16 pipes R520 at the present moment. We (vr-zone) have asked some ATI's AIB partners and they aren't 100% sure themselves but they are suggesting a 24 pipes R520 would be more likely.

So, so, auf die Frage von vr-zone, ob R520 16 oder 24 Pipes hat, waren einige AIB-Partner von ATI sich nicht 100%-ig sicher, halten aber eine R520 mit 24 Pipes für wahrscheinlicher als eine R520 mit 16 Pipes.

mapel110
2005-09-02, 12:27:01
Wurde auch schon vor ein paar Tagen hier gepostet.
(und natürlich für Blödsinn erklärt. :) )

Ailuros
2005-09-02, 12:39:24
Diese Meldung ist ja auch neuer als die andere.
Das ist sogar noch besser. Da Xenos schneller als der RSX ist, ist er somit deutlich schneller als die 7800GTX.

Weil Du oder jemand anders schon Benchmarks auf den Consolen rennen konnte oder was? Genauso zuverlaessig wie alles andere.

Damit Ihr endlich auf dem Boden bleibt, beide Consolen sind quasi fuer 720p (1280*720) optimiert worden. Und das heisst dann wohl auch dass PC GPUs ganz andere Tiere sind fuer anspruchsvollere Faelle. Alles 1280 ist zum einschlafen langweilig auf GPUs wie die G70 und natuerlich auch die kommende R520.

reunion
2005-09-02, 13:27:15
ATI's key concern remains the performance of its 5xx product family compared to products from Nvidia, the research firm said. ATI's R520 product has shown mixed performance, according to Bear Stearns, though ATI's chief executive did make positive comments regarding the product on a recent call.

http://www.forbes.com/markets/emergingmarkets/2005/08/30/ati-technology-nvidia-0830markets10.html

Mixed Performance?
Deutet auf eine Schwäche hin IMHO.

deekey777
2005-09-02, 13:33:40
ATI's key concern remains the performance of its 5xx product family compared to products from Nvidia, the research firm said. ATI's R520 product has shown mixed performance, according to Bear Stearns, though ATI's chief executive did make positive comments regarding the product on a recent call.

http://www.forbes.com/markets/emergingmarkets/2005/08/30/ati-technology-nvidia-0830markets10.html

Mixed Performance?
Deutet auf eine Schwäche hin IMHO.

Für mich klingt es eher nach "Man kann nicht überall schneller sein". :)

reunion
2005-09-02, 13:48:41
Which i'll tell you right now. R520 is faster in every single case thats not totally rigged by one side or completely CPU cound. Even cases where the IQ is set to higher levels on the 520 than the GTX can even go (i'll let you speculate on what that could mean )

It has roughly 2000gpix fill rate advantage and a considerably higher advantage than that in shader/vertex capabilities. (note this can change depending on the final locked in clock speeds)


http://www.beyond3d.com/forum/showpost.php?p=556590&postcount=895

Winter[Raven]
2005-09-02, 13:55:04
http://www.beyond3d.com/forum/showpost.php?p=556590&postcount=895

Darf ich bitte auch den selben Stoff haben, den sich dieser FanATIker Nr. 1 reinwirft?

Kompletter Bullshit ...

reunion
2005-09-02, 13:55:39
INQ:

R520XT works at 600/1400MHz (http://www.the-inquirer.net/?article=25898)
ATI's RV530 had problems as well (http://www.the-inquirer.net/?article=25899)

reunion
2005-09-02, 13:57:40
']Darf ich bitte auch den selben Stoff haben, den sich dieser FanATIker Nr. 1 reinwirft?


Naja, er hat schon Kontakte zu ATi.
Allerdings übertreibt er zugegebenermaßen manchmal ein bisschen. :D

Winter[Raven]
2005-09-02, 14:02:18
Naja, er hat schon Kontakte zu ATi.
Allerdings übertreibt es zugegebenermaßen manchmal ein bisschen. :D

Sagen wir so ... Hochmut kommt vor dem Fall ...

Und überhaupt, wer TOP Performace haben wollte, kaufte sich die 7800, der Markt ist gesätigt, da ist dertzeit einfach kein Markt mehr.

mbee
2005-09-02, 14:07:58
Oder zwei 7800er ;)
Crossfire kommt bislang ja auch nicht richtig in die Gänge...

ShadowXX
2005-09-02, 14:10:24
INQ:

R520XT works at 600/1400MHz (http://www.the-inquirer.net/?article=25898)
ATI's RV530 had problems as well (http://www.the-inquirer.net/?article=25899)

Falls das dier stimmen sollte (da INQ muss natürlich nicht wirklich was dran sein)


It will launch it in the first week of October and those cards should be available just after. Some of them will be available in quantities like the 500MHz card while the 600MHZ card will be there but not in numbers.


sähe das aber nicht so gut für ATI aus.

Viele 520er mit 500MHz und ein paar "Benchmarkkarten" mit 600MHz.

[dzp]Viper
2005-09-02, 14:12:20
']

Und überhaupt, wer TOP Performace haben wollte, kaufte sich die 7800, der Markt ist gesätigt, da ist dertzeit einfach kein Markt mehr.


was hat das mit dem Thema zu tun?

P.S. Wenn der r520 schneller ist, dann kaufen sich genug freaks dieses karte - selbst wenn diese schon eine 7800gtx besitzen...

deLuxX`
2005-09-02, 14:12:37
Warum sollten die Leute, die "TOP-Performance" haben wollten und sich die 7800GTX kauften, nicht auch eine R520-Karte kaufen, wenn diese noch ein bisschen besser ist?
Das ist nun wirklich Käse.
2x7800GTX sind für alle Settings in heutigen Spielen total ausreichend. Wenn 2xR520-Karten im CF Verbund wirklich schneller sind, dann werden auch die gekauft. Es geht bei dieser Käuferschicht nicht darum, ob man etwas Schnelleres bräuchte. Es geht nur darum, dass es etwas Schnelleres gibt und dann wird es gekauft.
Nur wenn ATI mit dem R520 schneller ist dann wird sich das auch auf die LowEnd und Midrange Bereiche auswirken.

Heutzutage kann man doch beinahe jeden Schrott an den Mann bringen. Da schafft sich wirklich fast jedes Produkt seinen eigenen Markt. ;)

-deluxX`

TheCounter
2005-09-02, 15:14:44
Viele 520er mit 500MHz und ein paar "Benchmarkkarten" mit 600MHz.

Die 600MHz würden doch garnicht ausreichen um die 7800GTX zu schlagen, zumindest von der Füllrate. Aber vlt. gibts ja einige Neuerung und/oder Änderungen an der Architektur bezüglich der Effizienz?

Exxtreme
2005-09-02, 15:25:56
Für mich klingt es eher nach "Man kann nicht überall schneller sein". :)
Jo, klingt für mich auch so. Naja, wenn sich die beiden Kontrahenten nichts schenken von der Performance her dann wird die Bildqualität entscheidend sein. =)

robbitop
2005-09-02, 15:26:36
http://www.theinquirer.net/?article=25838
getretener Quark wird breit nicht stark ;)

robbitop
2005-09-02, 15:34:30
Davon abgesehen, das der Xenos wohl auch nicht schneller als eine RSX sein wird.

Ich schätze beide Chips ca. gleichstark ein, mal hat der eine Vorteile, mal der andere.
In Sachen Shaderleistung sieht R500 IMO kein Land gegen den RSX. Besonders nicht, wenn NRM_PP noch genutzt wird. Und das ist in Zukunft IMO einer der Wichtigsten Komponenten sein, denke ich. Bandbreite hat R500 eh nicht so viel wie vermutet (Colorcompression fällt raus und sie wird nur notzbar bei 4xMS und der Speicher ist schnell voll, und das swapping ist IMO sehr langsam).

Coda
2005-09-02, 15:38:51
It has roughly 2000gpix fill rate advantage and a considerably higher advantage than that in shader/vertex capabilities.Na das mit den Shadern bezweifel ich jetzt aber mal ganz stark.

reunion
2005-09-02, 15:44:04
Na das mit den Shadern bezweifel ich jetzt aber mal ganz stark.


ACK, sonst würde man bei R580 wohl kaum die ALUs pro Pipeline um den Faktor drei erhöhen. Auch der Füllratenvorteil erscheint unrealistisch, dazu bräuchte ATi schon >750Mhz.

Coda
2005-09-02, 15:46:06
Naja, die Vertexshader könnten wie gehabt schneller sein, vor allem wenn es wirklich 8 sind bei dem hohen Takt.

Nur leider bringt das nur in 3DMark 05 wirklich Vorteile ;)

ShadowXX
2005-09-02, 15:47:46
ACK, sonst würde man bei R580 wohl kaum die ALUs pro Pipeline um den Faktor drei erhöhen. Auch der Füllratenvorteil erscheint unrealistisch, dazu bräuchte ATi schon >750Mhz.

Kommt drauf an, welche Füllrate man betrachtet....der G70 hat auch nur 16Rops und der r520 wird definitiv schneller getaktet sein.

Was die Texelfüllrate betrifft dürftest du aber recht haben.

reunion
2005-09-02, 15:54:46
Naja, die Vertexshader könnten wie gehabt schneller sein, vor allem wenn es wirklich 8 sind bei dem hohen Takt.

Nur leider bringt das nur in 3DMark 05 wirklich Vorteile ;)

Definitiv, in punkto Vertexleistung kann ja selbst G70 den R480 nicht wirklich schlagen. R520 wird alleine schon wegen dem höheren Takt im Vergleich zum R480 davonziehen.

http://www.xbitlabs.com/articles/video/display/g70-indepth_14.html

Coda
2005-09-02, 16:05:55
Kommt drauf an, welche Füllrate man betrachtet....der G70 hat auch nur 16Rops und der r520 wird definitiv schneller getaktet sein.

Was die Texelfüllrate betrifft dürftest du aber recht haben.Wir haben doch schon öfter durchgekaut, dass die reine Pixelfüllrate eigentlich nicht mehr relevant ist.

reunion
2005-09-02, 16:16:03
Wir haben doch schon öfter durchgekaut, dass die reine Pixelfüllrate eigentlich nicht mehr relevant ist.


Naja, sie ist solange nicht von Relevanz, solange sie die Texelfüllrate nicht zu stark limitiert. Was aber vermutlich weder bei G70, noch bei R520 der Fall sein wird.

Coda
2005-09-02, 16:18:53
Naja, sie ist solange nicht von Relevanz, solange sie die Texelfüllrate nicht zu stark limitiert.Und wo soll das passieren? ;)

Ich denke nicht, dass R5xx eine entkoppelte ROP-Logik bekommt, von daher ist das da eh kein Thema.

MadManniMan
2005-09-02, 18:07:58
Warum sollten die Leute, die "TOP-Performance" haben wollten und sich die 7800GTX kauften, nicht auch eine R520-Karte kaufen, wenn diese noch ein bisschen besser ist?

Weil Winterrabe leider wieder zu alter Hochform aufläuft - Mensch Jung, der Zug für Fans ist abgefahren ;(

Winter[Raven]
2005-09-02, 18:16:57
Weil Winterrabe leider wieder zu alter Hochform aufläuft - Mensch Jung, der Zug für Fans ist abgefahren ;(

a) Wenn du mich schon meinst, dann bitte meinen Nick verwenden, und nicht übersetzen! Danke.

b) Ich laufe nicht zu Hochform auf, sowas hab ich es nicht nötig als Besitzer beider Grafikkarten, ich mag NV als auch ATi, beide haben Ihre Schwächen und Stärken, und ergänzen sich somit wunderbar.

c) Kein Normaler Mensch( ausser den Freaks) würde sich erst eine 7800 kaufen, beim erscheinen diese Verkaufen und sich dann auch noch R520 kauft. Ich weiß ja nicht wo Ihr das Geld her habt, aber ich hätte trotz des Verkaufs nicht das Geld mir einen R520 zuholen, und da bin ich sicherlich nicht der einzige.

Gast
2005-09-02, 18:45:12
Mich würde es nicht wundern wenn der R520 Aufgrund von höherem Speichertakt die G70 in hoher Auflösung ausstechen kann. 200MHz mehr Speichertakt bei vieleicht etwas geringerer Füllrate könnten einen kleinen Performancevorteil ergeben bei 1600+ Auflösungen.
Dazu muss allerdings der R520 genauso effizient mit dem Speicher umgehen wie der G70, dort sah man ja das man trotz des langsamen Speichers sich sehr vom NV40 distanzieren konnte.
Gibt ne schöne Benchmarkerei, den R520 mal mit G70 Speichertaktniveau laufen zu lassen ;)

Coda
2005-09-02, 18:47:05
Das Problem ist im Moment dass es kaum GDDR3 700 auf dem Markt gibt weil alles von MS und Söny für ihre Konsolen aufgekauft wird.

deLuxX`
2005-09-02, 18:48:00
']
b) Ich laufe nicht zu Hochform auf, sowas hab ich es nicht nötig als Besitzer beider Grafikkarten, ich mag NV als auch ATi, beide haben Ihre Schwächen und Stärken, und ergänzen sich somit wunderbar.

c) Kein Normaler Mensch( ausser den Freaks) würde sich erst eine 7800 kaufen, beim erscheinen diese Verkaufen und sich dann auch noch R520 kauft. Ich weiß ja nicht wo Ihr das Geld her habt, aber ich hätte trotz des Verkaufs nicht das Geld mir einen R520 zuholen, und da bin ich sicherlich nicht der einzige.

zu b) Ich mag weder ATI noch nV. Ich bin auch mit keinem von beiden befreundet oder verheiratet. Ich kaufe mir nur von ihnen Grafikkarten, weil es auf der einen Seite keine schnelleren gibt und auf der anderen Seite weil PC mein Hobby ist. Nicht mehr und nicht weniger. ;)

zu c) Genau die Freaks meinte ich. Unbestritten ist diese Käuferzahl sehr klein, aber es gibt sie.
Die Leute die Ultra Highend kaufen, verkaufen diesen in der Regel auch schneller wieder, als Leute die z.B. Midrange kaufen. Hier muss, in aller Regel die Grafikkarte 1 1/2 bis 2 Jahre halten.

-deLuxX`

Gast
2005-09-02, 20:14:41
Ich finde das 16pp@600Mhz sich schwer nach einem Unified Chip anhören!

ShadowXX
2005-09-02, 20:26:23
Ich finde das 16pp@600Mhz sich schwer nach einem Unified Chip anhören!

Das wäre aber dann nicht besonders gut, da man dann 16 US vs. 24PS + 8VS hätte....ich glaube nicht, das der r520 dann besonders gut aussehen würde.

Nur weil Shader Unified sind, heisst das nicht das alles gleich 10x so schnell ist.

Horimoto
2005-09-02, 21:01:43
Aber du kannst 16US nicht mit 24PP oder 8VS gleichsetzen. Wie genau die GEschwindigkeit von US ist, wird sich erst in der Praxis herausstellen. Ich denke dass 24US es mit 24PP und 8VS aufnehmen können, 16 mit hohem Takt haben das selbe Ergebnis.
Der R520 wird aber kein US Chip, was genau die versporchene 'überraschung' wird, lässt sich nur erahnen, ich tipppe auf winkelunabhängiges AF, das wäre mir wichtiger als US wenn ich ehrlich bin

MikBach
2005-09-02, 21:20:39
Das wäre aber dann nicht besonders gut, da man dann 16 US vs. 24PS + 8VS hätte....ich glaube nicht, das der r520 dann besonders gut aussehen würde.

Nur weil Shader Unified sind, heisst das nicht das alles gleich 10x so schnell ist.
Ack.
Imo sollten US weniger performant sein als PS+VS, da weniger spezialisiert.
Lass mich aber auch gerne eines Bessern belehren. ;)

-error-
2005-09-02, 21:21:32
Aber du kannst 16US nicht mit 24PP oder 8VS gleichsetzen. Wie genau die GEschwindigkeit von US ist, wird sich erst in der Praxis herausstellen. Ich denke dass 24US es mit 24PP und 8VS aufnehmen können, 16 mit hohem Takt haben das selbe Ergebnis.
Der R520 wird aber kein US Chip, was genau die versporchene 'überraschung' wird, lässt sich nur erahnen, ich tipppe auf winkelunabhängiges AF, das wäre mir wichtiger als US wenn ich ehrlich bin

Oh ja, winkelunabhängiges AF! Dann wird der R530/R515 gleich gekauft :biggrin:

Wenn ATI zum perfekten AA auch noch ein Feature wie nVidia mit Transparenz AA mit beigibt, bin ich wunschlos glücklich mit der Grafikkarte.

MikBach
2005-09-02, 21:34:19
Oh ja, winkelunabhängiges AF! Dann wird der R530/R515 gleich gekauft :biggrin:
Wunder gibt es immer wieder, an dieses glaube ich aber nicht. ;)

Wenn ATI zum perfekten AA auch noch ein Feature wie nVidia mit Transparenz AA mit beigibt, bin ich wunschlos glücklich mit der Grafikkarte.
Was ist perfektes AA?

Gast
2005-09-02, 22:05:12
Vielleicht damit die 24-Stages geklärt?

HOT
2005-09-02, 22:19:38
']a) Wenn du mich schon meinst, dann bitte meinen Nick verwenden, und nicht übersetzen! Danke.

b) Ich laufe nicht zu Hochform auf, sowas hab ich es nicht nötig als Besitzer beider Grafikkarten, ich mag NV als auch ATi, beide haben Ihre Schwächen und Stärken, und ergänzen sich somit wunderbar.

c) Kein Normaler Mensch( ausser den Freaks) würde sich erst eine 7800 kaufen, beim erscheinen diese Verkaufen und sich dann auch noch R520 kauft. Ich weiß ja nicht wo Ihr das Geld her habt, aber ich hätte trotz des Verkaufs nicht das Geld mir einen R520 zuholen, und da bin ich sicherlich nicht der einzige.

Ein normaler Mensch sollte erst dann zur 7800 greifen, wenn die Flimmerproblematik behoben ist, vorher ist die Karte leider nicht empfehlenswert (ich meine nicht reduziert wie beim 78.03).

MikBach
2005-09-02, 22:21:36
Vielleicht damit die 24-Stages geklärt?
:confused:
Wie meinen?

MikBach
2005-09-02, 22:23:36
Ein normaler Mensch sollte erst dann zur 7800 greifen, wenn die Flimmerproblematik behoben ist, vorher ist die Karte leider nicht empfehlenswert (ich meine nicht reduziert wie beim 78.03).
Ack.
Wenn sich jemand mit den jetzigen Unzuläglichkeiten eine 7800 zulegt, ist mit daran schuld, wenn die BQ immer weiter absinkt.

Horimoto
2005-09-02, 22:23:47
So würde ich das nciht sagen.
Die GTX ist ne super Karte, und das flimmerproblem ist auch zu beseitigen, und das wird es auch in den nächsten paar Treibern, davon bin ich überzeugt.
Wenn man SSAA einstellt, verschwindet das flimmern beinahe vollkommen, aber eben nur beinahe.
Wenn ATi jedoch ne gleichschnelle, mit perf. BQ (Wobei das niemals zu erreichen sein wird) Karte anbietet, MUSS nVidia was dagegenhalten, denn TranparenceAA reicht nun mal nciht aus, und ATi wird mit sicherheit eine 'Anti-Flimmer-Kampanie' starten, mich wunderts dasss sie es bis jetzt noch cniht getan haben, ein Anzeichen auf den R520?
Ich hoffe nciht.........

MikBach
2005-09-02, 22:31:24
So würde ich das nciht sagen.
Die GTX ist ne super Karte, und das flimmerproblem ist auch zu beseitigen, und das wird es auch in den nächsten paar Treibern, davon bin ich überzeugt.
Ich nicht. Gute BQ kostet eben Performance.
Der voll programmierbare AF-Filter von Nvidia kann viel Performance bringen, das kostet aber auch Leistung, wenn man gute Bq haben will...

Wenn man SSAA einstellt, verschwindet das flimmern beinahe vollkommen, aber eben nur beinahe.
Ich vergleiche immer das AF und das AA einzeln.
Wer das mischt, bekommt nicht den vollen Eindruck von der BQ.

und ATi wird mit sicherheit eine 'Anti-Flimmer-Kampanie' starten, mich wunderts dasss sie es bis jetzt noch cniht getan haben,
Nö, das sind die lässigen Kanadier.
Das Marketing ist nicht so aggressiv wie das von Nvidia.

Horimoto
2005-09-02, 22:53:21
ATi hat aber schon Verglichsbilder zwischen den AA Modi gebracht, oder irre ich mich?
Da war doch dieses HL² Bild, mit dem AA Verglich, also müssten sie auch das Flimmerproblem bringen.

BQ ist eigentlich das, was du am Ende siehst, oder nciht?
Wenn du sie einezln betractest, hast du nciht die 'BQ' in dem Sinn, sondern die AA bzw. AF Quali, was wiederum NICHT der BQ entspricht.

Dass die nächsten Treiber perf. kosten werden, ist klar. Die Frage ist, wieviel?
Wenn es sich um 5% handelt, kann man das verscmerzen, wenn es aber 20% sin, ist das hart, und schadet nur dem Geschäft.
Die Zukunft wird es zeigen

MikBach
2005-09-02, 22:58:01
ATi hat aber schon Verglichsbilder zwischen den AA Modi gebracht, oder irre ich mich?
Hast du Links?

BQ ist eigentlich das, was du am Ende siehst, oder nciht?
Wenn du sie einezln betractest, hast du nciht die 'BQ' in dem Sinn, sondern die AA bzw. AF Quali, was wiederum NICHT der BQ entspricht.
Doch, das muss man einzeln sehen, weil das SSAA niemals die Qualität vom perfektem AF erreichen kann...

Dass die nächsten Treiber perf. kosten werden, ist klar. Die Frage ist, wieviel?
Wenn es sich um 5% handelt, kann man das verscmerzen, wenn es aber 20% sin, ist das hart, und schadet nur dem Geschäft.
Die Zukunft wird es zeigen
Wenn es nur 20% sind, wäre es zu verschmerzen...
Man muss das halt an HL2 (Aufzug) testen, dann sind wir schlauer.

Coda
2005-09-02, 23:22:05
Doch, das muss man einzeln sehen, weil das SSAA niemals die Qualität vom perfektem AF erreichen kann...Begründung? Eigentlich schon.

mapel110
2005-09-03, 00:27:11
Begründung? Eigentlich schon.
Was ATI nicht bietet, muss er halt schlecht reden.

Wenn es nur 20% sind, wäre es zu verschmerzen...
Man muss das halt an HL2 (Aufzug) testen, dann sind wir schlauer.
Dazu müsste überhaupt erstmal geklärt werden, dass gerade diese Aufzugsache am AF liegt oder nicht doch eine andere Schweinerei ist. Das ist schließlich kein Grieseln, sondern ausgewachsenes komplettes Texturflackern. Kann mir nur schwer vorstellen, dass die paar Pixel, die beim AF verkehrt sind, solch eine Auswirkung haben können. Wie gesagt flackern da ja komplette Texturteile.

robbitop
2005-09-03, 00:48:16
Hast du Links?

Doch, das muss man einzeln sehen, weil das SSAA niemals die Qualität vom perfektem AF erreichen kann...

Mit entsprechender Sampleanzahl ist das kein Problem. Mit 16x16 SSAA hätte man "perfektes" 16xquasi AF. Der Preis ist allerdings dafür recht hoch. Texturfilter sollten als solche genutzt werden.

mrt
2005-09-03, 01:01:52
IMO vom AF Algorithmus abhängig. Ein guter sollte da bessere Ergebnisse bringen und dabei weniger Leistung kosten.

Coda
2005-09-03, 01:11:58
Wengier Leistung ist sowieso klar, aber du kannst jeden AF-Filter mit genügend supersampling nachstellen.

Ailuros
2005-09-03, 01:20:32
Mal sehen was "perfektes" AF bei default eigentlich entspricht auf heutigen GPUs:

1. Auf zwei Winkeln nur bis zu 2x AF samples, die restlichen zwei Winkel bekommen dann so viel samples ab wie die Texturen beansprechen (theoretisch bis zu 16xAF, was aber nie der Fall ist heutzutage).

2. "Brilinear" ergo eine hybride Textur-filterung die zwischen bilinear und trilinear liegt.

3. Texturing stage Optimierungen wo nur texturing stage "0" "brilinear" abbekommt, stage 1-7 nur noch stinknormales bilinear.

4. Andere Optimierungen die weiterhin die Filterungs-qualitaet beinflussen und die Leistung weiterhin steigern.

Selbst wenn man 2/3/4 abschaltet, bleibt erstmal das erste stehen was schon etwas weniger als die Haelfte der Arbeit entsprechen kann unter Umstaenden. Von "Perfektion" wuerde ich hier keinesfalls reden. Obwohl stink-langsam heutige hoechstmoegliche Naeherung jeglicher "Perfektion" waere 16xSSAA auf GFs.

Da es aber nicht brauchbar ist muss man sich eben mit dem obrigen zufriedenstellen und froh sein dass man keine tanzende Maender auf den Bildschirm bekommt.

Uebrigens ist es zwar nicht falsch zu sagen dass man MSAA oder AF getrennt analysieren kann oder sollte; mit der Vorraussetzung aber dass Texturen auch anstaendig geglaettet werden. Texturen-AA beginnt mit bilinear + MIPmapping; hapert es da hilft mir gutes MSAA oder "gutes" AF erstmal gar nichts. Antialiasing steht fuer "Glaettung" und nicht stoerenden "Geraeusch-Nebeneffekten" auf Texturen oder Polygon-Kanten. Man braucht halt beides fuer richtiges FSAA.

Ailuros
2005-09-03, 01:27:57
Bevor ATI zu einer anti-Optimierungs-Kampagne kommt, muessten sie erstmal ihre eigenen Filterungs-Optimierungen abstellen.

Was jetzt die Leistungsunterschiede zwischen HQ und Q (ja alle Optimierungen eingeschaltet) auf G70 mit 78.03 betrifft, haengt es sehr stark von der Applikation bzw. vom Spiel ab. Der Unterschied ist aber um einiges kleiner hier als manche es behaupten wollen.

mrt
2005-09-03, 01:28:21
Wengier Leistung ist sowieso klar, aber du kannst jeden AF-Filter mit genügend supersampling nachstellen.

Ja das ist schon klar. Wollte nur auf 16x16 SSAA hätte man "perfektes" 16xquasi AF eingehen.

Gast
2005-09-03, 03:33:08
Kann man das FSAA einer V5 mit den AA Qualitäten der heutigen Grafikkartengenerationen eigentlich vergleichen?
Was AF jetzt angeht hab ich 0 Ahnung.(War damals auch net da)

Wenn man jetze also ein Spiel von Anno dunnemals á la Ultima IX unter gleichen Vorausetzungen mit einer 7800'er vergleicht wär dieses denn einer "uralte" v5 überlegen? (halt wegen diesem winkelabhängigem Gedussel)

Interessiert mich vor allem weil der r520 ja ausser "gleicher", bzw geringfügig höherer Frameanzahl nur noch mit der Qualität des Bildes glänzen könnte.(subjektive Meinung)

(Währe nett wenn dies beantwortet werden würde.)

Coda
2005-09-03, 04:11:45
Die Voodoos konnten gar kein AF. Das AA ist zumindest auf der nie erschienenen V5 6000 besser (8x sparsed grid).

Gast
2005-09-03, 04:53:36
Hab ich ja auch geschrieben das es das damals net gab.(Was AF jetzt angeht hab ich 0 Ahnung.(War damals auch net da))

Danke das du es ansprichst.....ist es wirklich so das eine fast 6 Jahre alte Grafikkartengeneration auf diesem"speziellen" Gebiet eine Karte von Heute schlagen kann?(Anmerkung: Es gibt die 6000'er und das nicht in geringer Anzahlt!)

Wenn dem so wäre müssten die geneigten Beobachter doch obwohl ihrer jeweiligen Preferenz der Marke ihrer Karte bemerken, dass mit ihnen eine Art Schindluder betrieben wird!?
Denn ihnen wird eine schon vor etlichen Jahren erhältliche Qualität vorenthalten.

Ailuros
2005-09-03, 05:18:38
Kann man das FSAA einer V5 mit den AA Qualitäten der heutigen Grafikkartengenerationen eigentlich vergleichen?
Was AF jetzt angeht hab ich 0 Ahnung.(War damals auch net da)

8xS gibt es im Treiber der GeForces, 16xS kann man durch tweaking utilities auch noch einschalten.

8xS hat einen EER von 4*8 (2xOGSS + 4xRGMS) und ist im Bereich der Glaettung von polygon edges/intersections auf der einen Achse dem 4xRGSS der V5 5500ueberlegen (EER = 4*4). Texturen sehen aber auf der V5 5500 mit 4xRGSS auf der einen Achse besser aus.

16xS = 8*8 EER (4xOGSS + 4xRGMS), theoretisch zumindest zweimal so gute Glaettung wie die V5 5500, ebenbuertig mit der V5 6000 auf poly edges und gleich guten Texturen mit der V5 5500.

Wenn man jetze also ein Spiel von Anno dunnemals á la Ultima IX unter gleichen Vorausetzungen mit einer 7800'er vergleicht wär dieses denn einer "uralte" v5 überlegen? (halt wegen diesem winkelabhängigem Gedussel)

Wenn Du 16xS mit 16xAF zuschaltest, ist es meilenweit entfernt, egal ob AF winkelabhaengig ist. Das Supersampling kompensiert hier gut genug.

Interessiert mich vor allem weil der r520 ja ausser "gleicher", bzw geringfügig höherer Frameanzahl nur noch mit der Qualität des Bildes glänzen könnte.(subjektive Meinung)

(Währe nett wenn dies beantwortet werden würde.)

Ich sehe leider nur einen Schuss Supersampling in den Crossfire Systemen. Das heisst natuerlich wenn Dich SSAA auch wirklich nur interessiert. Supersampling mag zwar supertoll aussehen kombiniert mit AF, ist aber viel zu uneffizient da es Unmengen an Fuellrate und Leistung frisst.

Gast
2005-09-03, 07:13:32
Danke@Ailuros, du hast mir genügend Stoff zum Grübeln gegeben um dieses mir nicht ersichtliche Problem der verschiedenen Filtermethoden jetzt näher nachzufragen.
Was das SSAA angeht liegst du richtig, dank meines 0.3% Wissens denke ich das gerade dieses wichtig ist. Um nun von den alten 3dfx Karten wegzukommen.....was verstehst du unter:"Supersampling mag zwar supertoll aussehen kombiniert mit AF, ist aber viel zu uneffizient da es Unmengen an Fuellrate und Leistung frisst."?
Hei?t das nun, dass unter den Bedingungen welcher ein r520 bieten möge kein der von dir genannten Eigenschaften geprägter "erfolgreicher" chip den Markt beleben könnte da dieser wiederum zu schwach wäre um den von dir geforderten Spezifikationen zu entsprechen?
(Sorry für die Wortwahl...ist halt spät/früh...)

robbitop
2005-09-03, 07:49:37
IMO vom AF Algorithmus abhängig. Ein guter sollte da bessere Ergebnisse bringen und dabei weniger Leistung kosten.
Bei gleicher Sampleanzahl nicht. Weniger Leistung ist ja wohl klar.

Gast
2005-09-03, 07:56:00
Danke@Ailuros, du hast mir genügend Stoff zum Grübeln gegeben um dieses mir nicht ersichtliche Problem der verschiedenen Filtermethoden jetzt näher nachzufragen.
Was das SSAA angeht liegst du richtig, dank meines 0.3% Wissens denke ich das gerade dieses wichtig ist. Um nun von den alten 3dfx Karten wegzukommen.....was verstehst du unter:"Supersampling mag zwar supertoll aussehen kombiniert mit AF, ist aber viel zu uneffizient da es Unmengen an Fuellrate und Leistung frisst."?
Hei?t das nun, dass unter den Bedingungen welcher ein r520 bieten möge kein der von dir genannten Eigenschaften geprägter "erfolgreicher" chip den Markt beleben könnte da dieser wiederum zu schwach wäre um den von dir geforderten Spezifikationen zu entsprechen?
(Sorry für die Wortwahl...ist halt spät/früh...)


Er meint damit, das man mit AF weniger Rechenleistung verbrauchen würde, wie wenn man das selbe mit SSAA machen muss.
Gute Filterung kostet Leistung keine Frage (deswegen ist man ja davon weggegangen, wenig Qualitätsunterschiede viel billige FPS), aber AF drückt die Füllrate einer Grafikkarte nicht auf 1/16 bei 16xAF (ohne Winkelabhängigkeit).

Der R520 wird wie die alte Generation Filtern, vieleicht noch ne neue Optimierung die nicht flimmert aber dafür etwas unschärfer macht, dazu vieleicht ein neuer AA Modus, was sonst soll denn kommen?
Wenn die theoretische Füllrate des R520 nicht ganz an die der G70GTX heranreicht wird halt bissl "optimiert" damit man mit dem neuen Speichercontroller zusammen in hohen Auflösungen rankommt.

Gast
2005-09-03, 07:57:34
Wenn der R520 "besser" filtern soll ohne beim Benchmarken einzubrechen, muss er trilineare TMU´s haben oder brachiale Füllrate, ich denke nicht das wir eins von beiden sehen werden.

ShadowXX
2005-09-03, 10:43:03
Aber du kannst 16US nicht mit 24PP oder 8VS gleichsetzen. Wie genau die GEschwindigkeit von US ist, wird sich erst in der Praxis herausstellen. Ich denke dass 24US es mit 24PP und 8VS aufnehmen können, 16 mit hohem Takt haben das selbe Ergebnis.
Der R520 wird aber kein US Chip, was genau die versporchene 'überraschung' wird, lässt sich nur erahnen, ich tipppe auf winkelunabhängiges AF, das wäre mir wichtiger als US wenn ich ehrlich bin

Mann sollte davon ausgehen, das eine Unified ALU höchstens genausoschnell wie eine jeweils spezialisierte PS oder VS Alu ist.....

Alles andere wäre nonsense und ich gehe sogar davon aus, das eine US Alu etwas langsamer als eine spezialisierte ist.

Du hättest in dem Fall also 16 US Alus die dann innerhalb des Games PS und VS "darstellen" müssen....gehen wir von dem Fall aus das auf der G70 4 VS für die Leistung die das Game benötigt "ausreichen" würden (die VS also nicht ausgelastet werden).

Dann würde von den 16 US sozusagen 4 US als VS "wegfallen" und du hättest nur noch 12 US für die PS-Aufgaben übrig....

Das ganze ist natürlich jetzt völlig simplizifiert und berücksichtig viele nebenaspekte nicht und ein paar andere sachen auch nicht, aber prinzipiel kann man sich das so vorstellen.

US sind keine Wunderalus, sondern einfach Alus die alle Aufgaben der PS oder VS übernehmen können...da ist nix mystisches dran, noch sind Sie dadurch schneller als ein einzelner PS oder VS.

Die meisten versprehen sich von US viel zu viel und erwarten auch zu viel. (Warum auch immer).

Juerg
2005-09-03, 10:46:18
Wenn der R520 "besser" filtern soll ohne beim Benchmarken einzubrechen, muss er trilineare TMU´s haben oder brachiale Füllrate, ich denke nicht das wir eins von beiden sehen werden.Er könnte auch "optimierter" filtern. d.h. schneller sein ohne dass wir sofort merken, dass auf Speed optimiert wurde. Sie können nicht auf den Markt ohne zumindest in ein paar wichtigen Balken zuoberst zu sein. Alles andere wäre ein Eingeständnis der Unfähigkeit. Dass ein R520 mit 80-90% des Speedes einer 7800GTX, dem AF einer GF4Ti und dem AA der V5 das non-plus-ultra wäre ist Wunschdenken und interessiert kein Investor und hier im Forum höchstens ein paar... Leider

Gast
2005-09-03, 10:59:52
Was ist eigentlich mit dem AF des S3 Deltachrome, welches so wenig Leistung kostet? Das muss doch auch bei ATI oder Nvidia möglich sein (und dann vorzugsweise ohne das Flimmern von S3) und wäre das nicht so oder so effizienter als Transistoren für dynamische Qualitätsverschlechterungsmethoden (auch bekannt als "Optimierungen") zu verschwenden?

reunion
2005-09-03, 11:04:10
Ich finde das 16pp@600Mhz sich schwer nach einem Unified Chip anhören!

Und ich finde es langsam lächerlich, dass es immer noch Leute gibt, die an einen US-Chip glauben. Im übrigen verstehe ich nicht, warum sich 16 Pipelines in irgendeiner Form nach einem Unified-Chip anhören sollen. Xenos hat je nach zählweise entweder 48, drei, oder eine Pipeline.

reunion
2005-09-03, 11:13:03
Oh ja, winkelunabhängiges AF! Dann wird der R530/R515 gleich gekauft :biggrin:


ATi müsste schon total den Verstand verloren haben, R520 mit winkelunabhängigen AF auszustatten. Das halte ich angesichts der weiterhin ausschließlich auf die Balkenlänge glotzenden Kunden für Utopie.

Ailuros
2005-09-03, 12:42:52
Danke@Ailuros, du hast mir genügend Stoff zum Grübeln gegeben um dieses mir nicht ersichtliche Problem der verschiedenen Filtermethoden jetzt näher nachzufragen.
Was das SSAA angeht liegst du richtig, dank meines 0.3% Wissens denke ich das gerade dieses wichtig ist. Um nun von den alten 3dfx Karten wegzukommen.....was verstehst du unter:"Supersampling mag zwar supertoll aussehen kombiniert mit AF, ist aber viel zu uneffizient da es Unmengen an Fuellrate und Leistung frisst."?
Hei?t das nun, dass unter den Bedingungen welcher ein r520 bieten möge kein der von dir genannten Eigenschaften geprägter "erfolgreicher" chip den Markt beleben könnte da dieser wiederum zu schwach wäre um den von dir geforderten Spezifikationen zu entsprechen?
(Sorry für die Wortwahl...ist halt spät/früh...)


Ich bezweifle erstmal dass R520 irgendwo anders als bei Crossfire hybride MS/SSAA modi unterstuetzen wird und schon gar nicht nur SSAA, aber Hoffnung stirbt ja als letzte.

Supersampling haut auf die Fuellrate verdammt viel ein; mit 2x samples bleibt nur noch 1/2 der Fuellrate uebrig, mit 4x samples 1/4 usw. Bei 166MHz hatte die V5 6k 1328 MPixels/s Fuellrate; mit 8xRGSS war die maximale theoretische Fuellrate nur noch 166 MPixels/s. Aehnlich waere es mit R520: ~10400 MPixels/s mit 8xRGSS = 1300 MPixels/s. 3dfx wollte schon immer Multisampling vorstellen mit Rampage und haette dieses auch zustande gebracht waeren sie nicht untergegangen.

So viel zum historischen Teil der Sache; NVIDIA hat hoechstwahrscheinlich Supersampling support in ihren Treibern erhalten weil Quantum3D es auch braucht fuer ihre professionellen Simulatoren.

Clarity™ Full Scene Anti-Aliasing (FSAA) with Up to 64 Sub-pixel Sample (SPS) FSAA


http://www.quantum3d.com/products/Independence/Independence1.htm

Independence Systeme skalieren GPUs schon seit 2001 mit GFs; auch wohl ein Grund warum SLi (scalable link interface) in den desktop Bereich schaffte.

Ein moeglicher Blick in die etwas weitere Zukunft waere:

Clarity™ FSAA - One of the benefits of SLPRA is that it enables IDX 2500 to deliver
unmatched image quality and optimal object recognition and detection simultaneously
with outstanding performance. IDX accomplishes this by rendering multiple sub-pixel
samples (SPS) in parallel on each IGR within a channel and combining them within
the attached Channel Compositor (CC) using patented realtime image processing techniques
that exploit latent sub-pixel information while minimizing latency and performance
impacts. Using this technique, Clarity™ enables IDX 2500 to deliver between 2
and 16 times the number of sub-pixel samples of other PC-IGs at equivalent or higher
performance levels. With Clarity, IDX 2500 users realize the universal benefits of
FSAA while avoiding the performance penalty associated with anti-aliasing approaches
that rely solely upon on-chip anti-aliasing capabilities and/or database “tricks”.

Ailuros
2005-09-03, 12:51:29
Wenn der R520 "besser" filtern soll ohne beim Benchmarken einzubrechen, muss er trilineare TMU´s haben oder brachiale Füllrate, ich denke nicht das wir eins von beiden sehen werden.

Die Bandbreiten-Resourcen auf chips sind aber auch nicht unendlich gross, sondern eher mit der Knappheit von schnellerem Speicher in letzter Zeit verdammt knapp und GPUs viel zu Bandbreiten-limitiert (im relativen Sinn).

Zur gleichen Zeit nur FP32 und tri-TMUs und dabei noch zumindest genauso schnell sein wie die Konkurrenz klingt mir viel zu optimistisch. Warum dann nicht auch gleich 128bpp HDR mit verrueckt hohen AA-samples? Dafuer muessten sie einen deferred renderer gebaut haben, was man wohl mit Sicherheit ausschliessen kann.

Ailuros
2005-09-03, 12:58:19
NV wird wohl weiter an der AF-Qualitaet der G70 drehen; der 78.03 ist lediglich ein Pflaster der letzten Minute und es zeigt sich dass mit ein paar sehr schnellen Aenderungen die Qualitaet steigern laesst ohne dass die Leistung besonders beinflusst wird.

Das Argument der Filterung fuer G70 wird in naechster Zeit entfallen IMO und es ist zu guter letzt besser ein Produkt mit maessiger Filterung auf den Markt zu schmeissen als gar keins. Ich hab zwar keine Ahnung wie bisher die User hier mit den G70 und vorigen Treibern getestet haben, aber da war so manches krumm was die Treiber-settings betrifft und man konnte nie sicher sein ob jetzt was so geht wie eingeschaltet oder nicht. Die Klammer funktioniert in 78.03 immer noch nicht.

robbitop
2005-09-03, 15:01:37
Die Klammer funktioniert in 78.03 immer noch nicht.
Diese Aussage hat Raff in den letzten Wochen versucht nachzustellen. Bei ihm funktioniert der Clamp merklich (NV40 getestet mit den wichtigsten 7*ern)

Gast
2005-09-03, 16:09:50
Die Bandbreiten-Resourcen auf chips sind aber auch nicht unendlich gross, sondern eher mit der Knappheit von schnellerem Speicher in letzter Zeit verdammt knapp und GPUs viel zu Bandbreiten-limitiert (im relativen Sinn).

Zur gleichen Zeit nur FP32 und tri-TMUs und dabei noch zumindest genauso schnell sein wie die Konkurrenz klingt mir viel zu optimistisch. Warum dann nicht auch gleich 128bpp HDR mit verrueckt hohen AA-samples? Dafuer muessten sie einen deferred renderer gebaut haben, was man wohl mit Sicherheit ausschliessen kann.

Du must zugeben das NV uns da etwas belehrt hat, schließlich hies es ja schon beim NV40 das er gerade mal genug Speicherbandbreite hat um 12 Pipelines vollständig auszulasten in bestimmten fällen. Der G70 hat "grade mal" 3,2GB/s mehr Speicherbandbreite prügelt da aber immens viel Leistung raus, wie man an hohen Auflösungen sieht.
Is auch lustig weil man ja immer NV nach sagt, zuviel Speicher zu verbraten mit ihrer etwas anderen AA Methode (sry das das vieleicht nicht ganz korrekt ist aber ich weis das da etwas anders läuft als bei ATI *g)

Raff
2005-09-03, 17:35:33
Diese Aussage hat Raff in den letzten Wochen versucht nachzustellen. Bei ihm funktioniert der Clamp merklich (NV40 getestet mit den wichtigsten 7*ern)

Ich muss mir das so und so nochmal ansehen. Jedenfalls kann ich mit Sicherheit sagen, dass der 70.41 - welcher den Clamp noch nicht intus hat - deutlich mehr flimmert als 71.84 und 77.77, ergo scheint der Schalter bei den neuen zu gehen.

MfG,
Raff

ShadowXX
2005-09-03, 17:52:01
Ich muss mir das so und so nochmal ansehen. Jedenfalls kann ich mit Sicherheit sagen, dass der 70.41 - welcher den Clamp noch nicht intus hat - deutlich mehr flimmert als 71.84 und 77.77, ergo scheint der Schalter bei den neuen zu gehen.

MfG,
Raff

Oder Sie haben beim Wechsel 70.41 zu höheren Treibern sowieso schon was an der AF-Quali ins positive gedreht gehabt, unabhängig vom Clamp....

deekey777
2005-09-03, 19:04:30
Die 600MHz würden doch garnicht ausreichen um die 7800GTX zu schlagen, zumindest von der Füllrate. Aber vlt. gibts ja einige Neuerung und/oder Änderungen an der Architektur bezüglich der Effizienz?

Ich rieche eine R520XT PE.

Naja, die Vertexshader könnten wie gehabt schneller sein, vor allem wenn es wirklich 8 sind bei dem hohen Takt.

Nur leider bringt das nur in 3DMark 05 wirklich Vorteile ;)

Und was entscheidet bei dem Kauf einer 7800Ultrasuperhighduperextra oder einer XY9000XTPESuper-Radeon? Selbst die Kack-X700Pro hat 6VS.

Horimoto
2005-09-03, 19:09:49
Warum sollten 600Mhz nciht reichen?
Mit erhöhter PP Effizienz, und davon gehe ich aus, wäre das nahezu kein Problem.
Dazu noch 700Mhz RAM, und die Sache wäre geritzt.

Die 600MHz IST die XTPE, weil es heisst, dass sie eher nur für benches gezeigt wird, soe wie die echte PE.
Wenn dann aber die XT mit 550MHz kommt, dann wären die XTs sehr schlecht zu übertakten, und überhaupt, scheint der R520 am Limit zu laufen, also dürfte nVidia keine probs haben, ATi zu antworten, wenn man sieht, was für ein OC potential der G70 hat.

deekey777
2005-09-03, 19:15:22
Die 600 MHz ist der Takt einer XT - egal ob RV530 oder R520. Oder auch nicht.

Raff
2005-09-03, 19:27:29
Oder Sie haben beim Wechsel 70.41 zu höheren Treibern sowieso schon was an der AF-Quali ins positive gedreht gehabt, unabhängig vom Clamp....

Kann ich leider nicht genau sagen, denke ich aber nicht. Aber schau doch mal.

70.41 HQ:
http://img384.imageshack.us/img384/6439/7041hq2pn.th.jpg (http://img384.imageshack.us/my.php?image=7041hq2pn.jpg)

71.84 WHQL HQ:
http://img384.imageshack.us/img384/8540/7184whqlhq3jh.th.jpg (http://img384.imageshack.us/my.php?image=7184whqlhq3jh.jpg)

Der 70.41 ist deutlich schärfer => mehr Flimmern. Das scheint aber nur auf die regulär negativen Detail Textures zuzutreffen. 77.72 schaut btw gleich aus wie der 71.84.

Das ist aber "leicht" OT ...

MfG,
Raff

Coda
2005-09-03, 19:47:34
Also der Clamp funktioniert auf jedem Fall auf der GeForce 7...

Selbst die Kack-X700Pro hat 6VS.Das liegt wohl eher daran, dass die R4xx Architektur dort nicht skalierbar ist.

Gast
2005-09-03, 20:19:42
Und was entscheidet bei dem Kauf einer 7800Ultrasuperhighduperextra oder einer XY9000XTPESuper-Radeon? Selbst die Kack-X700Pro hat 6VS.

Entscheiden wird die Gameperformance und die ist nirgends Vertexshader limitierend. Da würden selbst die VS der 6600GT reichen.
ATI muss aufpassen, dass sie bei den PS drann bleiben, denn da werden einige Spiele kommen, die dort Performance ziehen. In diesem Bereich ist der G70 ein Monster.

Und was die 6Vs der X700pro angeht, so hat Coda recht. Die R4xx Architektur war dort nicht skalierbar. Das heisst bei der halbierung des Chips im Falle der X700pro mussten die 6VS komplett mitgeschleppt werden, was letztlich das Transistorbudget im Mainstream auf ATIs Seite erhöht hat. Deswegen sahen sie dort auch viel schlechter gegenüber Nvidia aus als im High End. Aus der X700XT ist nichts geworden und die 6600GT hat ATI auf der ganzen Linie dominiert.
Desweiteren gab es von ATI auch nichts im Low End von der neuen Architektur. Ein weiterer Indiz, dass das Design keinen Cut Down bei den VS erlaubte. Bei Nvidia's NV4x Design ging das wunderbar, was man ja auch am G70 sieht. Der ist als NV47 ursprünglich benannt relativ kurzfristig entstanden.

Gast
2005-09-03, 21:49:26
schon gesehen ?

http://www.digit-life.com/articles2/video/3dvideoforpc-05q2.html

mapel110
2005-09-03, 22:00:20
schon gesehen ?

http://www.digit-life.com/articles2/video/3dvideoforpc-05q2.html
90nm TSMC (low-k);
250-275 million transistors;
16 pixel pipelines;
8 vertex pipelines;
DX9 SM3 compliant (FP32);
the core clock is within 600-700 MHz.

Das erwarten wir hier ja auch. So ein Zufall. :D


ROPs, completely orthogonal to the frame buffer format, must be a nice addition. They will allow MSAA in case of FP16 HDR
:confused:
Glaub ich nicht dran. Wozu dann Lost Coast mit SM3-HDR ohne AA?! O_O

deekey777
2005-09-03, 22:20:00
90nm TSMC (low-k);
250-275 million transistors;
16 pixel pipelines;
8 vertex pipelines;
DX9 SM3 compliant (FP32);
the core clock is within 600-700 MHz.

Das erwarten wir hier ja auch. So ein Zufall. :D


ROPs, completely orthogonal to the frame buffer format, must be a nice addition. They will allow MSAA in case of FP16 HDR
:confused:
Glaub ich nicht dran. Wozu dann Lost Coast mit SM3-HDR ohne AA?! O_O
Kein Ingame-AA. :biggrin:
Sonst erlaubt es das AI nicht.

Gast
2005-09-03, 22:23:26
90nm TSMC (low-k);
250-275 million transistors;
16 pixel pipelines;
8 vertex pipelines;
DX9 SM3 compliant (FP32);
the core clock is within 600-700 MHz.

Das erwarten wir hier ja auch. So ein Zufall. :D


ROPs, completely orthogonal to the frame buffer format, must be a nice addition. They will allow MSAA in case of FP16 HDR
:confused:
Glaub ich nicht dran. Wozu dann Lost Coast mit SM3-HDR ohne AA?! O_O

Jetzt stellt sich die Frage reicht das ?

mapel110
2005-09-03, 22:32:59
Jetzt stellt sich die Frage reicht das ?
Konkurrenzfähig wird der Chip sein, was Speed angeht. Die Karten prallen doch derzeit ohnehin in den meisten Fällen gegen das Speicherbandbreiten- oder CPU-Limit.

Interessant werden allerdings Benchmarks bei 2048x1536. :)
Da muss man abwarten, wer die Nase vorn hat. Es kommt da noch auf die Architektur des R520 an.

Gast
2005-09-03, 22:41:30
Fragt sich wie mächtig der R520 ist, wenn er wirklich AA mit HDR bringen soll, selbst der G70 bricht bei Splinter Cell mit HDR und allen anderen Optionen um ca. 40% ein, dazu noch AA? Das geht sicher nicht in höherer Auflösung als 1024 gut.

Winter[Raven]
2005-09-03, 22:41:45
Konkurrenzfähig wird der Chip sein, was Speed angeht. Die Karten prallen doch derzeit ohnehin in den meisten Fällen gegen das Speicherbandbreiten- oder CPU-Limit.

Interessant werden allerdings Benchmarks bei 2048x1536. :)
Da muss man abwarten, wer die Nase vorn hat. Es kommt da noch auf die Architektur des R520 an.

Sagen wir so ... der G70 wird es dem R520 das leben sehr schwer machen... :eek:

//EDIT

Bzw. je länger der Shader wird, desto mehr wird NVidia's Chip sich absetzen können, aber R520 ist sowieso nur eine Zwischenlösung bis zum R580.

ShadowXX
2005-09-03, 22:51:59
Konkurrenzfähig wird der Chip sein, was Speed angeht. Die Karten prallen doch derzeit ohnehin in den meisten Fällen gegen das Speicherbandbreiten- oder CPU-Limit.

Interessant werden allerdings Benchmarks bei 2048x1536. :)
Da muss man abwarten, wer die Nase vorn hat. Es kommt da noch auf die Architektur des R520 an.

Wirklich interessant wirds doch erst bei r580 vs. GXX (also dem "Nachfolger/Refresh/"Wie es auch immer genannt werden wird" des G70).

ATI wird den r520 schon so zurechttakten (und wenns nur wieder die XT PEs sind) das er mit dem G70 mithalten kann.

Ein paar Games wird der r520 knapp gewinnen, ein paar Games der G70.

nV hat das problem/pech, das Games, die wirklich von der brachialen Shaderpower des G70 profitieren würden erst dann kommen, wenns mindestens schon den r580 gibt.

Ich schätze mal das Fear eins der wenigen Games derzeit sein wird, wo der G70 dem r520 wirklich "wegziehen" wird (und damit meine ich jetzt so um die 10FPS, also nix überragend wildes).

TheCounter
2005-09-03, 22:57:06
Die 600MHz IST die XTPE, weil es heisst, dass sie eher nur für benches gezeigt wird, soe wie die echte PE.
Wenn dann aber die XT mit 550MHz kommt, dann wären die XTs sehr schlecht zu übertakten, und überhaupt, scheint der R520 am Limit zu laufen, also dürfte nVidia keine probs haben, ATi zu antworten, wenn man sieht, was für ein OC potential der G70 hat.

Ich find 550MHz bzw. 600MHz aber etwas wenig für 90nm. Bei 130nm waren ja auch schon 540MHz möglich.

Kommt mir irgendwie komisch vor...

mapel110
2005-09-03, 23:04:01
Nochmal ein Rechenbeispiel

NV45 425x16=6800
G70 430x24=10320
51 % Plus

R480 540x16=8640
+51 %
R520 815x16=13040

Also wenn R520 ähnlich schneller sein wollte als es R480 gegenüber NV45 ist, dann müsste man den Chip bei gleich effizienter Architektur mit 815 Mhz takten. :eek:
Da muss sich also was geändert haben, sonst wird der R520 wirklich eine Enttäuschung, speziell was ultra hohe Auflösungen ala 2048x1536 angeht.

Gast
2005-09-03, 23:33:59
Kann man so rechnen?
Beim G70 wurde ja mehr gemacht als nur ein paar erweiterte Pipelines drangeklebt. Ich meine hier speziel Antialiasing, der G70 hat nur marginal schnelleren Speicher und rennt dagegen mit brachialer Rohpower an, und es kommt tatsächlich am ende mehr bei rum als man zuerst annahm.

mapel110
2005-09-03, 23:44:57
Kann man so rechnen?

Was Pixelfüllrate angeht, ja.


Beim G70 wurde ja mehr gemacht als nur ein paar erweiterte Pipelines drangeklebt. Ich meine hier speziel Antialiasing, der G70 hat nur marginal schnelleren Speicher und rennt dagegen mit brachialer Rohpower an, und es kommt tatsächlich am ende mehr bei rum als man zuerst annahm.
Das dürfte daran liegen, dass nvidia beim NV45 noch lange nicht soviel Pixelfüllrate hatte wie ATI und sie deshalb noch Spielraum hatten.

deekey777
2005-09-03, 23:49:10
Texelfüllrate. Es ist ja bei 16 ROPs geblieben.

Ailuros
2005-09-04, 05:56:55
Fragt sich wie mächtig der R520 ist, wenn er wirklich AA mit HDR bringen soll, selbst der G70 bricht bei Splinter Cell mit HDR und allen anderen Optionen um ca. 40% ein, dazu noch AA? Das geht sicher nicht in höherer Auflösung als 1024 gut.

Ich sehe hier immer noch fast 50fps in 1600*1200:

http://www.xbitlabs.com/articles/video/display/geforce-7800_4.html

...und ~33 fps in 2048*1536 hier:

http://www.techreport.com/reviews/2005q3/geforce-7800gt/index.x?pg=7

Gast
2005-09-04, 09:04:13
Da muss sich also was geändert haben, sonst wird der R520 wirklich eine Enttäuschung, speziell was ultra hohe Auflösungen ala 2048x1536 angeht.
Ich habe zwar auch gerne ein hohe Auflösung (1600x1200 - wenns geht), bei 2048x1536 bin ich aber skeptisch, ob die Monitormaske die Auflösung überhaupt physikalisch korrekt darstellen kann. Außerdem dürfte die Bildwiederholfrequenz nicht ausreichen, denn Monitore mit 140 Khz sind seeeehr selten.

Gast
2005-09-04, 09:27:54
Ich sehe hier immer noch fast 50fps in 1600*1200:

http://www.xbitlabs.com/articles/video/display/geforce-7800_4.html

...und ~33 fps in 2048*1536 hier:

http://www.techreport.com/reviews/2005q3/geforce-7800gt/index.x?pg=7

Ja keine Frage ist spielbar und sehr beeindruckend, ich hab ja selber eine *g
Aber der Einbruch mit aktiviertem HDR ist ca. der selbe wie wenn man 4xaa/16x(pseudo)af aktiviert.

Wenn der R520 nun beides erlaubt, muss es ja etwas geben das dem Einbruch entgegen wirkt, wenn nicht dann ist ja HDR+AA nur in 1024 einsetzbar, man brauch ja ~30fps damits spielbar bleibt (wir reden ja momentan von SP und FC, nicht von Age of Empires 3).

Gast
2005-09-04, 09:29:41
Texelfüllrate. Es ist ja bei 16 ROPs geblieben.

Gutes Stichwort, die ROPs takten beim R520 ja weitaus höher als beim G70, ist das ein entscheidender Vorteil=?

nagus
2005-09-04, 09:30:35
Ich sehe hier immer noch fast 50fps in 1600*1200:

http://www.xbitlabs.com/articles/video/display/geforce-7800_4.html

...und ~33 fps in 2048*1536 hier:

http://www.techreport.com/reviews/2005q3/geforce-7800gt/index.x?pg=7


und man sieht sehr schön, dass die X850XT PE ganz leicht mithalten kann mit einer 7800gtx. R520 wird bei solchen "extrem" settings wahrscheinlich sehr viel schneller sein und die 7800gtx deutlich deklassieren

Gast
2005-09-04, 09:37:05
und man sieht sehr schön, dass die X850XT PE ganz leicht mithalten kann mit einer 7800gtx. R520 wird bei solchen "extrem" settings wahrscheinlich sehr viel schneller sein und die 7800gtx deutlich deklassieren

und man sieht sehr schön, dass die 7800gtx ganz leicht die X850XT abhängt. R520 wird bei solchen "extrem" settings sehr wahrscheinlich nicht bzw. gleich schnell sein und mit der 7800gtx gleichziehen.

Kannst du bitte so etwas lassen, hast ja nichtmal ne Begründung geliefert also Brainfarth...

Wie soll er es schaffen wenn ihm die Speicherbandbreite ausgeht ^^

Demirug
2005-09-04, 09:58:14
Gutes Stichwort, die ROPs takten beim R520 ja weitaus höher als beim G70, ist das ein entscheidender Vorteil=?

Je komplexer das Shading desto weniger profitiert man von schnellen ROPs. Bis auf wenige Spezialfälle (z.B. Z-Pass) wird es nichts nutzen. Vor allem braucht man ja auch noch die Speicherbandbreite dahinter.

Graka Experte.
2005-09-04, 11:32:37
Hdr+AA das ist für mich ein Kaufargument.Wenn die X900 XT gleichauf mit einer 7800 GTX ist(oder paar frames langsamer)holl ich mir denn chip.Ati hat ja immer bewiesen das ihre Karten beim einsatz von aa nicht so schnell einbrechen wie die von Nvidia.

Gast
2005-09-04, 12:04:23
mal sehen, was sie an dem memory controller gemacht haben.....
vielleicht bekommen wir jetzt einen "extreme memory controller" ,-)

reunion
2005-09-04, 12:29:16
Nochmal ein Rechenbeispiel

NV45 425x16=6800
G70 430x24=10320
51 % Plus

R480 540x16=8640
+51 %
R520 815x16=13040

Also wenn R520 ähnlich schneller sein wollte als es R480 gegenüber NV45 ist, dann müsste man den Chip bei gleich effizienter Architektur mit 815 Mhz takten. :eek:
Da muss sich also was geändert haben, sonst wird der R520 wirklich eine Enttäuschung, speziell was ultra hohe Auflösungen ala 2048x1536 angeht.

Warum wird R520 eine Enttäuschung, wenn er nicht den gleichen Füllratenvorteil wie R480 hat?
R480 ist deutlich schneller als NV45 (in den von dir angesprochenen Auflösungen tw. bis zu Faktor 2), diesen Vorteil wird ATi mit R520 nicht mehr haben. Dafür wird nV ihren Technologievorteil verlieren - im Endeffekt werden sich die beiden Chips deutlich ähnlicher sein als bei der vorangegangenen Generation.

reunion
2005-09-04, 12:31:27
90nm TSMC (low-k);
250-275 million transistors;
16 pixel pipelines;
8 vertex pipelines;
DX9 SM3 compliant (FP32);
the core clock is within 600-700 MHz.


Endlich hat's mal jemand geschnallt.


ROPs, completely orthogonal to the frame buffer format, must be a nice addition. They will allow MSAA in case of FP16 HDR


Also das empfinde ich schonmal als deutliches Plus.

reunion
2005-09-04, 12:34:37
']Bzw. je länger der Shader wird, desto mehr wird NVidia's Chip sich absetzen können, aber R520 ist sowieso nur eine Zwischenlösung bis zum R580.


Die Shader limitieren in praktisch keinem heutigen Spiel, R520 wird sich an der Füllrate/Speicherbandbreite, bzw. deren Effizienz messen lassen müssen.

reunion
2005-09-04, 12:37:41
Auch noch intressant:

We also have information that the RV530 will be the first ATI chip offering the double rate of writing results into Z/S buffer in case of no MSAA — similar to all NVIDIA chips, NV30 and higher.

Then ATI should present a new flagship — the R580 chip. It's too early to speak of the release dates: we have heard various dates, from this year in autumn (almost simultaneously with the announcement of the delayed R520) to Spring 2006. Of course, it's silly to discuss the specs, but we'll still risk a number of assumptions. The R580 chip will most likely retain the 16-pipeline architecture, but its shader ALUs will be significantly overhauled, resulting in noticeably higher efficiency of the R580 relative to the R520, when executing code with a lot of Shaders 2.0 and 3.0.

It's dangerous to look further into the future — R6x0 chips must comply with the base DX10 requirements and must have an architecture similar to ATI Xenos. These chips should be expected in the second half of the next year together with Windows Vista aka Longhorn ;-)

Winter[Raven]
2005-09-04, 12:50:51
Die Shader limitieren in praktisch keinem heutigen Spiel, R520 wird sich an der Füllrate/Speicherbandbreite, bzw. deren Effizienz messen lassen müssen.

Kein normaler Mensch wird die DoomIII, Farcry, HL2 oder andere Bensches wirklich ernst nehmen, dafür ist der R520 als auch der G70 die falschen Ansprechpartner...

Botcruscher
2005-09-04, 12:58:23
']Kein normaler Mensch wird die DoomIII, Farcry, HL2 oder andere Bensches wirklich ernst nehmen, dafür ist der R520 als auch der G70 die falschen Ansprechpartner...


Welche Bensches wird woll Otto-normal-DAU sich anschaun. ;) Dem Mediamarkt käufer ist das natürlich egal, der hat noch weniger Ahnung. :biggrin:

Gast
2005-09-04, 13:02:28
Endlich hat's mal jemand geschnallt.

Zitat:
ROPs, completely orthogonal to the frame buffer format, must be a nice addition. They will allow MSAA in case of FP16 HDR


Also das empfinde ich schonmal als deutliches Plus.

Du kannst dir aber gut vorstellen was passiert wenn das nicht flüssig/brauchbar läuft...

Für was brauch man das eigentlich?
"double rate of writing results into Z/S buffer in case of no MSAA"

Es spielt doch heute keiner mehr ohne MSAA, und nur Doom3 "soll" davon profitieren oder? Nonsens

deekey777
2005-09-04, 13:26:57
Auch noch intressant:

We also have information that the RV530 will be the first ATI chip offering the double rate of writing results into Z/S buffer in case of no MSAA — similar to all NVIDIA chips, NV30 and higher.

...

Kann es sein, daß diese Sätze etwas mit dieser Zwei zu tun hat 4-1-3-2?
Diese Zwei ist doch das Verhältnis ROP <-> TMUs bzw. 1 zu 2 bzw. 4 zu 8. :confused:
(Es gibt mehrere Postings zB im B3D Forum, daß die letzte Zahl etwas mit den Z Samples per Takt zu tun haben soll, auch spricht dafür, daß die NV43 dies beherrscht; doch warum soll die größere R580 dies nicht können?)

Sunrise
2005-09-04, 13:34:17
Es spielt doch heute keiner mehr ohne MSAA, und nur Doom3 "soll" davon profitieren oder? Nonsens

Nein. Ich habe es nicht verstanden.

TheCounter
2005-09-04, 13:41:24
Endlich hat's mal jemand geschnallt.

Also das empfinde ich schonmal als deutliches Plus.

Wär ja nice wenn das in den R500 auch mit eingeflossen ist.

Naja mal abwarten, dürfte ja nichtmehr all zu lange dauern bis es was offizielles gibt. *hoff*

Sunrise
2005-09-04, 13:43:56
Auch noch intressant:

We also have information that the RV530 will be the first ATI chip offering the double rate of writing results into Z/S buffer in case of no MSAA — similar to all NVIDIA chips, NV30 and higher.[/i]

RV515 - 4-1-1-1
RV530 - 4-1-3-2

@deekey777:

Exakt. Allerdings kann ich dir die Frage mit R580 derzeit noch nicht beantworten.

tEd
2005-09-04, 13:52:25
RV515 - 4-1-1-1
RV530 - 4-1-3-2

@deekey777:

Exakt. Allerdings kann ich dir die Frage mit R580 derzeit noch nicht beantworten.

rv530 hat als einziger double z weil es generell ein 4pipeline chip ist aber die 8pipeline karten ersetzen wird.

es ist quasi ein r580 mit 1/4 ALU/TEX/ROPs und 1/2 z units

deekey777
2005-09-04, 14:09:33
rv530 hat als einziger double z weil es generell ein 4pipeline chip ist aber die 8pipeline karten ersetzen wird.

es ist quasi ein r580 mit 1/4 ALU/TEX/ROPs und 1/2 z units

Deine Rechnung geht zwar auf, doch danach gäbe es nur 4 Texturen per Takt, was doch zu wenig wäre, oder?
Es spricht natürlich nichts, daß die Z/Stencil Leistung der kommenden Radeons der von nVidia angepaßt wurde. Doch dies ist IMHO nicht aus der Zahlenspielerei ersichtlich.

Sunrise
2005-09-04, 14:13:18
rv530 hat als einziger double z weil es generell ein 4pipeline chip ist aber die 8pipeline karten ersetzen wird.

es ist quasi ein r580 mit 1/4 ALU/TEX/ROPs und 1/2 z units

Die Frage ist, warum ATi beim R580 diesen "Vorteil" nicht belässt. Gibt es da eine sinnvolle, nachvollziehbare (mit derzeitigen Daten) und aussagekräftige Erklärung die Sinn machen würde ? Ich kann mir kaum vorstellen, dass dies etwas mit Transistor-Budgets zu tun hat.

Ailuros
2005-09-04, 14:22:28
Ja keine Frage ist spielbar und sehr beeindruckend, ich hab ja selber eine *g
Aber der Einbruch mit aktiviertem HDR ist ca. der selbe wie wenn man 4xaa/16x(pseudo)af aktiviert.

Wenn der R520 nun beides erlaubt, muss es ja etwas geben das dem Einbruch entgegen wirkt, wenn nicht dann ist ja HDR+AA nur in 1024 einsetzbar, man brauch ja ~30fps damits spielbar bleibt (wir reden ja momentan von SP und FC, nicht von Age of Empires 3).

MSAA + 64bpp wird sowieso eine Unmenge von Bandbreite und Speicherplatz fressen; selbst wenn es auf R520 moeglich sein sollte wuerde ich keine Wunder erwarten was die Leistung und Aufloesung betrifft.

Ich werde aber das Gefuehl nicht los dass ATI eher auf kleinere floating point Formate fuer HDR setzen wird.

Ailuros
2005-09-04, 14:29:31
Wär ja nice wenn das in den R500 auch mit eingeflossen ist.

Naja mal abwarten, dürfte ja nichtmehr all zu lange dauern bis es was offizielles gibt. *hoff*

Ich kann mir leicht vorstellen dass Xenos ueber 64bppHDR + MSAA faehig ist, das Problem ist dann eher dass Entwickler nicht niedriger als 720p render target gehen koennen und das eDRAM entweder 4xMSSA oder 64bpp erlaubt. Man koennte natuerlich die "viewport" Anzahl von 3 auf 3+X erhoehen, aber da das dann wohl die Leistung zu stark beinflussen wird, sieht es hier auch nicht nach viel aus.

robbitop
2005-09-04, 14:31:33
Ich werde aber das Gefuehl nicht los dass ATI eher auf kleinere floating point Formate fuer HDR setzen wird.
FP10 wie beim R500 vieleicht? Das würde sehr viel Bandbreite sparen. Käme qualitativ aber nicht an FP16 HDR heran.

Ailuros
2005-09-04, 14:33:22
rv530 hat als einziger double z weil es generell ein 4pipeline chip ist aber die 8pipeline karten ersetzen wird.

es ist quasi ein r580 mit 1/4 ALU/TEX/ROPs und 1/2 z units


Was heisst denn ueberhaupt "4 pipelines" bei Dir? Nach dieser Logik waere auch der NV43 nur ein single quad chip.

RV530 hat 4 ROPs, 8 TMUs und 12 fragment shaders so wie es aussieht. Uebrigens hat das Ding 1/2 ALUs im Vergleich zu R580.

Ailuros
2005-09-04, 14:35:04
FP10 wie beim R500 vieleicht? Das würde sehr viel Bandbreite sparen. Käme qualitativ aber nicht an FP16 HDR heran.


Als Laie will ich die Qualitaet erstmal sehen, bevor ich zu Schlussfolgerungen komme. FP10 hat aber ein wichtigeres "Problem": dass Entwickler schon FP16 in zukuenftigen Projekten implementiert haben.

Demirug
2005-09-04, 15:03:24
FP10 ist kein genormtes Standardformat. ATI müsste daher ein neues FourCC Format definieren. Daraus wiederum ergibt sich das ohne Patch der vorhandenen Software sowieso nichts funktionieren wird.

reunion
2005-09-04, 15:08:17
FP10 wie beim R500 vieleicht? Das würde sehr viel Bandbreite sparen. Käme qualitativ aber nicht an FP16 HDR heran.


Besser praxisrelevantes FP10 HDR mit AA, als performancefressendes FP16 HDR ohne AA. Im übrigen müsste sich erstmal zeigen, ob FP16 HDR überhaupt einen sichtbaren Vorteil bringt. Das erinnert schon fast an die FP32 vs. FP24 Diskussion...

Coda
2005-09-04, 15:13:16
FP10 hat nichtmal genügend Bits um die Farben gleichgut wie bisher aufzulösen...

Ich weiß ja nicht, aber das ist sicher nicht das was wir wollen.

Gast
2005-09-04, 15:35:09
Besser praxisrelevantes FP10 HDR mit AA, als performancefressendes FP16 HDR ohne AA. Im übrigen müsste sich erstmal zeigen, ob FP16 HDR überhaupt einen sichtbaren Vorteil bringt. Das erinnert schon fast an die FP32 vs. FP24 Diskussion...

Also das es zwischen FP10 und FP16 einen ersichtlichen Unterschied gibt, kann dir jeder der etwas von Mathematik versteht bestätigen ^^
Und wie Demi schon erwähnte ist FP10 nichtmal genormt, seit wann baut ATI (bekannt fürs sparen an Features und Transistoren, was nicht negativ zu sehen ist) etwas ein was nicht "konform" geht?

Gast
2005-09-04, 15:53:19
Also das es zwischen FP10 und FP16 einen ersichtlichen Unterschied gibt, kann dir jeder der etwas von Mathematik versteht bestätigen ^^

Das will Reunion auch bestimmt nicht abstreiten.
Die Frage ist nur ob es einen sichtbaren Unterschied gibt.
Und mir ist auch FP10-HDR mit AA lieber als FP16-HDR ohne AA. :)

Coda
2005-09-04, 16:28:30
Wie soll dieses FP10 denn aussehen? 1bit sign, 3bit exponent und 6bit mantisse?
Das würde ja schon so schlechter aussehen als FX8 im [0-1] Bereich *würg*

robbitop
2005-09-04, 16:28:49
Was heisst denn ueberhaupt "4 pipelines" bei Dir? Nach dieser Logik waere auch der NV43 nur ein single quad chip.

RV530 hat 4 ROPs, 8 TMUs und 12 fragment shaders so wie es aussieht. Uebrigens hat das Ding 1/2 ALUs im Vergleich zu R580.
Das Verhältnis Fragment Shaders - TMUs klingt seltsam. Eigentlich unüblich bei heutigen Pipes. Aber ich lass mich gern überraschen.

aths
2005-09-04, 16:31:59
FP10 hat nichtmal genügend Bits um die Farben gleichgut wie bisher aufzulösen...

Ich weiß ja nicht, aber das ist sicher nicht das was wir wollen.Bei 7e3 wäre das Problem nicht so gewaltig.

Verzichtet man auf Destination Alpha, kann man das FP10-RGB-Format sogar im üblichen 32-Bit-Framebuffer ablegen. Aber ich halte FP10, so es denn von ATI wirklich kommen sollte, nur für eine Notlösung. FP16 hingegen ist ein richtiger Fortschritt. Ich weiß nicht, ob HDR schon FP16 ist, oder nicht erst FP32 – mit FP10 ist man aber wirklich sehr eingeschränkt.

robbitop
2005-09-04, 16:34:45
Besser praxisrelevantes FP10 HDR mit AA, als performancefressendes FP16 HDR ohne AA. Im übrigen müsste sich erstmal zeigen, ob FP16 HDR überhaupt einen sichtbaren Vorteil bringt. Das erinnert schon fast an die FP32 vs. FP24 Diskussion...
Kommt drauf an, ob die Situation für FP16 ausgelegt ist oder nicht.
Wenn nicht, hats den selben Effekt wie 32 Bit FB zu Zeiten von 1996-1999 oder Gloom Effekte vs HDR. Nämlich sieht man keine Unterschiede. Keine Kunst. Sobald etwas auf FP16 HDR ausgelegt ist, wird alles darunter qualitativ schlechter sein. Dazu muss es aber ersteinmal kommen.

reunion
2005-09-04, 16:45:13
']Kein normaler Mensch wird die DoomIII, Farcry, HL2 oder andere Bensches wirklich ernst nehmen, dafür ist der R520 als auch der G70 die falschen Ansprechpartner...


Mit welchen Benchmarks soll den sonst die Performance ermittelt werden?
Welche Benchmarks wurden denn zur G70-Veröffentlichung verwendet?
R520 wird sich wie G70 an heutigen Spielen messen müssen, und diese sind nunmal vermehrt Füllratenlimitiert. Oder warum glaubst du, dass nV schon wieder die AF-Qualität gesenkt hat? Mehr Shaderpower erhält man dadurch sicher nicht.

Es wird darauf hinaus laufen, dass genau diese Spiele das berühmte Zünglein an der Waage sein werden IMHO. Und dafür wird auch R520 genügend Shaderpower mitbringen. Entscheidend wird die Füllrate/Bandbreite, deren Effizienz, sowie natürlich die Bildqualität.

reunion
2005-09-04, 16:52:18
RV530 hat 4 ROPs, 8 TMUs und 12 fragment shaders so wie es aussieht. Uebrigens hat das Ding 1/2 ALUs im Vergleich zu R580.


Wie kommst du auf die 8 TMUs?
Die Zahlen deuten ja eher auf einen geviertelten R580 mit doppelten Z/Stencil-Output hin: 4-1-3-2
Oder siehst du die letzte Zahl als das ROP/TMU-Verhältnis? Dann würde auch die '1' bei R580 Sinn machen.

xL|Sonic
2005-09-04, 17:26:14
Also in Bezug auf den R500 (Xbox360) und die FP10 bei HDR haben einige Entwickler gesagt, dass der Unterschied zu FP16 oder 32 nur in extrem grenzwertigen Situationen einem User auffallen könnte, wenn überhaupt.
In so gut wie allen Fällen dürfte es dem normalen Gamer aber nicht auffallen und wenn ich dann die Wahl zwischen FP10 HDR mit AA oder FP16 HDR ohne AA hätte, würde ich auch ersteres nehmen, auch wenns von der technologischen Seite nicht so toll ist und auch nicht so fortschrittlich.

Gast
2005-09-04, 17:32:42
Ich kann mir nicht vorstellen das es in "unserem" Sinne ist, auch bei HDR Genauigkeit "wegzulassen". Erst gabs winkelabhängiges AF, dann nur noch teilweise Trilineare Filterung, jetzt kürzen wir die Genauigkeit bei der Lichtberechnung...

32Bit Texturing brauch man ja auch nicht... gema auf 24Bit als Zwischenschritt zum eingewöhnen. Alles was man uns als "Zwischenschritt" verkaufen will hat dazu geführt das das Endresultat nicht der ursprünglichen Idee entsprach (Qualitätsmäßig betrachtet).

Irgendwann wird es Pixelshader Content geben bei dem man den Unterschied zwischen R300Serie und R520 Serie sehen wird, aber atm gibts es das wohl nicht, lass mer SM3 deswegen auch weg?
Die Streichliste lässt sich beliebig erweitern...

Jesus
2005-09-04, 17:48:29
Also in Bezug auf den R500 (Xbox360) und die FP10 bei HDR haben einige Entwickler gesagt, dass der Unterschied zu FP16 oder 32 nur in extrem grenzwertigen Situationen einem User auffallen könnte, wenn überhaupt.
In so gut wie allen Fällen dürfte es dem normalen Gamer aber nicht auffallen und wenn ich dann die Wahl zwischen FP10 HDR mit AA oder FP16 HDR ohne AA hätte, würde ich auch ersteres nehmen, auch wenns von der technologischen Seite nicht so toll ist und auch nicht so fortschrittlich.

Andere Entwickler (Heavenly Sword) sagen aber dass sie selbst bei FP16 HDR bereits Genauigkeitsprobleme in manchen Situationen bekommen, dann sollte es mit noch weniger nicht unbedingt besser werden... :rolleyes:

Gast
2005-09-04, 18:06:10
Andere Entwickler (Heavenly Sword) sagen aber dass sie selbst bei FP16 HDR bereits Genauigkeitsprobleme in manchen Situationen bekommen, dann sollte es mit noch weniger nicht unbedingt besser werden... :rolleyes:
Wie sollen sich denn diese Genauigkeitsprobleme äussern?
Bei Shadern kann ich mir das noch vorstellen, aber bei HDR?
Müsste alles blasser/dunkler aussehen, aber igendwelche Bildfehler?

Vielleicht kann mal einer der Gurus etwas dazu sagen?

Jesus
2005-09-04, 18:18:49
Wie sollen sich denn diese Genauigkeitsprobleme äussern?
Bei Shadern kann ich mir das noch vorstellen, aber bei HDR?
Müsste alles blasser/dunkler aussehen, aber igendwelche Bildfehler?

Vielleicht kann mal einer der Gurus etwas dazu sagen?


Originally Posted by DeanoC on HDR for Heavenly Sword:

HDR is bread and butter for us, something like 2 years old tech. Originally 16 bit integer (back in the ATI 9800 days) now FP16 based. X360 has a nice 32 bit float mode (FP10) but I expect that will be quite hard to use for proper HDR...FP16 seems to be the best comprimise for a framebuffer at the moment (its enough for most lighting, though we run out of precision directly in front of the sun (noticeable on our cloud renderer))

Ailuros
2005-09-04, 23:44:56
Wie kommst du auf die 8 TMUs?
Die Zahlen deuten ja eher auf einen geviertelten R580 mit doppelten Z/Stencil-Output hin: 4-1-3-2
Oder siehst du die letzte Zahl als das ROP/TMU-Verhältnis? Dann würde auch die '1' bei R580 Sinn machen.

4 ROPs sind genug fuer mainstream/budget, darueber sollten wir uns einig sein.

(per) ROP: c/stencil OPs, ALU OPs, texture OPs

Xenos: 8/4/6/2
R580: 16/1/3/1
RV530: 4/1/3/2

1/4 R580 waere verdammt schwach fuer mainstream.

Ailuros
2005-09-04, 23:51:40
Also in Bezug auf den R500 (Xbox360) und die FP10 bei HDR haben einige Entwickler gesagt, dass der Unterschied zu FP16 oder 32 nur in extrem grenzwertigen Situationen einem User auffallen könnte, wenn überhaupt.
In so gut wie allen Fällen dürfte es dem normalen Gamer aber nicht auffallen und wenn ich dann die Wahl zwischen FP10 HDR mit AA oder FP16 HDR ohne AA hätte, würde ich auch ersteres nehmen, auch wenns von der technologischen Seite nicht so toll ist und auch nicht so fortschrittlich.

FP10 begrenzt dann aber schon; natuerlich koennten Entwickler zu etwas imposantem kommen mit ein paar Optimierungen aber viel sollte man nicht davon erwarten. Falls SEGA mit Lindbergh doch nicht ihre Meinung geaendert haben, bin ich mal gespannt was Entwickler darueber zu sagen haben in der Zukunft.

xL|Sonic
2005-09-05, 00:15:08
FP10 begrenzt dann aber schon; natuerlich koennten Entwickler zu etwas imposantem kommen mit ein paar Optimierungen aber viel sollte man nicht davon erwarten. Falls SEGA mit Lindbergh doch nicht ihre Meinung geaendert haben, bin ich mal gespannt was Entwickler darueber zu sagen haben in der Zukunft.

Was ist denn mit Lindbergh?

Coda
2005-09-05, 00:16:00
Er spielt wohl darauf an, dass ein TBR keine Probleme mit so großen Framebufferformaten hat ;)

xL|Sonic
2005-09-05, 00:17:21
Andere Entwickler (Heavenly Sword) sagen aber dass sie selbst bei FP16 HDR bereits Genauigkeitsprobleme in manchen Situationen bekommen, dann sollte es mit noch weniger nicht unbedingt besser werden... :rolleyes:

Genauigkeitsprobleme hin und her. Für den Spieler ist nur interessant, was man sieht und da frage ich unsere 3D-Experten hier, ob man einen wirklichen Unterschied sehen kann als normaler Spieler?

Coda
2005-09-05, 00:20:05
FP10 ist imho wirklich deutlich zu wenig um es noch "HDR" nennen zu können. Für ein bischen postfilter-glow reicht es wohl, man kann damit immerhin die ganz hellen Stellen eindeutig indetifizieren.

Iwan
2005-09-05, 00:20:32
Genauigkeitsprobleme hin und her. Für den Spieler ist nur interessant, was man sieht und da frage ich unsere 3D-Experten hier, ob man einen wirklichen Unterschied sehen kann als normaler Spieler?

normale spieler gibts hier net, hier gibts nur welche welche mit der lupe vorm bildschirm kleben und alles nach kanten und matsch-texturen durchsuchen.

xL|Sonic
2005-09-05, 00:36:56
normale spieler gibts hier net, hier gibts nur welche welche mit der lupe vorm bildschirm kleben und alles nach kanten und matsch-texturen durchsuchen.

Naja, ich spreche das Thema an, weil der R500 in der Xbox360 werkelt und es viele Multiplattformtitel geben wird, also kann es ja gut sein, dass es dann HDR mit FP10 geben wird...und i.d.R. ist der allgemeine Konsolero nicht so sehr bewandert in diesem Gebiet.

Coda
2005-09-05, 00:39:35
Bitte nicht HDR nennen... EDR ("extended dynamic range") wäre vielleicht das richtige. Aber von "high dynamic range" kann man bei FP10 nun wirklich nicht mehr reden.

robbitop
2005-09-05, 08:39:33
Bitte nicht HDR nennen... EDR ("extended dynamic range") wäre vielleicht das richtige. Aber von "high dynamic range" kann man bei FP10 nun wirklich nicht mehr reden.
Es stellt sich sowieso die Frage, ob sich FP16 überhaupt so nennen darf.
FP10 ist IMO aus der Not heraus gebohren. Für die Alpha Komponente bleiben nur noch 2 Bits (ergo 4 Abstufungen). Was man nicht alles für die Performance tut... :)

Gast
2005-09-05, 11:39:55
"Aus verlässlichen Quellen ist zu hören das der R520 ein 24pp@600Mhz Chip ist und die 7800GTX in die Schranken weist"


Was haltet ihr davon?

mbee
2005-09-05, 11:44:30
Nix! (Das Thema sollte inzwischen wohl abgehandelt sein.)

ShadowXX
2005-09-05, 11:48:52
"Aus verlässlichen Quellen ist zu hören das der R520 ein 24pp@600Mhz Chip ist und die 7800GTX in die Schranken weist"


Was haltet ihr davon?

Ungefähr so viel wie von dieser ebenso verlässlichen Quelle:
"Aus verlässlichen Quellen ist zu hören das der R520 zwar 32pp bei 800MHz hat, aber trozdem gegenüber der 7800GTX kein Land sieht".

Gast
2005-09-05, 12:04:39
Kann mal bitte jemand zusammenfassen, was es an wahren Aussagen über den R520 gibt ?? Habe den überblick vollkommen verloren vor lauter Spekulatius :(

Gast
2005-09-05, 12:05:50
Wo und Wann hat ATi das mit den 16/1/1/1 gesagt?

reunion
2005-09-05, 12:08:51
ATI has informed its clients in Taiwan that it will gradually begin volume shipments of its R-series GPUs, including the R520, RV530, RV515 and RV505 by the end of the third quarter. R-series GPUs are fabricated at Taiwan Semiconductor Manufacturing Company (TSMC), using a 90nm processing technology, according to the sources.

In addition, ATI has begun to design an R-series GPU, the R516, for the entry-level graphics card market. However, the R516 will be built with a 90nm process at United Microelectronics Corporation (UMC), instead of TSMC, the source noted.

Most graphics card makers in Taiwan expected the delayed launch of ATI Technologies’ R520 GPUs to boost their sales in the fourth quarter of this year and help them recover part of the losses they incurred in the first half, according to sources at makers


http://www.digitimes.com/news/a20050905A6033.html

Jetzt soll RV505 auch noch zeitgleich zu R520, RV530 und RV515 kommen.
Und einen R516 gibts plötzlich auch.

reunion
2005-09-05, 12:11:33
Wo und Wann hat ATi das mit den 16/1/1/1 gesagt?


Diese Zahlen wurden von ATi geleaked.

Coda
2005-09-05, 12:35:06
Es stellt sich sowieso die Frage, ob sich FP16 überhaupt so nennen darf.
FP10 ist IMO aus der Not heraus gebohren. Für die Alpha Komponente bleiben nur noch 2 Bits (ergo 4 Abstufungen). Was man nicht alles für die Performance tut... :)Destination Alpha wird immer unwichtiger, weil man sowieso möglichst alles Single-Pass rendert.

Gast
2005-09-05, 12:55:33
http://www.theinquirer.net/?article=25937

Könnte auch ein Hinweis sein, dass R520 mehr als SM3.0 unterstützt.

deekey777
2005-09-05, 12:56:04
ATI has informed its clients in Taiwan that it will gradually begin volume shipments of its R-series GPUs, including the R520, RV530, RV515 and RV505 by the end of the third quarter. R-series GPUs are fabricated at Taiwan Semiconductor Manufacturing Company (TSMC), using a 90nm processing technology, according to the sources.

In addition, ATI has begun to design an R-series GPU, the R516, for the entry-level graphics card market. However, the R516 will be built with a 90nm process at United Microelectronics Corporation (UMC), instead of TSMC, the source noted.

Most graphics card makers in Taiwan expected the delayed launch of ATI Technologies’ R520 GPUs to boost their sales in the fourth quarter of this year and help them recover part of the losses they incurred in the first half, according to sources at makers





http://www.digitimes.com/news/a20050905A6033.html

Jetzt soll RV505 auch noch zeitgleich zu R520, RV530 und RV515 kommen.
Und einen R516 gibts plötzlich auch.
http://digitimes.com/news/a20050707A4016.html
ATI R520 to be available in mid-3Q

Charles Chou, Taipei; Jessie Shen, DigiTimes.com [Thursday 7 July 2005]


ATI Technologies expects to begin volume shipments of its 90nm graphics processing units (GPUs), the R520, R530 and RV515, in the middle of the third quarter, as unspecified issues for manufacturing on 90nm technology will soon be solved, according to ATI Taiwan. ATI also plans to introduce another flagship chip, the R580, in early 2006.

The delay of the ATI R520 has allowed Nvidia to gain some orders on the high end of the market, as the company announced the availability of its flagship GeForce 7800 GTX (G70) in June.

The upcoming launch of ATI’s three 90nm graphics chips is expected to boost overall 90nm output from Taiwan Semiconductor Manufacturing Company (TSMC), industry sources suggested. Although less than 4% of TSMC’s sales came from 90nm technology in the second quarter of 2005, the percentage should grow to more than 10% by the fourth quarter, according to Rick Tsai, CEO of TSMC.

ATI will also soon enter the tape-out stage of its flagship R580, an upgrade of the R520, according to the sources.

The launch of ATI’s 90nm chips will accelerate the migration from AGP8X to PCI Express (PCIe), as falling prices for PCIe-capable products will stimulate demand, graphics-card makers commented. The PCIe segment is expected to account for half of graphics-card shipments by the end of this year, though the AGP8X segment should continue to dominate the entry-level segment through the middle of 2006, according to the makers.

Das war wohl nix mit der Mitte dritten Quartals. ;(

Coda
2005-09-05, 12:59:50
http://www.theinquirer.net/?article=25937

Könnte auch ein Hinweis sein, dass R520 mehr als SM3.0 unterstützt.Gegenfrage: Wo entspricht das ATIs Philosophie immer nur soviel einzubauen wie auch sinnvoll nutzbar ist?

Gast
2005-09-05, 13:05:59
Gegenfrage: Wo entspricht das ATIs Philosophie immer nur soviel einzubauen wie auch sinnvoll nutzbar ist?

Gegenfrage: Wieso sollten neue Features mit einer passenden DirectX-Version nicht sinnvoll sein?

Coda
2005-09-05, 13:07:42
Weil DirectX 10 jetzt vielleicht mal vollständig spezifiziert ist, das war vor einem Monat noch nicht der Fall. Wie soll man für sowas HW entwickeln?

Und überhaupt wird DX10 frühstens in einem Jahr erscheinen.

ATi hat bisher immer mit allem geknausert was nicht unbedingt nötig ist, das zieht sich durch die kompletten Chips. Das wird sich jetzt nicht auf einmal ändern.

reunion
2005-09-05, 13:08:22
Gegenfrage: Wo entspricht das ATIs Philosophie immer nur soviel einzubauen wie auch sinnvoll nutzbar ist?


Ganz davon abgesehen, dass R520 nicht mehr als SM3.0 unterstützen wird: Wie kommst du darauf, dass es ATis Philosophie ist, immer nur das einzubauen, was auch sinnvoll nutzbar ist? Es gibt genug Beispiele, die dem widersprechen.

Coda
2005-09-05, 13:09:49
So. Welche denn? Bei Truform wurde vielleicht gedacht, dass es mal anklang findet und wurde später dann wieder rausgeworfen weil man es nicht gebraucht hat.

PixelShader 1.4 von mir aus, aber das ist auch die einzige Ausnahme unter einem rießigen Haufen von Beschneidungen.

Gast
2005-09-05, 13:15:14
Wieviel Transistoren ist eine SM 3.0 Pixel Pipes groß und wieviel eine Vertex Pipes?

Coda
2005-09-05, 13:16:06
Wieviel Transistoren ist ein x86 Prozessor groß?

Gast
2005-09-05, 13:18:55
Weil DirectX 10 jetzt vielleicht mal vollständig spezifiziert ist, das war vor einem Monat noch nicht der Fall. Wie soll man für sowas HW entwickeln?

Und überhaupt wird DX10 frühstens in einem Jahr erscheinen.

ATi hat bisher immer mit allem geknausert was nicht unbedingt nötig ist, das zieht sich durch die kompletten Chips. Das wird sich jetzt nicht auf einmal ändern.

Ich glaube, dass ATI und Microsoft bei der Spezifikation für DirectX 10 sehr eng zusammenarbeiten, vor allem auch wegen der Xbox360, bei der ATI schon jetzt ihre neue Architektur testen kann. Deswegen wird ATI wohl als erster einen voll DX10 kompatiblen Chip auf dem Markt haben, wie schon bei DX9 (R300).

Coda
2005-09-05, 13:19:52
Das wird aber mit Sicherheit nicht R520 sein.

Gast
2005-09-05, 13:24:32
Wieviel Transistoren ist eine SM 3.0 Pixel Pipes groß und wieviel eine Vertex Pipes?


Von mir aus auf die 7800GTX bezogen, R520 geht ja schlecht!

reunion
2005-09-05, 13:25:17
So. Welche denn? Bei Truform wurde vielleicht gedacht, dass es mal anklang findet und wurde später dann wieder rausgeworfen weil man es nicht gebraucht hat.


Bis zu R200 wurden eigentlich sämtliche ATi-Chips mit Features ausgestattet, welche man in deren Lebenszyklus nicht, oder nur bedingt einsetzten konnte. So war R100 verdammt nah an PS/VS 1.0, R200 bot PS1.4. R300 war ein Ausnahmefall, da man mit 150nm arg an der Grenze des technisch machbaren angelangt war, und deshalb natürlich überall sparen musste, wo es nur irgendwie möglich war. R400 hätte z.B. Unified-Shader und SM3.0 geboten, wurde allerdings gecancelt - daraus entstand mit R420 ein weiterer Ausnahmenfall. Im Endeffekt halte ich derartige Aussage für ziemlich kurzsichtig, da man doch auch den Hintergrund betrachten sollte. Und dieser bescheinigt eben einen Haufen von unglücklicher Zwischenfälle. Ich denke R520, und vorallem R600 wird einige überraschen, was das Featureset angeht.

Coda
2005-09-05, 13:32:35
Ich denke R520, ... wird einige überraschen, was das Featureset angeht.Ja. Definitiv :D :rolleyes:

Abseits davon: Da ist nicht viel Spielraum gegenüber NV4x. Das einzige was noch geht ist mehr als Pointfiltering in den Vertex-TMUs und FP16-MSAA.

SKYNET
2005-09-05, 13:34:32
Ja. Definitiv :D :rolleyes:

Abseits davon: Da ist nicht viel Spielraum gegenüber NV4x. Das einzige was noch geht ist mehr als Pointfiltering in den Vertex-TMUs und FP16-MSAA.


gleiche gedankengänge? :biggrin:

reunion
2005-09-05, 13:39:42
Ja. Definitiv :D :rolleyes:

Abseits davon: Da ist nicht viel Spielraum gegenüber NV4x. Das einzige was noch geht ist mehr als Pointfiltering in den Vertex-TMUs und FP16-MSAA.


Schon klar, ich wollte damit auch auf die oft angespielten Präzision, sowie manchen "ungenauen" Formeln andeuten.

Im übrigen wird R520 im Gegensatz zu den heutigen nV-Chips durchgehend mit FP32 rechnen, und auch FP16-MSAA sollte man nicht ausschließen IMHO.

Coda
2005-09-05, 13:56:24
Also FP32 muss sein. Aber ich fress nen Besen wenn wir mehr als 4bit Subpixelgenauigkeit, mehr als 6bit beim bilinearen Filter oder geneuere LOD-Bestimmung sehen :)

Im übrigen wird R520 im Gegensatz zu den heutigen nV-Chips durchgehend mit FP32 rechnenÄh was soll das jetzt heißen? Nur weil die nV Chips auch FP16 können heißt das noch lange nicht, dass sie nicht durchgängig FP32 rechnen können. Oder auf was spielst du sonst an?

reunion
2005-09-05, 14:08:33
Also FP32 muss sein. Aber ich fress nen Besen wenn wir mehr als 4bit Subpixelgenauigkeit, mehr als 6bit beim bilinearen Filter oder geneuere LOD-Bestimmung sehen :)


Darauf werden ich zurückkommen. =) :D


Äh was soll das jetzt heißen? Nur weil die nV Chips auch FP16 können heißt das noch lange nicht, dass sie nicht durchgängig FP32 rechnen können. Oder auf was spielst du sonst an?

Naja, bei Performanceeinbrüchen von bis zu 50%.

Coda
2005-09-05, 14:18:32
Darauf werden ich zurückkommen. We will see :tongue:

Naja, bei Performanceeinbrüchen von bis zu 50%.Das ist doch völlig egal, G70 hat auch mit FP32 immer genügend Leistung. Und die 50% sind in der Realität eher 5-20%.

Zur Erinnerung: FP32 ist default, FP16 muss speziell angefordert werden, was die meisten Spiele eher nicht machen.

Gast
2005-09-05, 15:39:38
News: WGF2.0, das mit Windows Vista ausgeliefert wird, heißt jetzt wieder DirectX 10 und unterstützt schon den Nachfolgestandard von SM4.0. Shader Model 4.0 wird noch in DirectX 9 integriert und kommt schon früher als erwartet.

LovesuckZ
2005-09-05, 15:46:48
Naja, bei Performanceeinbrüchen von bis zu 50%.

Erstmal abwarten.
Wenn ATi nur die selbe Leistung unter FP32 erreiche, dann dürfest du es "Performancesteigerung" nennen. ;)

deekey777
2005-09-05, 16:04:02
News: WGF2.0, das mit Windows Vista ausgeliefert wird, heißt jetzt wieder DirectX 10 und unterstützt schon den Nachfolgestandard von SM4.0. Shader Model 4.0 wird noch in DirectX 9 integriert und kommt schon früher als erwartet.

Wo steht das?

cR@b
2005-09-05, 16:11:37
Wo steht das?


http://www.hardtecs4u.de/?id=1125792122,14206,ht4u.php

Coda
2005-09-05, 16:17:04
Wo steht da was von SM 4 für DirectX 9? Außerdem würde es mich sehr wundern wenn WGF 2.0 noch nach Shadermodellen differenzieren wird. Es gibt ja keine Resourcenlimits mehr, d.h. es sind einfach Vertex- und Pixelshader ohne weitere Versionen.

Gast
2005-09-05, 16:31:04
Wo steht da was von SM 4 für DirectX 9?
in der Titelzeile: New DirectX 9 is almost ready to go - Shader model 4.0 inside
(http://www.theinquirer.net/?article=25937)

deekey777
2005-09-05, 16:40:55
in der Titelzeile: New DirectX 9 is almost ready to go - Shader model 4.0 inside
(http://www.theinquirer.net/?article=25937)

Nochmal: Wo steht das?
Also hier nicht: http://windowssdk.msdn.microsoft.com/library/default.asp?url=/library/en-us/directx9_c/directx/longhorn/longhorn.asp
Es wird keine neuen Shadermodelle geben.

Ailuros
2005-09-05, 17:46:01
Naja, bei Performanceeinbrüchen von bis zu 50%.

Wie viele G70 hast Du wirklich schon getestet?

3dmark05
PS Test:

split precision = 296.8 fps
full precision = 236.8 fps (-20%)

Gast
2005-09-05, 18:42:51
Is doch wieder Käs was die Leute hier rein wünschen...
R520 mit erweitertem Shaderfeatureset, dazu passend mal schnell von MS DX10 fertiggestellt... gehts noch? R520 ist seit gut 9 Monaten fix und fertig, nur beim grillen aufm Wafer gabs Probleme sonst hat man mit Sicherheit nix mehr an der Hardware verändert geschweige denn erweitert, was glaubt ihr eigentlich wie GPUs entwickelt werden?

Er wird Dx9.c voll unterstützen, wobei manche da etwas grübeln da es ja in der Vergangenheit Patches gab die einer "Eigenart" der SM3 Implementation des R520 Rechnung getragen haben, was das is, time will tell ...
Soll er "mehr" als SM3 können, wird keinen Spieleentwickler interessieren, die Forscher würde es vieleicht freuen...

Ansonsten als her mit neuen Filtern, neuen AA Modi und vieleicht gibts auch Gratis Kaffee dazu man weis ja nie, aber mal realistisch was soll denn bitteschön kommen, bei den heutzutage klar vorgegeben Spielräumen (sprich Speicherbandbreite).

seahawk
2005-09-05, 18:43:57
Gab es in den letzen Dreiwochen hier irgendwelche wichtigen Neuerungen ? Ich bin zu faul mir alle Seiten. die während meines Urlaubes geschrieben wurden, durchzulesen.

Gast
2005-09-05, 18:46:36
Darauf werden ich zurückkommen. =) :D



Naja, bei Performanceeinbrüchen von bis zu 50%.

Wir werden darauf zurück kommen, sollte ATI da mehr Rechenleistung verbraten hängen sie mit der knappen Füllrate hinter dem G70 zurück und dann wird Optimiert was der Pixel her gibt.
Mal am Rande, die Rote Brille sitzt relativ tief oder?

Der Thread hat sich bisher gut zu einer sachlichen und realistischen Frage-Antwort-Spekulationsgrundlage entwickelt. Solange einige wieder mit "Luft" Argumentieren wird es wieder ins lächerliche abweichen...
Hoffen wir das es nur noch 4 Wochen sind bis man wirklich weis wie der Hase hoppelt...

Demirug
2005-09-05, 18:51:51
Er wird Dx9.c voll unterstützen, wobei manche da etwas grübeln da es ja in der Vergangenheit Patches gab die einer "Eigenart" der SM3 Implementation des R520 Rechnung getragen haben, was das is, time will tell ...
Soll er "mehr" als SM3 können, wird keinen Spieleentwickler interessieren, die Forscher würde es vieleicht freuen...

Das "voll" würde ich so aber nicht stehen lassen. Es gab noch nie einen Chip der eine DX Version komplett unterstützt hat. Ein paar Details fehlen immer.

Allerdings dürfte sich G70 und R520 sehr nah kommen was die Features angeht.

Gast
2005-09-05, 18:59:07
http://www.rage3d.de/img/aiw_x800xt_2.jpg

Unfug das Bild, das ist eine X800XT AIW

reunion
2005-09-05, 19:27:23
Wir werden darauf zurück kommen, sollte ATI da mehr Rechenleistung verbraten hängen sie mit der knappen Füllrate hinter dem G70 zurück und dann wird Optimiert was der Pixel her gibt.


Durch Erhöhung der Filterpräzision wird überhaupt keine Rechenleistung verbraten, wenn schon, dann Transistoren.


Mal am Rande, die Rote Brille sitzt relativ tief oder?


Wer glaubt andere zu erkennen, ohne sich selbst im Spiegel zu erblicken, ist in meinen Augen bemitleidenswert.


Der Thread hat sich bisher gut zu einer sachlichen und realistischen Frage-Antwort-Spekulationsgrundlage entwickelt. Solange einige wieder mit "Luft" Argumentieren wird es wieder ins lächerliche abweichen...
Hoffen wir das es nur noch 4 Wochen sind bis man wirklich weis wie der Hase hoppelt...

Und du glaubst, dass dein Beitrag viel mehr als "Luft" war?

Die gelbe Eule
2005-09-05, 22:28:45
Also wenn ich mir den letzen Inquirer Artikel durchlese, dann scheint ATI ein dickes Problem zu haben.

Sollte der R520 wirklich nur 16 Pipes haben dafür 500MHz+(600MHz), wird er wohl kaum gegen die 7800GTX ankommen.

Schaut man sich die X850Pro/XT/XT-PE an, so fällt doch auf, das diese fast die gleichen Specs aufweist. Zumindest von den Taktraten.

Da auch noch für Weihnachten der R580 angedacht ist, der mit 24 Pipes kommen soll, frag ich mich, ob nun die Chipausbeute so mies gewesen ist, das man erstmal herunterfahren musste, um überhaupt etwas "neues" auf den Markt zu werfen.

An deaktivierte "8" Pipes mag ich ebenso nicht glauben, da 600MHz bei der kleinen Version etwas zu gewagt ist.

Vielleicht wurde es irgendwo angesprochen, doch wollte ich das thema hier anreißen, da vieles schnell in allgemeinen Threads OT wird.

Coda
2005-09-05, 22:32:24
Jo, R580 wird wohl sehr schnell nachgeschoben.

mapel110
2005-09-05, 22:37:26
Gelbe Eule, ich hab deinen thread hierein gemerged.

Jo, R580 wird wohl sehr schnell nachgeschoben.
Ich würds eher so sehen, dass R580 planmässig kommt und R520 eben stark verspätet. Also "schnell nachgeschoben" ist da irgendwie relativ.

Mumins
2005-09-05, 22:44:25
Also wenn ich mir den letzen Inquirer Artikel durchlese, dann scheint ATI ein dickes Problem zu haben.

Sollte der R520 wirklich nur 16 Pipes haben dafür 500MHz+(600MHz), wird er wohl kaum gegen die 7800GTX ankommen.

Schaut man sich die X850Pro/XT/XT-PE an, so fällt doch auf, das diese fast die gleichen Specs aufweist. Zumindest von den Taktraten.

Da auch noch für Weihnachten der R580 angedacht ist, der mit 24 Pipes kommen soll, frag ich mich, ob nun die Chipausbeute so mies gewesen ist, das man erstmal herunterfahren musste, um überhaupt etwas "neues" auf den Markt zu werfen.

An deaktivierte "8" Pipes mag ich ebenso nicht glauben, da 600MHz bei der kleinen Version etwas zu gewagt ist.

Vielleicht wurde es irgendwo angesprochen, doch wollte ich das thema hier anreißen, da vieles schnell in allgemeinen Threads OT wird.


Schonmal daran gedacht, dass der R520 ne ganz neue Architektur haben könnte. Die Effizienz der Pipes wurde wahrscheinlich gesteigert, sonst könnte man wohl mit 600MHz die GTX nicht besiegen. Dazu wären bei 16P wohl um die 700MHz nötig, sollte an der Effizienz nicht geschraubt worden sein.

Horimoto
2005-09-05, 22:46:39
Wieso sagen alle, dass eine 16PP Karte keine Chanche gegen eine 24PP karte hat?
Alleine die höhere Zahl sagt gar nix aus.
Ich denke, und bin mir sicher, dass Ati die Effizienz gegenüber der R420 PP gesteigert hat, deswegen ist eine R420PP nciht mit einer R520 PP zu vergleichen, also kann man nciht sagen, dass ein R420 mit 600Mhz genauso schnell ist wie ein R520 mit 600MHz.

Ich gehe davon aus, dass der R520 die GTX leicht schlägt, und die Ultra dann wieder schneller ist....
Wenn nVidia jedoch cniht das flimmern in den Griff bekommt, sehe ich es schwarz für nVidia......

Die gelbe Eule
2005-09-05, 22:48:41
ATI kann auch keine Wunder vollbringen. Um so eine Effizienz zu erreichen muss man schon tief in die Tasche greifen. Wäre das möglich gewesen, hätte Nvidia lange nicht auf 20Pipes+ umgesattelt. 600-700MHz auf 16pipes ... das sind 30-45% mehr Takt als auf einer 6800Ultra stock.
Völlig sinnlos so einen Chip mit immensen Kosten auszuquetschen, falls es denn der alte ist.

*edit*

Vielleicht hat Nvidia eine Kinderkrankheit, doch der R520 ist nichtmal testbar und alle loben Inquirer Gerüchte in den Himmel. Irgendwo wird man auch Kompromisse eingehen müssen, denkt nicht die Karte haut nun alles weg.

Coda
2005-09-05, 22:57:30
Wenn nVidia jedoch cniht das flimmern in den Griff bekommt, sehe ich es schwarz für nVidia......Haben sie schon lange.

MikBach
2005-09-05, 22:59:57
Haben sie schon lange.
Wenn man so hört, was die 7800-Besitzer sagen, dann hat das HQ@7800 noch nicht die Qualität von 6800@HQ erreicht.

deekey777
2005-09-05, 23:10:34
Die 600 MHz sind doch der Takt der XT-Version: Jeder, der die letzten 18 Monate nicht in Timbuktu verbracht hat, sollte eigentlich wissen, daß es auch eine R520XT PE geben könnte, die schon einen höheren bzw. an die Füllrate der 7800GTX angepaßten VPU-Takt haben müßte. Eine 7800Ultra schafft nVidia nie von heute auf morgen vorzustellen und dann sofort auszuliefern.
Viel interessanter aus der Sicht des Verbrauchers ist die Preisschlacht; selbst mit der Konkurrenz in den eigenen Reihen ist der Preis der 7800GTX oder der 7800GT doch sehr angenehm, und das muß ATi erst schaffen.

Gast
2005-09-05, 23:41:03
Jo, R580 wird wohl sehr schnell nachgeschoben.
aber nicht mehr 2005.
Von schnell kann da also keine Rede sein. Eher nach Plan nur eben kürzer nach dem R520 als eigentlich erwartet, was aber eher am R520 als am R580 liegt.

Gast
2005-09-05, 23:49:20
Eine 7800Ultra schafft nVidia nie von heute auf morgen vorzustellen und dann sofort auszuliefern.

Das muss du mir jetzt aber mal erklären wieso das nicht möglich sein soll.
Was meinst du wohl, was Nvidia seit dem 7800GTX Launch bzw. davor schon die ganze Zeit gemacht hat? Däumchen gedreht wohl kaum.

Ich meine schau dir doch nurmal die GTX an. Allein der Name und die moderaten Taktraten samt Kühlung zeigen doch eindeutig, dass Nvidia von einem schnelleren Chip abgesehen hat, weil die Konkurenz nicht aus dem Mußtopf gekommen ist. Wäre der R520 verfügbar gewesen, hätte die GTX niemals diesen Namen und schon gar nicht nur 430 MHZ.
Aber so konnte man halt erstmal den Profit steigern.
Bis zum Oktober hatte man alleine 4 Monate seit dem GTX Launch Zeit gehabt - wird wohl aber eher mehr gewesen sein, weil man mehr Core Takt von Anfang an eingeplant hat. In den allerersten Planungen, konnte Nvidia nicht wissen, dass ATI in solche Probleme rennt. Nvidia wird dort also mehr eingeplant haben nur dann eben kurzfristig erstmal aus dem Programm gestrichen.
Die schnelleren Chips konnten sie zudem in den letzten Monaten gemütlich sammeln. Die wissen genau, was mit dem R520 kommt und ATI weiss, dass Nvidia direkt nachlegen wird, ansonsten hätten sie sich ja kaum zu so einem Kommentar wie auf dem Conference Call vor 1 Woche hinreissen lassen.
Das war eine klare Warnung an Investoren, dass es bei diesem Launch unwegbarkeiten geben könnte. Das war ein Bilderbuchsatz mit verdeckter Message und die Message für mich ist klar. Wenn der R520 schneller ist, legt Nvidia kurzfristig nach und drückt das Produkt auch schnell in den Markt. Die GTX Preise sind ohnehin schon so verdächtig gesunken.

mapel110
2005-09-05, 23:56:29
Die wissen genau, was mit dem R520 kommt und ATI weiss, dass Nvidia direkt nachlegen wird, ansonsten hätten sie sich ja kaum zu so einem Kommentar wie auf dem Conference Call vor 1 Woche hinreissen lassen.
Das war eine klare Warnung an Investoren, dass es bei diesem Launch unwegbarkeiten geben könnte.
Ich lese da was anderes drin, nämlich die mieserabel werdende Verfügbarkeit von R520. Wenn kaum produziert wird oder viel auf Müllhalde produziert wird, dann ists nix mit Umsätzen, geschweigedenn Gewinnen.
Aber in ein paar Wochen sind wir schlauer.

deekey777
2005-09-05, 23:58:11
Das muss du mir jetzt aber mal erklären wieso das nicht möglich sein soll.
Was meinst du wohl, was Nvidia seit dem 7800GTX Launch bzw. davor schon die ganze Zeit gemacht hat? Däumchen gedreht wohl kaum.

Ich meine schau dir doch nurmal die GTX an. Allein der Name und die moderaten Taktraten samt Kühlung zeigen doch eindeutig, dass Nvidia von einem schnelleren Chip abgesehen hat, weil die Konkurenz nicht aus dem Mußtopf gekommen ist. Wäre der R520 verfügbar gewesen, hätte die GTX niemals diesen Namen und schon gar nicht nur 430 MHZ.
Aber so konnte man halt erstmal den Profit steigern.
Bis zum Oktober hatte man alleine 4 Monate seit dem GTX Launch Zeit gehabt - wird wohl aber eher mehr gewesen sein, weil man mehr Core Takt von Anfang an eingeplant hat. In den allerersten Planungen, konnte Nvidia nicht wissen, dass ATI in solche Probleme rennt. Nvidia wird dort also mehr eingeplant haben nur dann eben kurzfristig erstmal aus dem Programm gestrichen.
Die schnelleren Chips konnten sie zudem in den letzten Monaten gemütlich sammeln. Die wissen genau, was mit dem R520 kommt und ATI weiss, dass Nvidia direkt nachlegen wird, ansonsten hätten sie sich ja kaum zu so einem Kommentar wie auf dem Conference Call vor 1 Woche hinreissen lassen.
Das war eine klare Warnung an Investoren, dass es bei diesem Launch unwegbarkeiten geben könnte. Das war ein Bilderbuchsatz mit verdeckter Message und die Message für mich ist klar. Wenn der R520 schneller ist, legt Nvidia kurzfristig nach und drückt das Produkt auch schnell in den Markt. Die GTX Preise sind ohnehin schon so verdächtig gesunken.

Was soll ich dir erklären, wenn du es schon selbst gemacht hast? :|
Oder denkst du, daß:
a) die 7800Ultra schon seit mehreren Monaten im stillen Kämerchen rumliegen und nur darauf warten, auf die Welt losgelassen zu werden;
b) die Quadro 4500 einfach zu 7800Ultra umgelabelt werden, zZ aber am laufenden Band produziert werden.

Wenn weder a) noch b) zutreffen, dann muß die 7800Ultra vorher in ausreichenden Mengen produziert und ausgeliefert werden, bevor sie angekündigt wird, damit sie sofort verkauft wird. Wie kurzfristig das Kurzfristig sein könnte, weiß ich nicht. Daß sie Zeit zum Aussortieren haben, ist schon klar, sonst gäbe es keine Quadro 4500, die mit 550MHz läuft.

Ailuros
2005-09-06, 04:08:15
Wenn man so hört, was die 7800-Besitzer sagen, dann hat das HQ@7800 noch nicht die Qualität von 6800@HQ erreicht.

Ich gehoere auf jeden Fall nicht zu diesen.

Ailuros
2005-09-06, 04:11:44
Ich lese da was anderes drin, nämlich die mieserabel werdende Verfügbarkeit von R520. Wenn kaum produziert wird oder viel auf Müllhalde produziert wird, dann ists nix mit Umsätzen, geschweigedenn Gewinnen.
Aber in ein paar Wochen sind wir schlauer.

Bei =/>600MHz und 700MHz GDDR3 wird die Verfuegbarkeit auch miserabel sein und das nicht nur wegen der hohen Taktrate, aber weil so hoch getakteter Speicher immer noch verdammt selten ist.

Die 500/500MHz wird natuerlich eine andere Geschichte sein, aber sie soll ja auch gegen die 7800GT konkurrieren und nicht die GTX.

Ailuros
2005-09-06, 04:15:01
Was soll ich dir erklären, wenn du es schon selbst gemacht hast? :|
Oder denkst du, daß:
a) die 7800Ultra schon seit mehreren Monaten im stillen Kämerchen rumliegen und nur darauf warten, auf die Welt losgelassen zu werden;
b) die Quadro 4500 einfach zu 7800Ultra umgelabelt werden, zZ aber am laufenden Band produziert werden.

Wenn weder a) noch b) zutreffen, dann muß die 7800Ultra vorher in ausreichenden Mengen produziert und ausgeliefert werden, bevor sie angekündigt wird, damit sie sofort verkauft wird. Wie kurzfristig das Kurzfristig sein könnte, weiß ich nicht. Daß sie Zeit zum Aussortieren haben, ist schon klar, sonst gäbe es keine Quadro 4500, die mit 550MHz läuft.

Das ist ja alles schoen und gut, aber wuerde sich NVIDIA fuer einen neuen Dustbuster entscheiden, waere es leichter als Du Dir vorstellen kannst chips herauszusortieren *hust*.

Nach 1.5 Stunden loops mit 3dfart schlaegt mir der Treiber satte 515/1370MHz vor.

***edit: NV wird sich aber IMHO nicht fuer so eine solche Loesung entscheiden. So wie ich es mir vorstelle werden sie versuchen die single-slot Masche zu erhalten, damit sie diesen "Vorteil" nicht verlieren. Waeren nur ATI's Sorgen mit dem Zeug vorrueber; wenn ich schon hoere was gerade mit CrossFire im Hintergrund laeuft sieht es nicht besonders rosig aus.

mapel110
2005-09-06, 04:36:15
wenn ich schon hoere was gerade mit CrossFire im Hintergrund laeuft sieht es nicht besonders rosig aus.
Man, du machst einen immer so neugierig. ;(
Ich hasse das.

Ailuros
2005-09-06, 04:46:17
Man, du machst einen immer so neugierig. ;(
Ich hasse das.

Grosse Webseiten haben relevantes Zeug schon bekommen fuer kommende reviews ;)