PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R580 schon Anfang 2006?


Seiten : 1 2 3 4 5 [6] 7

up¦²
2006-01-19, 21:44:57
Worauf lief das wohl?

http://media.putfile.com/CryENGINE2_PDC05-XviD :wink:

Ronny145
2006-01-19, 21:49:26
Worauf lief das wohl?

http://media.putfile.com/CryENGINE2_PDC05-XviD :wink:


Das Video ist steinalt. Ich weiß jetzt nicht was das mit dem R580 zu tun haben sollte.

Coda
2006-01-19, 21:50:31
Lies' doch erst mal zu Ende... ;)Normal muss man Demirug alles aus der Nase ziehen ;)

Blaire
2006-01-19, 22:34:23
Benchmarks: :D
http://www.dailytech.com/article.aspx?newsid=310

[dzp]Viper
2006-01-19, 22:41:52
Benchmarks: :D
http://www.dailytech.com/article.aspx?newsid=310

wow - dafür, dass es "nur" die XT ist und nicht die XTX bin ich beeindruckt. In jedem Game schlägt sie die 256MB GTX und zwar meist mit merkbaren Abstand :eek:

*konto prüf*

Blaire
2006-01-19, 22:43:00
Nee ist leider nur eine 256MB GTX :redface:
Was mich schon wieder ärgert, warum schreiben die Heinis nie dazu was genau sie z.b. bei FEAR eingestellt haben mit oder ohne Softshadows usw. :(

[dzp]Viper
2006-01-19, 22:46:11
Nee ist leider nur eine 256MB GTX :redface:
Was mich schon wieder ärgert, warum schreiben die Heinis nie dazu was genau sie z.b. bei FEAR eingestellt haben mit oder ohne Softshadows usw. :(

ah mist hast recht ;(

Raff
2006-01-19, 23:16:15
Und wo ist da jetzt irgendetwas beeindruckend? Dass neues "Lower High-End" uralte 256-MiB-Karten überholt, ist ja wohl das Mindeste, was man erwarten kann. ;) Zumal diese XT ganz sicher per OC weit über die XTX kommen kann. Den Speicher hat sie ja. =)

Ich hätte aber gern noch eine X1800 XT sowie GTX-512 daneben gesehen ...

MfG,
Raff

Ronny145
2006-01-19, 23:37:52
Benchmarks: :D
http://www.dailytech.com/article.aspx?newsid=310


Sonderlich gut finde ich das nicht gerade.

Coda
2006-01-19, 23:44:43
Was war zu erwarten? Mehr Shaderleistung bringt heute noch keine Wunder. In FEAR hat sie ja anscheinend ganz gut zugelegt.

mapel110
2006-01-19, 23:48:52
Also wenn die Fear Benchmarks stimmen, dann ist das schon sehr ordentlich. Die 256GTX Zahlen können jedenfalls stimmen und wenn das der Fall ist, wird zumindest in Fear auch die 512GTX deutlich geschlagen.

Blaire
2006-01-20, 00:12:30
Und wo ist da jetzt irgendetwas beeindruckend? Dass neues "Lower High-End" uralte 256-MiB-Karten überholt, ist ja wohl das Mindeste, was man erwarten kann. ;) Zumal diese XT ganz sicher per OC weit über die XTX kommen kann. Den Speicher hat sie ja. =)

Ich hätte aber gern noch eine X1800 XT sowie GTX-512 daneben gesehen ...

MfG,
Raff

Also eine X1900XT wird 2x7800GTX 256MB@SLI nicht knacken, nachdem ich die FPS verglichen habe. FEAR mit 45fps @1600x1200 4xAA/16xAF ist demnach mit einer Karte nicht wirklich spielbar. Da hatte ich doch gerade bei FEAR deutlich mehr erwartet. Die wird selbst von 2x7800GT locker übertrumpft. Sollten die FEAR Scores jedoch mit Softshadows gemacht worden sein , wäre das brilliant schnell aber dafür scheint mir der Score der 7800GTX einfach viel zu hoch dafür. Na mal abwarten.

R0d!x
2006-01-20, 07:31:27
Also eine X1900XT wird 2x7800GTX 256MB@SLI nicht knacken, nachdem ich die FPS verglichen habe. FEAR mit 45fps @1600x1200 4xAA/16xAF ist demnach mit einer Karte nicht wirklich spielbar. Da hatte ich doch gerade bei FEAR deutlich mehr erwartet. Die wird selbst von 2x7800GT locker übertrumpft. Sollten die FEAR Scores jedoch mit Softshadows gemacht worden sein , wäre das brilliant schnell aber dafür scheint mir der Score der 7800GTX einfach viel zu hoch dafür. Na mal abwarten.

Das kann man doch so gar nicht vergleichen oder?
Ist doch klar, dass 2 Grakas schneller sind als eine oder nicht?

ShadowXX
2006-01-20, 07:36:27
Viper']wow - dafür, dass es "nur" die XT ist und nicht die XTX bin ich beeindruckt. In jedem Game schlägt sie die 256MB GTX und zwar meist mit merkbaren Abstand :eek:

*konto prüf*

Ich weiss wirklich nicht wo das beeindruckend ist....Teilweise hat Sie ja selbst mit AA nur Gleichstand mit ner GTX.

Momentan sieht es eher so aus, als wenn der Gegner der x1900xt die GTX/512, aber nicht der G71 ist.

Also wenn die Fear Benchmarks stimmen, dann ist das schon sehr ordentlich. Die 256GTX Zahlen können jedenfalls stimmen und wenn das der Fall ist, wird zumindest in Fear auch die 512GTX deutlich geschlagen.

Aber nur mit AA.....und damit hat nV irgendwie Probleme bei FEAR.

Ohne AA ist zwischen den beiden Gleichstand.

http://www.anandtech.com/video/showdoc.aspx?i=2649&p=9

Das kann man doch so gar nicht vergleichen oder?
Ist doch klar, dass 2 Grakas schneller sind als eine oder nicht?

Dir ist aber bewusst, wie alt die 7800er inzwischen schon sind, oder?

Ich finde die Ergebnisse der x1900xt momentan nicht sehr berauschend.

Tidus
2006-01-20, 07:49:57
Dir ist aber bewusst, wie alt die 7800er inzwischen schon sind, oder?

Ich finde die Ergebnisse der x1900xt momentan nicht sehr berauschend.
Obwohl ich ATI User bin, muss ich da zustimmen...bin da schon ein bissel enttäuscht von diesen ergebnissen...

€dit: Warum vergleicht man die X1900XT 512 mit der GF 7800GTX 256 :confused:

Gast
2006-01-20, 07:56:11
€dit: Warum vergleicht man die X1900XT 512 mit der GF 7800GTX 256 :confused:

Weil sie in der gleichen Preisklasse liegen? Zumindest fast...

Derzeit kosten die X1800XTs ca. 440€, die GTX 512 allerdings immer noch ca. 650 €.

Ein Vergleich wäre höchstens zwischen X1900XTX und GTX512 sinnvoll, die X1900XT wird wohl deutlich billiger sein, als die GTX512.

Tidus
2006-01-20, 08:01:06
Weil sie in der gleichen Preisklasse liegen? Zumindest fast...

Derzeit kosten die X1800XTs ca. 440€, die GTX 512 allerdings immer noch ca. 650 €.

Ein Vergleich wäre höchstens zwischen X1900XTX und GTX512 sinnvoll, die X1900XT wird wohl deutlich billiger sein, als die GTX512.

Meint ihr nich, dass nvidia dann nicht die preise senken wird ? und kommt die XTX zeitgleich mit der XT ?

tRpii
2006-01-20, 08:04:03
Meint ihr nich, dass nvidia dann nicht die preise senken wird ? und kommt die XTX zeitgleich mit der XT ?

Erstmal müssen sie die GTX 512 in vernünftigen Mengen liefern bevor der Preis fallen wird. Momentan kann man von einer Verfügbarkeit bei der Karte nämlich nicht sprechen, die GTX 256 hingegen gibt es wie Sand am Meer.

Da die XTX ja nur 25/50 höher als die XT getaktet ist, wird sie mit Sicherheit gleichzeitig kommen.

Tidus
2006-01-20, 08:07:33
Erstmal müssen sie die GTX 512 in vernünftigen Mengen liefern bevor der Preis fallen wird. Momentan kann man von einer Verfügbarkeit bei der Karte nämlich nicht sprechen, die GTX 256 hingegen gibt es wie Sand am Meer.

Da die XTX ja nur 25/50 höher als die XT getaktet ist, wird sie mit Sicherheit gleichzeitig kommen.
Danke euch für die Infos :)
Bin noch unentschlossen, welche meine neue Karte werden wird...

MuLuNGuS
2006-01-20, 09:05:06
Obwohl ich ATI User bin, muss ich da zustimmen...bin da schon ein bissel enttäuscht von diesen ergebnissen...

€dit: Warum vergleicht man die X1900XT 512 mit der GF 7800GTX 256 :confused:

weil er keine andere GTX zur hand hatte...

Logan
2006-01-20, 09:44:40
"We got an early sample of the card and put it through the paces"

"but the Catalyst 6.1 driver did not detect the Radeon X1900. Thus, we used a beta driver from late December."

Soll ich das so verstehen das alles noch im beta stadium war ? Also wenn das wirklich stimmt bin ich mal gesapnnt auf die finale karte und die treiber, für beta treiber performt die meiner meinung nach sehr gut :up: Aber werde wohl meine gtx vorerst behalt , es sei den ich finde eine arme seele , der ich die karte für einen guten preis verkaufen kann :deal:

ShadowXX
2006-01-20, 09:52:33
Kommt die Karte denn nun wirklich nächste Woche raus??

Weil ATI ja nun irgendwie überhaupt keine Werbetrommel rührt.....

Ailuros
2006-01-20, 09:55:30
Kommt die Karte denn nun wirklich nächste Woche raus??

Weil ATI ja nun irgendwie überhaupt keine Werbetrommel rührt.....

AFAIK ja.

reunion
2006-01-20, 10:39:32
Sind zwar von ATi, aber die Zahlen dürften trotzdem nicht vom Himmel gefallen sein:

http://www.hardwareoc.hu/upload/news/9617_testbed.jpg

http://www.hardwareoc.hu/upload/news/9617_atix1900_1.gif

http://www.hardwareoc.hu/upload/news/9617_atix1900_2.gif

http://www.hardwareoc.hu/upload/news/9617_atix1900_3.gif

http://www.hardwareoc.hu/upload/news/9617_atix1900_4.gif

http://www.hardwareoc.hu/index.php/p/news/cid/1/y/9617.html

reunion
2006-01-20, 10:43:06
X1900XT lieferbar(!):

http://www.computers4sure.com/search.asp?Operator=ALL&CONTEXT=SITE&Keyword=x1900&x=0&y=0

http://www.digitallyunique.com/viewproduct.htm?category_id=419522&productId=4169611&srccode=cii_14110944&cpncode=10-16007872-2

mapel110
2006-01-20, 10:46:46
hm, den Flaschenhals bei AOE3 haben sie wohl gefunden. =)

[dzp]Viper
2006-01-20, 10:47:43
X1900XT lieferbar(!):

http://www.computers4sure.com/search.asp?Operator=ALL&CONTEXT=SITE&Keyword=x1900&x=0&y=0

http://www.digitallyunique.com/viewproduct.htm?category_id=419522&productId=4169611&srccode=cii_14110944&cpncode=10-16007872-2


Hm - wollen sie NV überbieten in Sachen verfügbarkeit indem sie die Karten schon vor Launche Verfügbar machen? X-D

RLZ
2006-01-20, 10:48:01
Tolle Skala in den Diagrammen.
Da wird aus einem Faktor 2 optisch mal schnell ein Faktor 6 gemacht.
Was dem Marketing nicht alles einfällt. :|

Sphinx
2006-01-20, 11:07:06
Tolle Skala in den Diagrammen.
Da wird aus einem Faktor 2 optisch mal schnell ein Faktor 6 gemacht.
Was dem Marketing nicht alles einfällt. :|
`
? sehe keine Verwirrungen.

200% ist trotzdem 200%.

Tidus
2006-01-20, 11:14:11
muh ich glaub meine entscheidung is auf X1900XT gefallen...die XTX kann ich wohl nich bezahlen :biggrin:

Logan
2006-01-20, 11:25:08
Kann man den diagrammen trauen ? Irgendwie haben die nullaussage kraft, da direkt von ati. Nicht falsch verstehen , ich hoffe das die karte reinhaut wie ne bombe (die 9700pro ist und bleibt meine lieblingskarte nach der voodoo1 :) ), aber die werte scheinen mir doch bisschen utopisch.

Winter[Raven]
2006-01-20, 11:27:10
@Hausing

Wender von NV noch von ATI stammenden Benches sind nicht ernst zu nehmen. Hier diesen steckt nur die PR-Abteilung mehr nicht.

RLZ
2006-01-20, 11:27:49
`
? sehe keine Verwirrungen.

200% ist trotzdem 200%.
Stört dich nicht, dass der Balken bei 280% 10 mal so lang ist wie bei 100%?
Dieses Spiel lässt sich fürs Marketing beliebig fortsetzen.
Ist der neue Chip nur 2% schneller? Dann lass ich die Skala erst bei 99,9% anfangen und es sieht nach einer enormen Steigerung aus.
Beim ersten Diagramm ist die Skala zudem nicht mal linear.

tombman
2006-01-20, 11:43:29
ALso nach allen was ich gesehen habe saugt die X1900 ganz schön. Ne Spur schneller als die 512er GTX, aber gegen einen G71 mit 32pipelines @ 700 core wird sie KEINE Chance haben ;)

Die X1900 hat 48 Alus @ 6xx mhz, die G71 64 Alus @ 7xx mhz, noch dazu deutlich mehr fillrate UND besseren Speicher... --> die Sache wird eindeutig ;)

reunion
2006-01-20, 11:52:00
hm, den Flaschenhals bei AOE3 haben sie wohl gefunden. =)

Nicht vergessen, die Benchmarks stammen von ATi.
Der Flaschenhals bei AOE3 sind bei den ATi-Karte einzig und alleine die Schatten, werden diese deaktiviert, gibt es eine regelrechte Performanceexplosion. Diese werden auf ATi-Karten schöner, aber auch extrem leistungsfressend dargestellt.

Würde mich nicht wundern, wenn ATi für diesen Bench auf die Schatten verzichtet hat.

Undertaker
2006-01-20, 11:57:39
ALso nach allen was ich gesehen habe saugt die X1900 ganz schön. Ne Spur schneller als die 512er GTX, aber gegen einen G71 mit 32pipelines @ 700 core wird sie KEINE Chance haben ;)

Die X1900 hat 48 Alus @ 6xx mhz, die G71 64 Alus @ 7xx mhz, noch dazu deutlich mehr fillrate UND besseren Speicher... --> die Sache wird eindeutig ;)

also das der g71 mit 7** mhz kommen wird glaube ich persönlich nicht... aber mal abwarten...

außerdem muss man sehen, dass sich von x1800->x1900 die shaderpower verdreifacht hat, vom g70->g71 (je nach takt) nicht einmal verdoppeln wird (eher +~70%)...

reunion
2006-01-20, 11:58:21
Die X1900 hat 48 Alus @ 6xx mhz, die G71 64 Alus @ 7xx mhz, ;)

R520 hat nur 16 ALUs, und liegt kaum hinter einem G70 mit 48 ALus.
Nochmal: ALU != ALU.


noch dazu deutlich mehr fillrate UND besseren Speicher... --> die Sache wird eindeutig ;)

Zum G71-Launch kommt mit Sicherheit eine PE mit ebenso schnellem Speicher, und höherem Taktraten IMHO. Und Füllrate muss auch gefüttert werden.

HOT@Work
2006-01-20, 12:09:36
ALso nach allen was ich gesehen habe saugt die X1900 ganz schön. Ne Spur schneller als die 512er GTX, aber gegen einen G71 mit 32pipelines @ 700 core wird sie KEINE Chance haben ;)

Die X1900 hat 48 Alus @ 6xx mhz, die G71 64 Alus @ 7xx mhz, noch dazu deutlich mehr fillrate UND besseren Speicher... --> die Sache wird eindeutig ;)


Da ist wohl eher der Wunsch der Vater des Gedanken.
a.) wer sagt, dass NV den 90nm Prozess genauso gut im Griff hat wie ATI?
b.) ALU != ALU Die Praxis zeigt, dass ATIs ALUs deutlich mächtiger sind
c.) Der Speicher ist eigentlich kein Vorteil, da sowieso beide Hersteller annähernd das Gleiche verbauen können
d.) Der Chiptakt liegt wohl eher bei 500+ MHz, bestenfalls bei 600+ aber 700+ halte ich für träumerei
e.) hat die GTX schon eine sehr viel höhere Texelfüllrate als die X1800 und kann dennoch kaum Nutzen daraus ziehen. Warum sollte das bei 8 Quads anders sein? Der Anstieg der Rechenleistung bei 8 Quads gü. 6 Quads ist doch eher gering

Tidus
2006-01-20, 12:10:22
Wann soll die G71 kommen ?

Winter[Raven]
2006-01-20, 12:20:30
März

Winter[Raven]
2006-01-20, 12:28:16
Da ist wohl eher der Wunsch der Vater des Gedanken.
a.) wer sagt, dass NV den 90nm Prozess genauso gut im Griff hat wie ATI?
b.) ALU != ALU Die Praxis zeigt, dass ATIs ALUs deutlich mächtiger sind
c.) Der Speicher ist eigentlich kein Vorteil, da sowieso beide Hersteller annähernd das Gleiche verbauen können
d.) Der Chiptakt liegt wohl eher bei 500+ MHz, bestenfalls bei 600+ aber 700+ halte ich für träumerei
e.) hat die GTX schon eine sehr viel höhere Texelfüllrate als die X1800 und kann dennoch kaum Nutzen daraus ziehen. Warum sollte das bei 8 Quads anders sein? Der Anstieg der Rechenleistung bei 8 Quads gü. 6 Quads ist doch eher gering

a) Weil TSMC genung Erfahrung auf Kosten von ATI sammeln konnte?
b) Mag sein, aber trotzdem besitzt die neue Reihe 3 Alus, NV nur 2. Damit unvergleichbar.
c) Nichts aussagekräftiges zu diesem Zeitpunkt.
d) Chip wird bei ~700 liegen, anderes kann man nicht erwarten
e) Lass mal eine 1800 mit langen shadern laufen....

Wirklich überzeugen tut mich der neue Chip nicht wirklich, Alu ist gut für die Zukunft, aber der "Oberhammer" ist es nicht.

Ailuros
2006-01-20, 12:32:53
Da ist wohl eher der Wunsch der Vater des Gedanken.

Das Ziel von NV liegt tatsaechlich so hoch; ob es erreicht wurde bleibt abzusehen ;)

a.) wer sagt, dass NV den 90nm Prozess genauso gut im Griff hat wie ATI?

NV benutzt kein "third party IP" fuer low-k 90nm und wenn ich nach den Problemen von ATI danach gehe sah ich eine Monatelange Verspaetungen fuer R5xx bis zum November. So "gut" hat ATI low-k 90nm im Griff (obwohl der Prozess an sich selber keine Probleme vorzeigt).

b.) ALU != ALU Die Praxis zeigt, dass ATIs ALUs deutlich mächtiger sind

Inwiefern?

c.) Der Speicher ist eigentlich kein Vorteil, da sowieso beide Hersteller annähernd das Gleiche verbauen können

Bandbreiten-Verwaltung ist wichtiger und hier hat so oder so ATI den Vorsprung mit AA.

d.) Der Chiptakt liegt wohl eher bei 500+ MHz, bestenfalls bei 600+ aber 700+ halte ich für träumerei

Ich wuerde an Deiner Stelle noch keine Wetten eingehen. Leider muss ich immer noch die Klappe halten.

e.) hat die GTX schon eine sehr viel höhere Texelfüllrate als die X1800 und kann dennoch kaum Nutzen daraus ziehen. Warum sollte das bei 8 Quads anders sein? Der Anstieg der Rechenleistung bei 8 Quads gü. 6 Quads ist doch eher gering

Bei gleicher Taktrate mit der GTX 512, sind es bei 8 quads 34% hoehere arithmetische Leistung im Vergleich zur ersten. Irgend was sagt mir aber dass der Unterschied doppelt so hoch sein koennte ;)

Gast
2006-01-20, 12:38:20
Wender von NV noch von ATI stammenden Benches sind nicht ernst zu nehmen...
Doppelte Negation. Also sind sie Ernst zu nehmen?

Tidus
2006-01-20, 12:40:20
Doppelte Negation. Also sind sie Ernst zu nehmen?
:biggrin:
hab ich gar nich bemerkt :D

Winter[Raven]
2006-01-20, 12:41:36
Nein ... warten auf Benches von anderen Techseiten die nicht gebranntmarkt sind.

Ailuros
2006-01-20, 12:45:08
R520 hat nur 16 ALUs, und liegt kaum hinter einem G70 mit 48 ALus.
Nochmal: ALU != ALU.

Legt man die Unterteilung der ALUs zur Seite sind es beim R520:

4D MADD
4D ADD

G70:

4D MADD
4D MADD

So gesehen ist es 16:24 und bei R580/G71 dann 48:32. Der ganze Quark mal die Taktrate und natuerlich minus den Faellen wo die ADDs nicht einlegen koennen und die texture OPs je nach Fall.

Zaehlt man jetzt ALU auschliesschlich nach MADDs ist es dann erst 16:48, aber dann auch 48:64 fuer R580/G71.

Coda
2006-01-20, 13:08:06
a.) wer sagt, dass NV den 90nm Prozess genauso gut im Griff hat wie ATI?ATI hatte nie Probleme mit der Fertigungsprozess.

b.) ALU != ALU Die Praxis zeigt, dass ATIs ALUs deutlich mächtiger sindHm? Nö.

e.) hat die GTX schon eine sehr viel höhere Texelfüllrate als die X1800 und kann dennoch kaum Nutzen daraus ziehen. Warum sollte das bei 8 Quads anders sein? Der Anstieg der Rechenleistung bei 8 Quads gü. 6 Quads ist doch eher geringWelche GTX meinst du? Die 256MiB Version hat exakt gleich viel Texelfüllrate. Die 512er hat 33% mehr die sie ja auch in den meisten Spielen recht gut auf den Boden bekommt.

tombman
2006-01-20, 13:41:14
Ich wuerde an Deiner Stelle noch keine Wetten eingehen. Leider muss ich immer noch die Klappe halten.


Die wissenden schweigen ;) :cool:

up¦²
2006-01-20, 14:13:14
http://img43.imageshack.us/img43/9040/x19g7814pj.th.gif (http://img43.imageshack.us/my.php?image=x19g7814pj.gif)


http://img43.imageshack.us/img43/5686/x19g7822we.th.gif (http://img43.imageshack.us/my.php?image=x19g7822we.gif)

ShadowXX
2006-01-20, 14:21:37
[URL=http://img43.imageshack.us/my.php?image=x19g7822we.gif] (http://img43.imageshack.us/my.php?image=x19g7814pj.gif[/URL)

Hatte wir auf der letzen oder vorletzten Seite schon....

up¦²
2006-01-20, 14:25:04
Scheinbar spielt der RV580 bei CF-performance eine entscheidende rolle, vieles deudet darauf hin,
Obendrein hat Ati QuadGPU Crossfire fertig, aber nur ein X1600-setup vorgestellt; nennt sich Crossfire X2.

@Tombman:
eure nachbarn aus Ungarn haben was ganz tolles online!
http://www.hardwareoc.hu/index.php/p/news/cid/1/y/9617.html

PS:

Ok , sorry, schon mal gepostet ..., aber lieber zweimal als keinmal :smile:
Obendrein war die zweite doublette mehr ein zitat und einer spekulation zugefügt!
Daß dann gäste anfangen auch noch sinnlos zu spammen und dabei unterstützt werden, enttäuscht mich im spekulationsforum schon sehr,
weil sowas eigentlich noch mehr stört als ein double.
Ich reagier mal so drauf, um nicht noch mehr unordnung zu stiften, und dazwischen zu fahren mit einer antwort.

mapel110
2006-01-20, 14:28:50
up2, langsam nervt es ein wenig. Das ist auch schon gepostet worden. ;(

Gast
2006-01-20, 14:29:32
Wurde ebenfalls schon ein paar Seiten vorher gepostet. Typische Marketing Balken.

reunion
2006-01-20, 14:32:06
Legt man die Unterteilung der ALUs zur Seite sind es beim R520:

4D MADD
4D ADD

G70:

4D MADD
4D MADD

So gesehen ist es 16:24 und bei R580/G71 dann 48:32. Der ganze Quark mal die Taktrate und natuerlich minus den Faellen wo die ADDs nicht einlegen koennen und die texture OPs je nach Fall.

Zaehlt man jetzt ALU auschliesschlich nach MADDs ist es dann erst 16:48, aber dann auch 48:64 fuer R580/G71.

Kann eine MADD-Einheit pro Takt ADD und MUL ausführen, oder entweder ADD oder MUL?

Ailuros
2006-01-20, 14:32:45
Scheinbar spielt der RV580 bei CF-performance eine entscheidende rolle, vieles deudet darauf hin,
Obendrein hat Ati QuadGPU Crossfire fertig, aber nur ein X1600-setup vorgestellt; nennt sich Crossfire X2.

Brauchen sie auch fuer den Profi-Markt.


eure nachbarn aus Ungarn haben was ganz tolles online!
http://www.hardwareoc.hu/index.php/p/news/cid/1/y/9617.html

Dass G71 ~13k Punkte in 3dfart05 leisten soll lese ich nicht zum ersten mal :|

Ailuros
2006-01-20, 14:38:01
Kann eine MADD-Einheit pro Takt ADD und MUL ausführen, oder entweder ADD oder MUL?

MUL oder ADD oder MADD

AFAIK sind beide "sub-units" auf G70 ueber die genau gleichen Instruktionen faehig, wobei aber nur eine texture processing Instruktionen ausfuehren kann.

d2kx
2006-01-20, 15:11:41
http://www.hardwareoc.hu/upload/news/9617_atix1900_1.gif

Ich bin kein Profi, aber das sieht sehr cool aus. Denke auch, dass der Xpress 3200 aka RD580 noch etwas bringen wird. CS: Source in 2048 bei 14x AA usw. GEIL :D

Gast
2006-01-20, 15:15:12
Guck dir mal die Balken genauer an. Bei 10% Mehrleistung ist der Balken 10mal so lang wie der der Konkurrenzkarte. ;)

Gast
2006-01-20, 15:16:52
Außerdem: 16x SLI-AA vs. ATIs 12x AA (vom Marketing 14x genannt, ist aber nur 12x)

Aber selbst da kriegen andere Seiten wie computerbase komischerweise völlig andere Ergebnisse raus wie ATI.

Gast
2006-01-20, 15:19:06
Sorry, war glaube nicht computerbase, sondern irgendwer anderes der neulich einen SLI-AA vs. Super-AA Vergleich gemacht hat.

3d
2006-01-20, 15:26:41
wo ist eigentlich der sinn von 16x AA bzw. 12x AA?

für eine auflösung von 320x240 wär das schon ok aber wer spielt schon in 300er auflösungen?

ab 6x AA bei ner tausender auflösung gibt es keine stufen mehr. wozu soll man dann diese hohen AA modi gebrauchen?

Gast
2006-01-20, 15:28:31
Um die brachliegende Leistung eines SLI-Systems irgendwie zu nutzen. ;) Durch den Supersampling-Anteil werden auch die Texturen verbessert.

aths
2006-01-20, 16:20:29
Da ist wohl eher der Wunsch der Vater des Gedanken.
a.) wer sagt, dass NV den 90nm Prozess genauso gut im Griff hat wie ATI?
b.) ALU != ALU Die Praxis zeigt, dass ATIs ALUs deutlich mächtiger sindWelche ALU-Bestandteile zählst du hier als ALU? Sowohl die einzelne MAD-ALU bei der GeForce ist mächtiger (da sie 4:0, 3:1 und 2:2-Pairing anbietet), als auch die ALUs insgesamt (Mini-ALU pro MAD-ALU, Extra-ALU für NRM_PP, spezielle Mini-ALUs die der TMU nachgeschaltet sind, bessere Verteilung der SFUs über die Pipeline. Zwar kostet der Sincos bei der GeForce 2-3 Takte, bei der R5xx-Serie afaik nur 1 Takt, aber das kann die umfangreicheren anderen Möglichkeiten der G70-ALUs nicht aufwiegen.)

d.) Der Chiptakt liegt wohl eher bei 500+ MHz, bestenfalls bei 600+ aber 700+ halte ich für träumereiDas sehe ich genauso. Wenn NV mehr Glück als Verstand hat, können sie vielleicht eine Ultra-Version irgendwie auf 600 MHz prügeln. Die preislich interessanten Karten dürften kaum über 500 MHz hinauskommen. 700 MHz halte ich für ganz unrealistisch.

e.) hat die GTX schon eine sehr viel höhere Texelfüllrate als die X1800 und kann dennoch kaum Nutzen daraus ziehen. Warum sollte das bei 8 Quads anders sein? Der Anstieg der Rechenleistung bei 8 Quads gü. 6 Quads ist doch eher geringDie Texelfüllrate steht auf dem Papier. Der Anstieg der ALU-Leistung ist taktnormalisiert immerhin 33%. Gehen wir von 9% Taktsteigerung aus, steigt die ALU-Leistung insgesamt um 45%.

Gandharva
2006-01-20, 16:31:55
Das sehe ich genauso. Wenn NV mehr Glück als Verstand hat, können sie vielleicht eine Ultra-Version irgendwie auf 600 MHz prügeln. Die preislich interessanten Karten dürften kaum über 500 MHz hinauskommen. 700 MHz halte ich für ganz unrealistisch.Ausgehend von einem Transistorcount von 360-370 Millionen bei NV71 ist ein Minimum von ~650MHz wohl so gut wie sicher. IMO werden die preislich interessanten Karten ein oder 2 Quads deaktiviert haben und evtl. etwas niedrigeren Takt (max. 50Mhz).

aths
2006-01-20, 16:57:34
http://www.hardwareoc.hu/upload/news/9617_atix1900_1.gif

Ich bin kein Profi, aber das sieht sehr cool aus. Denke auch, dass der Xpress 3200 aka RD580 noch etwas bringen wird. CS: Source in 2048 bei 14x AA usw. GEIL :DAuch Crossfire-Lösungen können kein 14x AA realisieren.

horn 12
2006-01-20, 17:17:53
@Aths !
DEINE Meinung ist mir immer SEHR wichtig !

welche Performance wird denn in etwa die X1700 XT PCI-oder xxx einnehmen
wenn die Specs die im netz kursieren stimmen sollten.
Meiner Einschätzung knapp überhalb einer X800 XT PE
Könnte dies zutreffen ?
und games wie MAFIA; RUNE; NFS MW, DOMM 3, Farcry ett. sollten doch mit 1280 x 1024 4xAA 8AF ruckelfrei laufen, also besser als wie mit ner X800 PRO

und games mit HDR + 2xAA in 1024 x 768, sollte doch drinnen sein bei der X1700 XT ? auch falls sie mit nur 128 bit SI daherkommen würde .

Dank DIR !

robbitop
2006-01-20, 17:25:33
Ich bin zwar nicht aths, aber ich denke, dass die Texturfüllrate und die Bandbreite der RV560 aka X1700 deutlich geringer sind als die der R520 aka X1800. Die arithmetische Leistung hingegen dürfte bis zu 50% höher sein. Jedoch denke ich, dass mit AA/AF derzeit nicht die PS Leistung der Flaschenhals ist, sondern obiges. So schnell wird das auch nicht abnehmen.
Allerdings ist eine X1700 sicher günstiger als eine X1800.

deekey777
2006-01-20, 17:27:29
Auch Crossfire-Lösungen können kein 14x AA realisieren.

Wenn die kanadische PR-Abteilung sagt, es ist 14xAA, dann ist es 14xAA! ;D

Gast
2006-01-20, 17:33:10
Zwar kostet der Sincos bei der GeForce 2-3 Takte, bei der R5xx-Serie afaik nur 1 Takt, aber das kann die umfangreicheren anderen Möglichkeiten der G70-ALUs nicht aufwiegen.
Soweit ich weiß, genau andersrum. Zumindest im Pixelshader.


Q

Coda
2006-01-20, 17:44:05
Ich glaube es war so, dass R300-R480 dafür ein paar Takte gebraucht haben, N30+ und R520+ aber nur einen.

robbitop
2006-01-20, 17:44:26
Soweit ich weiß, genau andersrum. Zumindest im Pixelshader.


Q
Richtig, dafür kann IIRC eine ATI ALU "RCP" in einem einzigen Takt berechnen, NVs hingegen brauchen 2.

Coda
2006-01-20, 17:47:02
Woher hast du das? Das würde mich arg wundern.

Gast
2006-01-20, 17:49:32
Mit der X1900 könnte Ati es erstmals schaffen, die GFFX 5800u im Sin/Cos oder Sincos zu schlagen. ;)

RCP läuft auf ATi mit vollem Durchsatz, bei Nvidia nur mit halbem, richtig.

Q

Coda
2006-01-20, 17:53:15
Hm ok *wunder* :)

aths
2006-01-20, 18:06:03
Coda, Q,

mein Kenntnisstand für SINCOS ist: R300/420 brauchen 8 Takte im PS, R300 8 Takte im VS, R420 1 Takt im VS. Wie schnell das im VS bei den GF-Chips ist, weiß ich nicht; NV40 benötigt im PS soweit ich weiß 2-3 Takte (2 für SIN oder COS, 3 für SINCOS), was im G70 soweit ich weiß nicht verbessert wurde, während es ATI ab R520 auf 1 Takt schafft. Auch RSQ (mit Full Precision) dürfte (schon ab R300) schneller sein, GF-Karten brauchen dort 2 Takte (1 Takt für _PP.) Ich lass mich gerne eines besseren belehren, dann bitte mit Quelle.

Was 2 Takte braucht ist RSQ, RCP ist afaik für 1 Takt zu bekommen.

aths
2006-01-20, 18:09:37
@Aths !
DEINE Meinung ist mir immer SEHR wichtig !

welche Performance wird denn in etwa die X1700 XT PCI-oder xxx einnehmen
wenn die Specs die im netz kursieren stimmen sollten.
Meiner Einschätzung knapp überhalb einer X800 XT PE
Könnte dies zutreffen ?
und games wie MAFIA; RUNE; NFS MW, DOMM 3, Farcry ett. sollten doch mit 1280 x 1024 4xAA 8AF ruckelfrei laufen, also besser als wie mit ner X800 PRO

und games mit HDR + 2xAA in 1024 x 768, sollte doch drinnen sein bei der X1700 XT ? auch falls sie mit nur 128 bit SI daherkommen würde .

Dank DIR !Da wage ich keine großen Spekulationen. Das 1:3-TMU:ALU-Verhältnis ist noch recht neu, wie sich das im Einzelfall auswirkt noch nicht absehbar. Die Performance hängt auch von anderen Umständen ab, also von GPU-Details, die man noch nicht kennt. Ich gehe davon aus, dass die X1700 eine exzellente Mittelklassen-Karte wird, wage aber keine Performance-Projektionen.

Mr. Lolman
2006-01-20, 18:20:34
Wenn die kanadische PR-Abteilung sagt, es ist 14xAA, dann ist es 14xAA! ;D


Naja, bei ATis 14xAA gibts im Ggs zum 12xAA noch zusätzlich 2xSSAA. Also ists mehr als ein 12xAA Modus.

Gast
2006-01-20, 18:21:50
Es ist und bleibt 12xAA, da kann ATIs Marketing behaupten, was sie wollen.

Mr. Lolman
2006-01-20, 18:24:08
Es ist und bleibt 12xAA, da kann ATIs Marketing behaupten, was sie wollen.

Das EER erhöht sich ja dabei auch.

Gandharva
2006-01-20, 18:25:24
Wenn es das schon geben sollte, bitte einfach löschen.

More X1900XT Results (DOOM3)

DOOM3 this time round. System config is FX-53 with 1GB DDR400 running CAS 2, 6-2-2,1T.

Using 6xAA + 16xAF, the scores are 85.6 fps (1024x768) and 62.7fps (1280x1024).http://www.ocworkbench.com/ocwbcgi/newspro/viewnews.cgi?newsid1137659721,74269,,

FutureMark 3DMark06 scores a total of 4473 3Dmarks on ATi X1900XT. As for SM2.0, it got 2052, HDR/SM3.0 is 2210 and CPU scores 937. Other detail scores can be seen from the screen capture below.http://www.ocworkbench.com/2006/newsphotos/jan/3dmark06.jpg

up¦²
2006-01-20, 18:26:01
"48 pixel shader processors, 3x that of the x1800"
Was hat das für eine wirkung? :rolleyes:

Ronny145
2006-01-20, 18:29:47
Wenn es das schon geben sollte, bitte einfach löschen.

More X1900XT Results (DOOM3)

DOOM3 this time round. System config is FX-53 with 1GB DDR400 running CAS 2, 6-2-2,1T.

Using 6xAA + 16xAF, the scores are 85.6 fps (1024x768) and 62.7fps (1280x1024).


Wurde noch nicht gepostet. Jetzt wären Ergebnisse einer X1800XT in den gleichen settings interessant.

Der 3dmark05 Wert ist eher schwach.

deekey777
2006-01-20, 18:30:53
Wurde noch nicht gepostet. Jetzt wären Ergebnisse einer X1800XT in den gleichen settings interessant.

Teile die Ergebnisse der X1900 einfach durch drei. :biggrin:

Tarkin
2006-01-20, 18:40:55
X1900 has arrived...

http://www.watch.impress.co.jp/akiba/hotline/20060121/etc_radx19.html

http://www.watch.impress.co.jp/akiba/hotline/20060121/image/nx192.jpg

schööööön :D

Gast
2006-01-20, 18:48:49
Coda, Q,

mein Kenntnisstand für SINCOS ist: R300/420 brauchen 8 Takte im PS, R300 8 Takte im VS, R420 1 Takt im VS. Wie schnell das im VS bei den GF-Chips ist, weiß ich nicht; NV40 benötigt im PS soweit ich weiß 2-3 Takte (2 für SIN oder COS, 3 für SINCOS), was im G70 soweit ich weiß nicht verbessert wurde, während es ATI ab R520 auf 1 Takt schafft. Auch RSQ (mit Full Precision) dürfte (schon ab R300) schneller sein, GF-Karten brauchen dort 2 Takte (1 Takt für _PP.) Ich lass mich gerne eines besseren belehren, dann bitte mit Quelle.

Was 2 Takte braucht ist RSQ, RCP ist afaik für 1 Takt zu bekommen.
Wieso gibst du nicht eine Quelle für deine These an?

Egal, schau dir mal die Ergebnisse auf http://graphics.stanford.edu/projects/gpubench/ an. Dort sieht man recht gut, dass Nvs (ab dem NV30; das steht dort aber nicht, dort ist nur ein NV34) single-cycle SIN und COS schaffen. Auch SCS ist so schnell.

Bei ATi ist es andersrum.

Deine Quelle? Ich kenne zumindest das Launch-PDF zum X800, dort behauptet ATi, dass sie single-cycle sin/cos hinbekommen, vergessen aber IMO zu erwähnen, dass dies nur für den VS gilt.


Q

aths
2006-01-20, 18:51:15
Naja, bei ATis 14xAA gibts im Ggs zum 12xAA noch zusätzlich 2xSSAA. Also ists mehr als ein 12xAA Modus.Es ist und bleibt ein 12x-Modus. Genau 12 Geometrie-Samples werden genommen.

Gast
2006-01-20, 18:51:58
X1900 has arrived...Naja, wen interessiert denn die XT? Wirklich interessant ist eh nur die XTX...

Coda
2006-01-20, 19:00:56
25Mhz mehr reißens auch brutal raus. Geradezu erdbebenartige Performancesprünge sind da zu erwarten.

Gandharva
2006-01-20, 19:04:00
Naja, wen interessiert denn die XT? Wirklich interessant ist eh nur die XTX...Genau! Da bekommt man dann für 100€ mehr brachiale 25MHz mehr GPU Takt. Wer da nicht zuschlägt...

up¦²
2006-01-20, 19:05:23
Ähm :rolleyes:
... 6.2?

Gast
2006-01-20, 19:06:50
25Mhz mehr reißens auch brutal raus. Geradezu erdbebenartige Performancesprünge sind da zu erwarten.

Das frage ich mich auch. Wie kommt man nur auf die wahnwitzige Idee eine High-End-Karte mit 625 Mhz durch eine max. 4 prozentige Leistungssteigerung zu toppen? Ist dies überhaupt schon einmal in der GraKa-Geschicht vorgekommen?

Tarkin
2006-01-20, 19:07:32
Naja, wen interessiert denn die XT? Wirklich interessant ist eh nur die XTX...

ist glaube ich ziemlich Schnuppe ob das Teil jetzt mit 625/725 (im Fall der XT) oder mit 650/750 (im Fall der XTX) getaktet ist (das setzt voraus, dass die von Sapphire angegebenen Specs. korrekt waren ;-)

Kann natürlich auch sein, dass die XTX mit 700/800 (wie die aktuellen OC Editionen) takten - ich halte das sogar für wahrscheinlicher. Ein Unterschied von nur 25 bzw. 50MHz scheint mir etwas gering.

Auf jedenfall wirds so sein, dass ATi die "guten" Cores und den "wertvolleren" Speicher für die G71 Gegenattacke hortet.

Die X1900 Serie wird bis dahin mehr als genug sein, um gegen die (sowieso nicht verfügbare 512er GTX) zu bestehen.

Die X1800XT werden auf 400 bzw unter 300 Euro (XL) sinken .... dann ist das Portfolie quasi perfekt.

X1900XTX - 600,-
X1900XT - 500,-
X1800XT OC - 450,-
X1800XT- 400,-
X1800XL - 300,-
X850 - ~ 250,-

und alles unter 200,- den X800XL, GTO16, GTOs, GTs, den X1600 sowie X1300 (unter 100,-)

... oder so ungefähr ;)

Gandharva
2006-01-20, 19:09:25
"48 pixel shader processors, 3x that of the x1800"
Was hat das für eine wirkung? :rolleyes:Ähm :rolleyes:
... 6.2?Ähm... findest Du solche zusammenhanglosen Einwürfe nicht auch selbst störend?

Gandharva
2006-01-20, 19:11:30
X1900XTX - 600,-
X1900XT - 500,-
X1800XT OC - 450,-
X1800XT- 400,-
X1800XL - 300,-
X850 - ~ 250,-

... oder so ungefähr ;)Fast ;)Therefore, ATI is planning to settle for the same suggested retail price. The fastest X1900XTX card clocked at 650MHz core and 1500MHz memory should cost $649. The second fastest X1900XT should cost $549 while the Crossfire X1900 XT card should cost around $599 in retail.http://www.theinquirer.net/?article=29141

up¦²
2006-01-20, 19:12:24
Ähm... findest Du solche zusammenhanglosen Einwürfe nicht auch selbst störend?

Das erste ist eine konkrete frage.
Das zweite eine - zugegeben - ironische spekulation, aber durchaus berechtigt! :wink:

Gandharva
2006-01-20, 19:15:12
Das erste ist eine konkrete frage.Schau Dir doch die bisherigen Ergebnisse an, Marketing blabla Benches ausgenommen, dann siehst Du was es bringt. Zu 2: Ja der kommt im Februar. Und jetzt?

Gast
2006-01-20, 19:16:40
Fast ;)http://www.theinquirer.net/?article=29141

Die angegebenen Retail-Preise von ATI werden mit Sicherheit nicht den Straßenpreisen entsprechen, vorausgesetzt sie können liefern (was aber momentan so aussieht). Also gehen Tarkins Schätzungen schon i.o.

Logan
2006-01-20, 19:19:54
X1900 has arrived...

http://www.watch.impress.co.jp/akiba/hotline/20060121/etc_radx19.html

http://www.watch.impress.co.jp/akiba/hotline/20060121/image/nx192.jpg

schööööön :D

Haben will :D

Gandharva
2006-01-20, 19:19:59
Die angegebenen Retail-Preise von ATI werden mit Sicherheit nicht den Straßenpreisen entsprechen, vorausgesetzt sie können liefern (was aber momentan so aussieht). Also gehen Tarkins Schätzungen schon i.o.X1900 XTX: http://froogle.google.com/froogle_cluster?pid=4884085351285153256&oid=11081056972171225623&btnG=Search+Froogle&q=X1900+XTX&lmode=online&scoring=p

X1900 XT: http://froogle.google.com/froogle_cluster?pid=4884085351298811286&oid=14152722107824496918&btnG=Search+Froogle&q=X1900+XT&lmode=online&scoring=p

Die Mittelwerte auszurechnen spar ich mir jetzt mal. Und ja, Tarkins Schätzungen werden, wenn sich die Preise mal nach dem Anfangsboom gefestigt haben, sicher recht gut passen.

Gast
2006-01-20, 19:24:19
X1900 XTX: http://froogle.google.com/froogle_cluster?pid=4884085351285153256&oid=11081056972171225623&btnG=Search+Froogle&q=X1900+XTX&lmode=online&scoring=p

X1900 XT: http://froogle.google.com/froogle_cluster?pid=4884085351298811286&oid=14152722107824496918&btnG=Search+Froogle&q=X1900+XT&lmode=online&scoring=p

Warte doch einfach ein wenig, bist die Karten auch vorgestellt wurden. Aber bitte nicht gleich eine Minute nach dem Launch neue Preise posten. Bei manchen Leute hängt das Leben nicht von ein paar Minuten ab (zumindest wenn es um dieses Thema geht). Also Ruhe bewahren und den Markt den Preis regeln lassen.

Gandharva
2006-01-20, 19:29:17
Warte doch einfach ein wenig, bist die Karten auch vorgestellt wurden.Das ändert die Preise in den Shops in denen die Karten jetzt schon gelistet sind aber auch nicht.Aber bitte nicht gleich eine Minute nach dem Launch neue Preise posten. Bei manchen Leute hängt das Leben nicht von ein paar Minuten ab (zumindest wenn es um dieses Thema geht). Also Ruhe bewahren und den Markt den Preis regeln.Bissl arg weit hergeholt die Aussage. Meinst nicht auch? ;)

Mr. Lolman
2006-01-20, 19:29:28
Es ist und bleibt ein 12x-Modus. Genau 12 Geometrie-Samples werden genommen.


Sicher?

Auch beim 8xS gibts mehr als 8 Geometrie-Samples! (wenn auch nicht besonders schön verteilt)

Coda
2006-01-20, 19:30:35
Nö gibts nich. 8xS nimmt 8 Geometrie-Samples. Nicht mehr.

Gandharva
2006-01-20, 19:31:19
Sicher?

Auch beim 8xS gibts mehr als 8 Geometrie-Samples! (wenn auch nicht besonders schön verteilt)Bitte nicht schon wieder Standbilder Lolman. Kauf Dir doch einfach mal ne Karte mit der Du auch ordendlich spielen kannst. ;)

Mr. Lolman
2006-01-20, 19:32:58
Nö gibts nich.
Und woher kommen dann die Zwischenstufen?

Bitte nicht schon wieder Standbilder Lolman. Kauf Dir doch einfach mal ne Karte mit der Du auch ordendlich spielen kannst. ;)
Gehts noch? :crazy:

Gast
2006-01-20, 19:33:53
Das ändert die Preise in den Shops in denen die Karten jetzt schon gelistet sind aber auch nicht.Bissl arg weit hergeholt die Aussage. Meinst nicht auch? ;)

Mal davon abgesehen, dass bei den Links, die du gepostet hast, bereits Karten dabei waren, die Tarkins Prognose entsprochen haben, wollte ich nur darlegen, dass die angegebenen Retail-Preise von ATI meistens etwas über den Marktpreisen liegen, wo ist also das Problem?

Das nenne ich mal einen Schachtelsatz.

Gandharva
2006-01-20, 19:34:01
Gehts noch? :crazy:Mir gehts gut. :) Und ich denke Du weißt wies gemeint ist. :tongue:

Mr. Lolman
2006-01-20, 19:34:26
Mir gehts gut. :) Und ich denke Du weißt wies gemeint ist. :tongue:

Nö weiss ich nicht. Ehrlich :|

Coda
2006-01-20, 19:34:28
Und woher kommen dann die Zwischenstufen?Das kannst du so doch gar nicht feststellen. Es werden 8 Geo-Samples genommen, das ist Fakt.

Eigentlich braucht man da auch nicht großartig rumdiskuttieren. Es sind eben 2 Pixel mit jeweils 4 Samples die verrechnet werden.

Mr. Lolman
2006-01-20, 19:40:56
Das kannst du so doch gar nicht feststellen. Es werden 8 Geo-Samples genommen, das ist Fakt.

Das bringt mich nicht weiter. Iirc brauchts Geometrie-Samples, damit geometrische Kanten geglättet werden können.

Würden die SSAA Samples nicht auch auf die Geometrie wirken (warum sollten sie eigentlich nicht?), dann kannst bei einer 4x8 EER auch nur max. 3 vertikale und 7 horizontale Zwischenstufen geben. Jetzt seh ich hier aber bis zu 5 vertikale Zwischenstufen. (Wers noch nicht bemerkt hat: Das Pic ist ein Ausschnitt aus nem Screenshot von Colourless D3D-FSAAViewer)

Gandharva
2006-01-20, 19:42:02
Mal davon abgesehen, dass bei den Links, die du gepostet hast, bereits Karten dabei waren, die Tarkins Prognose entsprochen haben, wollte ich nur darlegen, dass die angegebenen Retail-Preise von ATI meistens etwas über den Marktpreisen liegen, wo ist also das Problem?Ja, aber immer auf den günstigsten Preis zu sehen wäre IMO falsch. Die anderen Händler verkaufen ja trotzdem ihre Karten. Hatte übrigens oben nochmal editiert damit ich nicht falsch verstanden werde, was offensichtlich der Fall war.

Demirug
2006-01-20, 19:45:58
Mr. Lolman, die Kante ist ja leicht schräg deswegen kommen da auch horizontale Zwischenstufen zur Wirkung. Man erkennt das in der Regel daran das die entsprechede Abstufung nur ein Pixel groß ist.

Pirx
2006-01-20, 19:50:15
Wird der "Strom"verbrauch im Vergleich zur 1800XT nochmal steigen?
Ansonsten ne feine Karte, jetzt fehlen nur noch die next-Nextgen-Spiele, um zu sehen, ob die verdreifachte Shaderpower in der Praxis auch irgendwie ankommt.

Kann man eigentlich sagen, ob die Füllrate für das Spielen in 1600x1200 mit hohen AA-Stufen prinzipiell erstmal ausreichend ist?

Mr. Lolman
2006-01-20, 19:50:58
Mr. Lolman, die Kante ist ja leicht schräg deswegen kommen da auch horizontale Zwischenstufen zur Wirkung. Man erkennt das in der Regel daran das die entsprechede Abstufung nur ein Pixel groß ist.

Dann versteh ich immernoch nicht, warum beim "reinen" SSAA die SSAA-Samples eine Wirkung auf Geometriekanten haben, während das bei Mischmodi plötzlich nicht mehr der Fall sein soll.

/edit: Ok, hab schon kapiert. Sry für OT ;(

Gast
2006-01-20, 19:54:52
[…]Würden die SSAA Samples nicht auch auf die Geometrie wirken (warum sollten sie eigentlich nicht?),[…]
Sie sollten das, weil SSAA für Supersampling steht. Das bedeutet, das die komplette Raster-Auflösung entlang mindestens einer Achse erhöht wird. Dadurch entstehen zwangsläufig mehr Samples, da beim Herunterrechnen wieder Mittelwerte gebildet werden, wie beim MSAA eben auch, nur dass hier die kompletten Fragment-Operationen von Nöten sind.


Q

Gast
2006-01-20, 20:10:43
Naja, bei ATis 14xAA gibts im Ggs zum 12xAA noch zusätzlich 2xSSAA. Also ists mehr als ein 12xAA Modus.


schön, dann ist NV´s 8xS auch 10FSAA und 16x ist doch glatt 20xFSAA, nach ATIs rechnung :D

[dzp]Viper
2006-01-20, 20:14:04
Offtopic?!

Tarkin
2006-01-20, 20:28:59
Haben will :D

gibt leute, die haben sie schon!!!! (OMFG) :eek: :eek: :eek:

http://www.hardforum.com/showpost.php?p=1028882327&postcount=87

Gast
2006-01-20, 20:31:41
Die Frage ist: Will man die haben?

Ich würde schon gern eine nehmen. Die wird schon brutal schnell sein. Aber ob Ati das mit der Leistungsaufnahme und der Lautstärke in den Griff bekommen hat? Bis auf die Asus EAX1800 TOP gibt's ja kaum mal welche mit alternativem Kühler.


Q

ShadowXX
2006-01-20, 20:48:52
Die Frage ist: Will man die haben?

Ich würde schon gern eine nehmen. Die wird schon brutal schnell sein. Aber ob Ati das mit der Leistungsaufnahme und der Lautstärke in den Griff bekommen hat? Bis auf die Asus EAX1800 TOP gibt's ja kaum mal welche mit alternativem Kühler.

Q

Irgendwo hatte ich letztens gelesen (aber bitte frag nicht wo), das zumindest die Leistungsaufnahme in relation zur x1800xt gesunken sein soll.

Wie es mit der Lautstärke aussieht stand da allerdings nicht.

Wo hat der Typ eigentlich jetzt schon die Karte her?
In D ist die ja immer noch nicht gelistet...wir sind wahrscheinlich die einzigen, die sich an die Anweisungen von ATI (anbieten/verkaufen erst ab dem "hier-Datum-einsetzen") halten...

aths
2006-01-20, 21:22:39
Das bringt mich nicht weiter. Iirc brauchts Geometrie-Samples, damit geometrische Kanten geglättet werden können.

Würden die SSAA Samples nicht auch auf die Geometrie wirken (warum sollten sie eigentlich nicht?), dann kannst bei einer 4x8 EER auch nur max. 3 vertikale und 7 horizontale Zwischenstufen geben. Jetzt seh ich hier aber bis zu 5 vertikale Zwischenstufen. (Wers noch nicht bemerkt hat: Das Pic ist ein Ausschnitt aus nem Screenshot von Colourless D3D-FSAAViewer)Es gibt im Bild 5 Zwischenstufen. 1x AA hat keine Zwischenstufe, 2x AA eine, 3x AA zwei etc. – mit 8x AA wären also bis zu 7 Zwischenstufen möglich. Das Bild zeigt (aufgrund zu wenig steilen Neigungswinkel) sogar nur 5.

Zwei Zwischenstufen sind nur 1 Pixel groß. Das sind typische OG-Erscheinungen, wir haben nur 3 "relevante" Zwischenstufen. Das kommt auch hin wenn man die EER betrachtet.

Gast
2006-01-20, 21:24:38
Irgendwo hatte ich letztens gelesen (aber bitte frag nicht wo), das zumindest die Leistungsaufnahme in relation zur x1800xt gesunken sein soll.

Wie es mit der Lautstärke aussieht stand da allerdings nicht.

Absolut oder in Relation? À la FLOP/W? ;)

Die Lautstärke dürfte sich ja von X850 zu X1800 zu X1900 nicht soooo drastisch ändern, der Kühler schaut ja immer gleich aus.


Q

aths
2006-01-20, 21:39:56
Wieso gibst du nicht eine Quelle für deine These an?

Egal, schau dir mal die Ergebnisse auf http://graphics.stanford.edu/projects/gpubench/ an. Dort sieht man recht gut, dass Nvs (ab dem NV30; das steht dort aber nicht, dort ist nur ein NV34) single-cycle SIN und COS schaffen. Auch SCS ist so schnell.

Bei ATi ist es andersrum.

Deine Quelle? Ich kenne zumindest das Launch-PDF zum X800, dort behauptet ATi, dass sie single-cycle sin/cos hinbekommen, vergessen aber IMO zu erwähnen, dass dies nur für den VS gilt.

QWelche Folien auf jener Site meinst du konkret?

Gast
2006-01-20, 21:44:45
Unter "Results" den Teil "Instruction Issue". Da werden verschieden Operationen miteinander verglichen.


Q

up¦²
2006-01-20, 21:50:45
Cooling ist schon geregelt ...
http://www.arctic-cooling.ch/vga2.php?idx=90

http://www.arctic-cooling.ch/pics/products/90_big.jpg

Gast
2006-01-20, 22:12:12
Ich kaufe doch keinen Extra-Kühler dazu! Das macht die Karte ja nochmal um 20-30 Euro teurer... von "geregelt" kann in meinen Augen so keine Rede sein.

Oder gibt's bereits Ankündigungen seitens der Board-Partner, dass jemand erstmal nicht den Referenzkühler verbasteln will?


Q

Black-Scorpion
2006-01-20, 22:17:34
Da dürfte wohl HIS einer der ersten sein der einen anderen Kühler verbaut.
Das dürfte dann wieder die IceQ sein.

Gandharva
2006-01-20, 22:18:53
Ich kaufe doch keinen Extra-Kühler dazu! Das macht die Karte ja nochmal um 20-30 Euro teurer... von "geregelt" kann in meinen Augen so keine Rede sein.Also bei meinen letzten 3 Grafikkarten hatte ich jedesmal spätestens 1 Monat nach Anschaffung einen alternativen Kühler auf der Karte. Die Orginalkühler waren entweder zu laut oder kühlten zu schlecht (GTX 256).

Gast
2006-01-20, 22:19:27
Gibt's doch bisher noch nichtmal von der X1800, oder täusche ich mich?


Q

Black-Scorpion
2006-01-20, 22:31:31
Vielleicht hat es sich nicht gelohnt für die X1800er Karten. ;)
Die X1600 XT gibt es jedenfalls als HIS X1600XT IceQ (http://germany.hisdigital.com/html/product_sp.php?id=202) und HIS X1600XT IceQ Turbo (http://germany.hisdigital.com/html/product_sp.php?id=214).

Gandharva
2006-01-20, 22:31:48
Gibt's doch bisher noch nichtmal von der X1800, oder täusche ich mich?Nein, ist schon richtig. Allerdings besitze ich keine X1800. ;)

Ailuros
2006-01-20, 23:11:30
Noch 3 Tage Geduld dann kann der R580-Marathon ein Ende nehmen.

R580/G71 sind im Grunde nur aufgewaermte Suppen; zwar wird es wieder die wohl bekannten Benchmark-Kriege geben, aber viel mehr ist nicht zu erwarten.

Es wird endlich mal wieder Zeit dass fundamentalere Aenderungen auf den Tisch kommen und ich will hoffen dass in naechster Zeit viel mehr Einzelheiten ueber die kommenden D3D10 GPUs einfliessen als bisher.

Ronny145
2006-01-20, 23:14:45
Noch 3 Tage Geduld dann kann der R580-Marathon ein Ende nehmen.



Meinst du Montag oder Dienstag?

Demirug
2006-01-20, 23:47:57
Es wird endlich mal wieder Zeit dass fundamentalere Aenderungen auf den Tisch kommen und ich will hoffen dass in naechster Zeit viel mehr Einzelheiten ueber die kommenden D3D10 GPUs einfliessen als bisher.

Von nVidia ist ja gerade ein Entwurf für einen Chip mit US aufgetaucht.

up¦²
2006-01-20, 23:50:32
BTW
ist xenos nicht dx10-fähig?

Gast
2006-01-20, 23:55:19
BTW
ist xenos nicht dx10-fähig?Nein, wie kommste jetzt darauf?

mapel110
2006-01-20, 23:55:32
BTW
ist xenos nicht dx10-fähig?
Nein, hat keinen Geometrie-shader iirc.

Gast
2006-01-20, 23:56:11
Nein, hat keinen Geometrie-shader iirc.AFAIK fehlt dem noch ne ganze Menge mehr.

up¦²
2006-01-21, 00:05:03
Schon ein mulmiger gedanke, jetzt noch so viel zu investieren in dx9 :|
Das ist auch mein problem mit einem systemwechsel, mit vista/dx10 wird doch ziemlich sicher alles anders.
Hab mir gerade paar screens von Source mit HDR hier im forum angesehn:
"Added cs_militia with High Dynamic Range (HDR) lighting"
sensationell!
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=273420
und das mit einer z.b. mit x800!
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3895649&postcount=30

Ich bin mächtig am zweifeln ...

up¦²
2006-01-21, 00:21:13
AFAIK fehlt dem noch ne ganze Menge mehr.

Der Xenos-Chip von ATi lässt sich den Fähigkeiten zu Folge nicht einer Direct3D9-GPU zuordnen; der Chip entspricht eher dem D3D10-Standard.

http://64.233.183.104/search?q=cache:91XDHI4_5iIJ:www.computerbase.de/artikel/hardware/multimedia/2005/test_microsoft_xbox_360/7/+ati+xenos+D3D10&hl=en

Gast
2006-01-21, 00:35:49
Stimmt aber afaik nicht. Das einzige was er den PC-Graks vorraus hat, ist die Unfied Shader Architektur.

deekey777
2006-01-21, 01:04:08
Stimmt aber afaik nicht. Das einzige was er den PC-Graks vorraus hat, ist die Unfied Shader Architektur.
http://www.beyond3d.com/articles/xenos/index.php?p=02#c1

Der Xenos hat schon etwas mehr als die heutigen Grafikkarten, aber er ist definitiv kein D3D10 Chip.

Capabilities (http://www.beyond3d.com/articles/xenos/index.php?p=09)

Gast
2006-01-21, 01:16:17
http://www.beyond3d.com/articles/xenos/index.php?p=02#c1

Der Xenos hat schon etwas mehr als die heutigen Grafikkarten, aber er ist definitiv kein D3D10 Chip.

Capabilities (http://www.beyond3d.com/articles/xenos/index.php?p=09)lol, genau den Artikel hab ich auch grad gelesen. ;)

up¦²
2006-01-21, 02:18:41
No, because the architecture of the R300 and R500 is all coming from the Valley, but we’ve got great architects in all three sites.

So wird es wohl gewesen sein:
Die genie-gruppe, die den R300/R500 entwickelt haben musten wahrscheinlich den R520 mit einem neuen tape-out retten, deshalb der zeitverlust. :rolleyes:

Sehr nettes interview:
Hier S.3 davon:
http://www.beyond3d.com/interviews/daveorton/index.php?p=3

Ailuros
2006-01-21, 06:40:37
Von nVidia ist ja gerade ein Entwurf für einen Chip mit US aufgetaucht.

Nichts oeffentliches wie ein Patent z.B. oder?

reunion
2006-01-21, 09:24:53
Absolut oder in Relation? À la FLOP/W? ;)



Nein:

X1800XL - 1.1V core, 1.9V RAM
X1800XT - 1.35V core, 2.1V RAM
X1800XT PE - 1.45V core, 2.1V RAM
X1900XT - 1.2V core, 2.1V RAM

http://www.beyond3d.com/forum/showpost.php?p=673076&postcount=621

J0ph33
2006-01-21, 12:47:56
Abonnenten halten seit heute die neue GS in ihren Händen, darin ist überraschenderweise ein (recht kleiner) Test der X1900XTX, und nicht nur einer sondern gleich 2 davon...
wir alle wissen ja, wie kompetent GS-HW einzuschätzen ist, nichtsdestotrotz, hier mal ein paar ergebnisse:

FEAR: 1280*960 4*AA 8*AF
X1900XT: 40fps avg
GTX 512: 29fps avg
die XTX hat dann da 42fps...

FEAR: 1600*1200 4*AA 8*AF
X1900XT CF: 40fps
GTX512 SLI: 33fps
(bei den minimum-fps ist nV vorne, schätzungsweise 20fps zu 18fps, es sind keine konkreten werte angegeben, da es sich nur um farbliche abstufungen zu den avg-balken handelt...)

nur mal als kleiner vorgeschmack, splinter cell 3 (mit HDR) wurde auch getestet, hier gewinnt die X1900 recht deutlich...(1600*1200 HDR 8*AF XT: 59,1fps, GTX512: 52,1, bei SLI vs. CF ca. das gleiche)

nur in quake4 ist nVidia sehr weit überlegen...

über die genutzten treiber(settings) hat GS leider keine angaben gemacht...

testsystem war ein FX-60 mit 2GB RAM...für nV auf einem A8N-SLI, für ATi auf einem A8R-MVP

Ronny145
2006-01-21, 12:54:50
Abonnenten halten seit heute die neue GS in ihren Händen, darin ist überraschenderweise ein (recht kleiner) Test der X1900XTX, und nicht nur einer sondern gleich 2 davon...
wir alle wissen ja, wie kompatent GS-HW einzuschätzen ist, nichtsdestotrotz, hier mal ein paar ergebnisse:

FEAR: 1280*960 4*AA 8*AF
X1900XT: 40fps avg
GTX 512: 29fps avg
die XTX hat dann da 42fps...

FEAR: 1600*1200 4*AA 8*AF
X1900XT CF: 40fps
GTX512 SLI: 33fps

nur mal als kleiner vorgeschmack, splinter cell 3 (mit HDR) wurde auch getestet, hier gewinnt die X1900 recht deutlich...(1600*1200 HDR 8*AF XT: 59,1fps, GTX512: 52,1, bei SLI vs. CF ca. das gleiche)

nur in quake4 ist nVidia sehr weit überlegen...

über die genutzten treiber(settings) hat GS leider keine angaben gemacht...

Welche games wurden noch getestet und ist der Abstand ähnlich dort? Mit etwas Glück erhalte ich heute auch die Gamestar. Sieht aber recht ordentlich aus. Ich hätte es sogar etwas schlechter erwartet.

Com1
2006-01-21, 12:58:15
Habe auch gerade den GS-Artikel überfolgen.

Die geschätzen UVPs sind diesesmal gleich besonders astronomisch... 650 € für die X1900 XTX und 550 € für für die X1900 XT.

Splinter Cell 3:
(gleiche Modi wie bei Fear, nur 1280x960 und ohne AA)
ohne AA:
GTX 512: 68,9
X1900 XTX: 80,7

J0ph33
2006-01-21, 13:01:54
Welche games wurden noch getestet und ist der Abstand ähnlich dort? Mit etwas Glück erhalte ich heute auch die Gamestar. Sieht aber recht ordentlich aus. Ich hätte es sogar etwas schlechter erwartet.

wie gesagt nur splinter cell 3 und quake 4, ersteres gewinnt ati recht deutlich, zweiteres nV sehr deutlich

es ist aber auch noch ein sehr schöner HDRR+AA-screen von farcry drin :)

Mr. Lolman
2006-01-21, 13:04:04
s gleiche)

nur in quake4 ist nVidia sehr weit überlegen...


In Quake4 ist NVidia nur dann überlegen, wenn mit Quality (und vll sogar biAF :mad: ) gebencht wird.

Ronny145
2006-01-21, 13:04:32
wie gesagt nur splinter cell 3 und quake 4, ersteres gewinnt ati recht deutlich, zweiteres nV sehr deutlich

es ist aber auch noch ein sehr schöner HDRR+AA-screen von farcry drin :)


Achso. Quake 4 oder Doom3 ist NVIDIA wegen OpenGL überlegen. Das ist nicht so überraschend.

J0ph33
2006-01-21, 13:05:58
In Quake4 ist NVidia nur dann überlegen, wenn mit Quality (und vll sogar biAF :mad: ) gebencht wird.

yopp, nehme an, man hat bei beiden karten standard-treibersettings genutzt, also Quality bei nV und AI low bei ATi...

Mr. Lolman
2006-01-21, 13:09:04
Achso. Quake 4 oder Doom3 ist NVIDIA wegen OpenGL überlegen. Das ist nicht so überraschend.Dieses Märchen stimmt schon lang nicht mehr: http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_asus_eax1800xt_top/15/#abschnitt_doom_3

NV filtert bei OPenGL unter gewissen Umständen schlechter als unter D3D. Wart den nächsten 3DC Artikel ab.

Coda
2006-01-21, 13:47:03
Dieses "Märchen" ist messbar. Der Drawcall Overhead ist bei ATi deutlich höher, warum auch immer.

Gast
2006-01-21, 14:08:31
yopp, nehme an, man hat bei beiden karten standard-treibersettings genutzt, also Quality bei nV und AI low bei ATi...Default ist AI Standard bei ATI, soweit ich weiß.

Gast
2006-01-21, 14:12:37
Default ist AI Standard bei ATI, soweit ich weiß.

standard=low

bei ati gibt es nur 3 settings: standard, agressiv und off.

up¦²
2006-01-21, 15:04:38
Es ist soweit: in NL
ASUS EAX1900XT 2DHTV 512 MB €539,00

Nazar
2006-01-21, 15:37:54
yopp, nehme an, man hat bei beiden karten standard-treibersettings genutzt, also Quality bei nV und AI low bei ATi...

naja.. wenn wirklich so gebencht wurde, dann zeigt es nur, dass der G71 wirklich 700+MHz braucht, um die X1900XT angreifen zu können.
Oualitiy und AI Low zu vergleichen ist, als ob man Streuselkuchen mit einer Torte vergleicht.
Die BQ unter Quality ist immer noch dermassen mies, dass es schon fast an Betrug grenzt, das mit AI Low gleichzusetzen.

Gast
2006-01-21, 15:41:59
Ganz unrecht hast du ja nicht. Am besten schaltet man auf beiden Seiten sämtliche Optimierungen aus. Nur leider trennt ATi die Verschlimmbesserungen nicht von den durchaus angebrachten Optimierungen. Warum eigentlich nicht?

Gast
2006-01-21, 15:46:29
Oualitiy und AI Low zu vergleichen ist, als ob man Streuselkuchen mit einer Torte vergleicht.
Die BQ unter Quality ist immer noch dermassen mies, dass es schon fast an Betrug grenzt, das mit AI Low gleichzusetzen.

da muss ich dir zustimmen, ich verstehe wirklich nicht warum man bei high-end-karten mit aktiven optimierungen benchen muss.

HQ gegen AI-off (der vergleichbarkeit wegen leider ohne HQ-AF) wäre das einzig vernünftige bei highendkarten.

Ailuros
2006-01-21, 15:57:21
da muss ich dir zustimmen, ich verstehe wirklich nicht warum man bei high-end-karten mit aktiven optimierungen benchen muss.

HQ gegen AI-off (der vergleichbarkeit wegen leider ohne HQ-AF) wäre das einzig vernünftige bei highendkarten.

Dafuer muesste aber ATI ihre nicht Filterungs-relativen Optimierungen vom AI entkoppeln, sonst wird der Vergleich wiederrum unfair.

Sonst stimme ich natuerlich vollkommen zu; wenn ich fette Moneten fuer eine GPU zahle, will ich auch nichts von Optimierungen hoeren/sehen.

Mr. Lolman
2006-01-21, 16:03:43
Ganz unrecht hast du ja nicht. Am besten schaltet man auf beiden Seiten sämtliche Optimierungen aus. Nur leider trennt ATi die Verschlimmbesserungen nicht von den durchaus angebrachten Optimierungen. Warum eigentlich nicht?

Wer sagt, denn dass bei NV HQ keine Optmierungen mehr aktiv sind? Unter OpenGL hast du außerdem keine Chance eine ähnliche Flimmerfreiheit wie bei ATi Karten zu bekommen (LOD Clamp gibts da nicht)

Ailuros
2006-01-21, 16:14:08
Ich denke dass die naechsten paar Tage genug Zeit sind (bis dieser Thread geschlossen wird) um nochmal etliche Seiten von OT Material hinzuzufuegen.

Bei beiden IHVs werden Optimierungen nicht komplett abgeschaltet und jetzt guten Appetit ueber die naechsten 20 Seiten ;)

Gast
2006-01-21, 16:39:34
Es ist soweit: in NL
ASUS EAX1900XT 2DHTV 512 MB €539,00

Wie heißt der Shop?

Coda
2006-01-21, 16:59:40
(LOD Clamp gibts da nicht)Sicher?

aths
2006-01-21, 17:03:56
Wenn ich mal was zum Begriff "Optimierung" sagen darf. Bereits beste Lehrbuch-Texturfilterung beinhaltet sehr starke "Optimierung", also Geschwindigkeitsgewinn zu Lasten der Qualität. Was darüber hinaus geht, und von NV und ATI euphemistisch "Optimierung" genannt wird, sind durch die Bank* unzulässige Methoden die versuchen, mit Samples auszukommen als notwendig. Folge: Weiterer Qualitätsverlust. Ich halte es für nicht hinnehmbar, dass die Treiber dem User es untersagen, die beste BQ einzustellen welche die HW bieten könnte. So lange man aber von "Optimierung" redet klingt das so, als sei das gar nicht so schlimm.

* Ausnahme Demirugs Theorie zur AF-Realisierung auf dem G70, welche womöglich gut gedacht aber schlecht gemacht wurde. (Damit ist nicht die stark winkelabhängige LOD-Bestimmung gemeint, welche einer SM3-Karte absolut unwürdig ist.)

tombman
2006-01-21, 17:27:26
Hmm, also falls der ~21xx GAME SCORE (cpu bereinigt) in 3dm06 wirklich stimmt für die X1900XT,
http://www.ocworkbench.com/ocwbcgi/newspro/viewnews.cgi?newsid1137735501,8096,
schauts sehr schlecht aus.... da wird die G71 kommen und wie ein Panzer drüberfahren, weil die GTX 512 ja genauso viel jetzt schon hat.

Die FEAR Werte sind aber echt nice.... hmm, die X1900 braucht mehr fillrate so wie es aussieht bei heutigen 0815 games.... nur wenn die pixel "teuer" sind, zieht sie davon ...

Naja, bin schon sehr auf Montag gespannt.

tombman
2006-01-21, 17:30:58
"The default clk on the X1900XT is at core/mem = 500MHz/600MHz."

WTF??????????

Gast
2006-01-21, 17:33:17
"The default clk on the X1900XT is at core/mem = 500MHz/600MHz."

WTF??????????Kann ich mir irgendwie kaum vorstellen. Wo haste das denn her?

J0ph33
2006-01-21, 17:55:01
laut GS ist der takt der X1900XT 625/1450, und da die so ne karte haben, werden sie es schon wissen...

Coda
2006-01-21, 17:58:13
Weniger Takt geht auch gar nicht. Das würde in alten Spielen unweigerlich dazu führen, dass R580 langsamer als R520 ist.

[dzp]Viper
2006-01-21, 18:02:13
Hmm, also falls der ~21xx GAME SCORE (cpu bereinigt) in 3dm06 wirklich stimmt für die X1900XT,
http://www.ocworkbench.com/ocwbcgi/newspro/viewnews.cgi?newsid1137735501,8096,
schauts sehr schlecht aus.... da wird die G71 kommen und wie ein Panzer drüberfahren, weil die GTX 512 ja genauso viel jetzt schon hat.

Die FEAR Werte sind aber echt nice.... hmm, die X1900 braucht mehr fillrate so wie es aussieht bei heutigen 0815 games.... nur wenn die pixel "teuer" sind, zieht sie davon ...



Zeigt aber schon, dass 3dmark06 irgendwie mal wieder total realitätsfern ist...

Eine Karte mit wesentlich mehr PS-Power gewinnt in einem PS-lastigen Benchmark nicht gegen eine Karte die im Vergleich "wenig" PS-Power hat..

komisch oder? ;)

up¦²
2006-01-21, 18:08:20
ich spekulier jetzt mal drauf los: geht auf meine kappe :wink:
Angenommen, der R580 hat einen turbo, aber der kommt erst wenn der G71 anrollt, ganz einfach so: per driver
... und die 520er marktbereinigt sind

mapel110
2006-01-21, 18:11:46
Viper']Zeigt aber schon, dass 3dmark06 irgendwie mal wieder total realitätsfern ist...

Eine Karte mit wesentlich mehr PS-Power gewinnt in einem PS-lastigen Benchmark nicht gegen eine Karte die im Vergleich "wenig" PS-Power hat..

komisch oder? ;)
Der 3DMark ist ja kein reiner Pixelshadertest. Ich denke mal, die Last auf den Vertexshadern wird auch nicht gerade klein sein und da hat R580 ja nicht zulegt, ebenso bei der Texturing Füllrate.
Weniger Takt geht auch gar nicht. Das würde in alten Spielen unweigerlich dazu führen, dass R580 langsamer als R520 ist.
Bei derart alten Spielen sollte er ohnehin klar CPU-limitiert sein. Spielt also keine große Rolle.

up¦²
2006-01-21, 18:17:05
Nebenbei;
gäbe es eine manier, die techdemo "Toyshop" zu benchen?

wäre doch mal interessant, oder?

Ailuros
2006-01-21, 18:21:25
Der 3DMark ist ja kein reiner Pixelshadertest. Ich denke mal, die Last auf den Vertexshadern wird auch nicht gerade klein sein und da hat R580 ja nicht zulegt, ebenso bei der Texturing Füllrate.

Ach man nahm einfach ein paar alte Tests und schmierte etwas mehr Details rein, ein bisschen bloom und/oder HDR hier und da, ein paar langweilige extra Tests dazu und voila schon hat man einen neuen synthetischen Benchmark.

http://www.anandtech.com/video/showdoc.aspx?i=2675

Ist zwar OT aber ich will wetten dass der langweilige Perlin Noise/PS3.0 Quark mit Leichtheit auch in PS2.x reingepasst haette.

3dmark05 war von sich aus schon eine ziemlich schlechte Schaetzung was die Spiele der Zukunft betrifft, da sieht es bei 3dmark06 auch nicht viel besser aus.

up¦²
2006-01-21, 19:10:36
keine spekulation, aber bitterer ernst:
wer von den reviewern wird so ehrlich sein, daß der R580 nur mit GDDR4 mehr schafft?

Die dummen wären die, die sich die X1900/GDDR3 holen :rolleyes:

Ich kann das belegen:
Samsung Develops 2.5GHz GDDR4 (http://www.xbitlabs.com/news/memory/display/20051027082407.html)

Und hier der versteckte hinweis:
“Over the next 90 days, you will see us recapture the performance leadership from ourselves, with our R580 launch in Q2, delivering the most compelling multi-GPU graphics platform with CrossFire, and ramping OEMs with this solution in the quarter as well,” said Mr. Orton.

ATI Set to Launch New High-End Chip Soon (http://www.xbitlabs.com/news/video/display/20051226173157.html)

Klar, also ende februar noch vor der Cebit(samt G71 :wink: )

Nebenbei:auf die idee, eine agp RV560 mit GDDR4 zu machen kommt bestimmt einer ...

reunion
2006-01-21, 19:34:15
Hmm, also falls der ~21xx GAME SCORE (cpu bereinigt) in 3dm06 wirklich stimmt für die X1900XT,
http://www.ocworkbench.com/ocwbcgi/newspro/viewnews.cgi?newsid1137735501,8096,
schauts sehr schlecht aus.... da wird die G71 kommen und wie ein Panzer drüberfahren, weil die GTX 512 ja genauso viel jetzt schon hat.

Die FEAR Werte sind aber echt nice.... hmm, die X1900 braucht mehr fillrate so wie es aussieht bei heutigen 0815 games.... nur wenn die pixel "teuer" sind, zieht sie davon ...

Naja, bin schon sehr auf Montag gespannt.

(Der Link geht nicht)

Wie du unten schon schreibst, wurden diese 21xx offensichtlich mit 500/600 erreicht.

Godmode
2006-01-21, 19:43:16
Klar, also ende februar noch vor der Cebit(samt G71 :wink: )


Am 24. Jänner 2006 wird die X1900 doch vorgestellt, oder was willst du uns sagen?

Blaire
2006-01-21, 19:49:08
Abonnenten halten seit heute die neue GS in ihren Händen, darin ist überraschenderweise ein (recht kleiner) Test der X1900XTX, und nicht nur einer sondern gleich 2 davon...
wir alle wissen ja, wie kompetent GS-HW einzuschätzen ist, nichtsdestotrotz, hier mal ein paar ergebnisse:

FEAR: 1280*960 4*AA 8*AF
X1900XT: 40fps avg
GTX 512: 29fps avg
die XTX hat dann da 42fps...

FEAR: 1600*1200 4*AA 8*AF
X1900XT CF: 40fps
GTX512 SLI: 33fps
(bei den minimum-fps ist nV vorne, schätzungsweise 20fps zu 18fps, es sind keine konkreten werte angegeben, da es sich nur um farbliche abstufungen zu den avg-balken handelt...)

nur mal als kleiner vorgeschmack, splinter cell 3 (mit HDR) wurde auch getestet, hier gewinnt die X1900 recht deutlich...(1600*1200 HDR 8*AF XT: 59,1fps, GTX512: 52,1, bei SLI vs. CF ca. das gleiche)

nur in quake4 ist nVidia sehr weit überlegen...

über die genutzten treiber(settings) hat GS leider keine angaben gemacht...

testsystem war ein FX-60 mit 2GB RAM...für nV auf einem A8N-SLI, für ATi auf einem A8R-MVP

Die FEAR Scores sind bei der GTX512MB@SLI viel zu niedrig , da hatte ich schon fast 60FPS average. Da haben die Fritzen sicher im langsamen SFR Modus gemessen. :D
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3811234&postcount=127

[dzp]Viper
2006-01-21, 19:51:47
Die FEAR Scores sind bei der GTX512MB@SLI viel zu niedrig , da hatte ich schon fast 60FPS average. Da haben die Fritzen sicher im langsamen SFR Modus gemessen. :D
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3811234&postcount=127


oder es wurde mit softshadow gebencht...

Blaire
2006-01-21, 19:57:00
Viper']oder es wurde mit softshadow gebencht...

Theoretisch möglich , glaube ich aber nicht.
Selbst wenn , dann hatte ich noch knapp 40 fps geschafft.
Und ich hatte sogar mit HQ im Treiber getestet, was die Gamestar sicher nicht getan hat.

mapel110
2006-01-21, 19:57:18
Wenn ich das Posting richtig deute, waren das eh die Benchmarks von ATI direkt. Abwarten.

Blaire
2006-01-21, 19:59:23
Wenn ich das Posting richtig deute, waren das eh die Benchmarks von ATI direkt. Abwarten.

Das wäre ne Erklärung.

Mumins
2006-01-21, 20:05:33
Und ich hatte sogar mit HQ im Treiber getestet, was die Gamestar sicher nicht getan hat.

Macht in dem Fall kaum Unterschied, evtl 1 FPS.

reunion
2006-01-21, 20:05:54
Wenn ich das Posting richtig deute, waren das eh die Benchmarks von ATI direkt. Abwarten.


Wenn dies nur die ATi-Benchs wären, würde nV in Quake 4 mit Sicherheit nicht vorne liegen.

aths
2006-01-21, 20:33:23
Unter "Results" den Teil "Instruction Issue". Da werden verschieden Operationen miteinander verglichen.


QJa, aber die Werte sind so unterschiedlich dass ich zweifle, dass man die Ergebnisse so in Relation zueinander setzen darf.

up¦²
2006-01-21, 20:35:03
Am 24. Jänner 2006 wird die X1900 doch vorgestellt, oder was willst du uns sagen?

Kannst du dir vorstellen, was für einen boost GDDR4 für den R580 bedeuten könnte?

Ich bin jedenfalls sehr gespannt :biggrin:

Godmode
2006-01-21, 20:53:55
Kannst du dir vorstellen, was für einen boost GDDR4 für den R580 bedeuten könnte?

Ich bin jedenfalls sehr gespannt :biggrin:

Die Shader brauchen nicht wirklich viel Bandbreite IMO, oder glaubst dass der R520 schon an der Bandbreite hängt, also ich nicht.

GDDR4 bringt dem G71 sicherlich mehr, der könnte das gut gebrauchen wenn es wirklich ein 32 P @ 700 wird.

Gandharva
2006-01-21, 20:58:42
Kannst du dir vorstellen, was für einen boost GDDR4 für den R580 bedeuten könnte?

Ich bin jedenfalls sehr gespannt :biggrin:IMO wird es keinen R580 mit GDDR4 geben. Wie kommst Du überhaupt darauf? R600 und G80 werden aber wohl GDDR4 im Gepäck haben denke ich.

Gast
2006-01-21, 21:17:35
Unter OpenGL hast du außerdem keine Chance eine ähnliche Flimmerfreiheit wie bei ATi Karten zu bekommen (LOD Clamp gibts da nicht)

meines wissens gibt es kein idiotisches OGL-spiel das negativen LOD-bias benutzt ist das ziemlich irrelevant.

up¦²
2006-01-21, 21:18:14
Der R580 ist für GDDR4 schon wie geschaffen!

The product is to support Shader Model 3.0, ring-bus memory controller that supports GDDR4 memory type and other innovations.

http://www.xbitlabs.com/news/video/display/20051226173157.html

Godmode
2006-01-21, 21:24:58
Der R580 ist für GDDR4 schon wie geschaffen!



http://www.xbitlabs.com/news/video/display/20051226173157.html

Ja, das ist schon klar, dass der R580 GDDR4 ansprechen kann, aber ich denke nicht, dass damit die Performance erheblich gesteigert werden kann.

Mr. Lolman
2006-01-21, 21:29:40
meines wissens gibt es kein idiotisches OGL-spiel das negativen LOD-bias benutzt ist das ziemlich irrelevant.

NVidia LOD Clamp != setzen des Texture-LOD-Bias auf 0.0

Aber klar, immer schön auf die idiotischen Spiele rausreden. Weder LFS noch GTR/GTL nutzen einen negativen LOD Bias. NV-Karten filtern einfach anders, sobald LOD Clamp aktiv ist. (tw. sogar zu unscharf, wie manche bei GTR/GTL schon bemerken mussten)

Gandharva
2006-01-21, 21:32:51
Der R580 ist für GDDR4 schon wie geschaffen!

http://www.xbitlabs.com/news/video/display/20051226173157.htmlDer Ringbus wird auch in R600 wieder zum Einsatz kommen. Kann mir nicht vorstellen das ATI solchen Aufwand betreibt um das Teil eine Generation später wieder einzustampfen. Wie schon von bans3i gesagt würde dem R580 GDDR4 auch nicht wirklich viel bringen. Ausser höheren Endkundenpreisen. Zudem ist bis jetzt die Massenproduktion von GDDR4 weder bei Samsung noch bei Hynix angelaufen.

Mr. Lolman
2006-01-21, 21:34:11
Sicher?

Ja.

Godmode
2006-01-21, 21:38:48
Zudem ist bis jetzt die Massenproduktion von GDDR4 weder bei Samsung noch bei Hynix angelaufen.

Ich kann mich noch sehr gut an den NV40 Launch erinnern, da geisterten auch Meldungen umher, dass Samsung jetzt GDDR3 bis zu 800 MHz anbieten wird oder dieser "bald" in die Massenproduktion geht. Jetzt - ca. 2 Jahre später - sieht man den Speicher mal in echt zb auf ner 512er GTX

Gandharva
2006-01-21, 21:44:41
Ich kann mich noch sehr gut an den NV40 Launch erinnern, da geisterten auch Meldungen umher, dass Samsung jetzt GDDR3 bis zu 800 MHz anbieten wird oder dieser "bald" in die Massenproduktion geht. Jetzt - ca. 2 Jahre später - sieht man den Speicher mal in echt zb auf ner 512er GTX2 Jahre wirds zu GDDR4 sicher nicht mehr dauern. GDDR3 ist am Ende. Für R600 und G80 siehts recht gut aus. Dem G71 würds evtl. jetzt auch schon nicht schaden. Aber Satz mit X... ;)

up¦²
2006-01-21, 21:47:31
Samsung peilt 2.quartal. Könnte also passen - spannend!
Das GDDR3-theater bei Nvidia ist ja nicht zum aushalten, die warten genauso, klar!

BTW
Hynix hat sogar schon 512er!
http://www.infoworld.com/article/05/12/05/HNhynixgraphics_1.html

Godmode
2006-01-21, 21:48:09
Aber Satz mit X... ;)

Bin ich jetzt zu dumm um das zu verstehen?

Gandharva
2006-01-21, 21:51:33
Bin ich jetzt zu dumm um das zu verstehen?Kennst Du das Sprichwort: "Satz mit X: Das war wohl nix!" nicht?

Gast
2006-01-21, 21:54:16
NVidia LOD Clamp != setzen des Texture-LOD-Bias auf 0.0



richtig, genauer gesagt ist es das verhindern von negativem LOD, positive einstellungen sind noch immer erlaubt.

Mr. Lolman
2006-01-21, 21:58:01
richtig, genauer gesagt ist es das verhindern von negativem LOD, positive einstellungen sind noch immer erlaubt.

Das ist aber nicht alles. Deaktiviertes LOD Clamp und Bias 0.0 sieht anders aus als aktives LOD Clamp. Probiers einfach aus, entweder mit nem Texturfiltertestproggi, oder einem Spiel welches das manuelle Setzen des LOD-Bias erlaubt.

mapel110
2006-01-21, 22:04:02
Nein das ist Falsch. Deaktiviertes LOD Clamp und Bias 0.0 sieht anders aus als aktives LOD Clamp. Probiers einfach aus, entweder mit nem Texturfiltertestproggi, oder einem Spiel welches das manuelle Setzen des LOD-Bias erlaubt.
Also das Filtertesttool vom 3DMark06 reagiert aber ganz genau so, wie es der Gast beschrieb. (Erst gestern nämlich damit rumgespielt und mich gewundert, warum kein negativer LOD geht. :ugly: )
Bin ja mal gespannt auf deinen Artikel. Find ich super, dass es dann endlich mal was Konkretes und Nachvollziehbares zu diskutieren gibt von dir. (y)

Mr. Lolman
2006-01-21, 22:11:20
Also das Filtertesttool vom 3DMark06 reagiert aber ganz genau so, wie es der Gast beschrieb. (Erst gestern nämlich damit rumgespielt und mich gewundert, warum kein negativer LOD geht. :ugly: )
Bin ja mal gespannt auf deinen Artikel. Find ich super, dass es dann endlich mal was Konkretes und Nachvollziehbares zu diskutieren gibt von dir. (y)

Schaus dir mal mit LFS2 an. Das 3dmark06 Filtertesttool kann man (schätz ich) nur verwenden, wenn man die Proversion besitzt, und bei Demis AF Tester funktioniert aus unerfindlichen Gründen der Browse Button für die Customtextures nicht.

XMas OpenGL Tester zeigt mit LODBias 0.0 und ner speziellen Texture jedoch genau das Phänomen, was zu "Begrenzunglinienflimmern" bei div. rennspielen führt, wenn dort LOD Clamp nicht aktiviert wurde...

BTW: Der Artikel ist soweit fertig. Ich schätz einmal werd ich noch ne überarbeitete Version von aths bekommen, und dann sollt er endlich veröffentlicht werden können.

mapel110
2006-01-21, 22:21:28
Schaus dir mal mit LFS2 an. Das 3dmark06 Filtertesttool kann man (schätz ich) nur verwenden, wenn man die Proversion besitzt, und bei Demis AF Tester funktioniert aus unerfindlichen Gründen der Browse Button für die Customtextures nicht.

XMas OpenGL Tester zeigt mit LODBias 0.0 und ner speziellen Texture jedoch genau das Phänomen, was zu "Begrenzunglinienflimmern" bei div. rennspielen führt, wenn dort LOD Clamp nicht aktiviert wurde...

BTW: Der Artikel ist soweit fertig. Ich schätz einmal werd ich noch ne überarbeitete Version von aths bekommen, und dann sollt er endlich veröffentlicht werden können.
Beide AF Tester (Demis und Xmas) reagieren überhaupt nicht auf den Clamp Schalter. Bei Opengl ja verständlich, aber D3D?! :|
Man sollte wohl besser Games testen...

Gast
2006-01-21, 22:22:57
Das ist aber nicht alles. Deaktiviertes LOD Clamp und Bias 0.0 sieht anders aus als aktives LOD Clamp. Probiers einfach aus, entweder mit nem Texturfiltertestproggi, oder einem Spiel welches das manuelle Setzen des LOD-Bias erlaubt.

ja da sind schon riesige unterschiede zwischen:

clamp-aus:

http://img518.imageshack.us/img518/7893/clamaus7qn.th.png (http://img518.imageshack.us/my.php?image=clamaus7qn.png)

und clamp an:

http://img518.imageshack.us/img518/6553/clampan3yd.th.png (http://img518.imageshack.us/my.php?image=clampan3yd.png)

wie man hier schön sieht:

http://img518.imageshack.us/img518/7082/differenz1hb.th.png (http://img518.imageshack.us/my.php?image=differenz1hb.png)

btw: das differenzbild ist binär, gleiche pixel sind schwarz, unterschiedliche weiß, nur kann ich irgendwie kein einziges unterschiedliches pixel erkennen.

spiele will ich für diesen vergleich nicht nehmen, da kann man sich nicht sicher sein ob die LOD-BIAS-einstellung auch wirklch für alle texturstages gilt.

Gast
2006-01-21, 22:24:34
Beide AF Tester (Demis und Xmas) reagieren überhaupt nicht auf den Clamp Schalter. Bei Opengl ja verständlich, aber D3D?! :|
Man sollte wohl besser Games testen...

beim D3D-tester lässt sich kein negatives LOD mehr einstellen wenn man clamp aktiviert.

und nicht vergessen: clamp wirkt nur wenn AF aktiv ist.

Mr. Lolman
2006-01-21, 23:03:27
Beide AF Tester (Demis und Xmas) reagieren überhaupt nicht auf den Clamp Schalter. Bei Opengl ja verständlich, aber D3D?! :|
Man sollte wohl besser Games testen...

Oja, der Clamp schalter funktioniert mit DemisAFTester. Und über Umwege hab ichs jetzt auch hinbekommen, mit Customtextures zu testen. Jetzt muss ich meine Theorie anscheinend wieder übern haufen werfen, da Clamp (wies auch der Gast schon gezeigt hat), anscheinend genauso funktioniert wies soll

Nur:

1. Zeigt sich bei meiner Customtextur sowohl mit Clamp als auch ohne der Ansatz zum "Linienflimmern". OpenGL sieht in der Hinsich auch nicht anders aus (auch wenn das Texturealignment trotz anpassen des Zoomgrads leicht anders ist, was aber auch an den Proggis selbst liegen könnt)

2. Meine R300 zeigt diesen (in den Filtertests zugebenermassen minimalen) "Ansatz" nicht, und hat AFAIK auch in keinem Rennspiel das Problem.

=> Schlußfolgerung:

NVidia passt für Spiele den Clampschalter extra an (Da LFS eben einen Unterschied zeigt zw. LOD 0.0 Clamp und noClamp) und bei GTL und GTR und F1 2001 auch ein sichtbarer Unterschied vorhanden ist und es doch ziemlich unwahrscheinlich ist, dass einerseits LFS mit der Anzeige des LODBias lügt und andererseits die ISV bei allen anderen Spielen ein negatives LOD verwenden.

Natürlich könnts (umgekehrt) auch sein, dass die Filtertestproggis erkannt werden und deswegen da anders gefiltert wird als bei Spielen.

auf jeden Fall gehts mit gegen den Strich, dass ich meinen Artikel schon wieder ändern muss. :mad:


/edit: Die "Löcher" gibts bei ATi nicht, trotz dessen, dass die Kanadier ihre Karten (vgl. mit NV) ein um ca 0.05 negativeres LODBias rechnen lassen:

Gast
2006-01-21, 23:21:32
hm, aber muss das nicht eigentlich bei korrekter filterung genauso aussehen?

bei "perfekter" schärfe müssten ja 1pixel breite strukturen auch 1 pixel breit sein.

und da eine 1 pixel breite linie nunmal sich immer nur um 1 pixel nach oben bewegt (halbe pixel gehen ja schlecht ;) ) müssen doch zwangsläufig treppeneffekte entstehen.

wenn das bei ati nicht der fall ist zeigt das ja nur das die karte zum überfiltern neigt.

Mr. Lolman
2006-01-21, 23:34:28
hm, aber muss das nicht eigentlich bei korrekter filterung genauso aussehen?

bei "perfekter" schärfe müssten ja 1pixel breite strukturen auch 1 pixel breit sein.

und da eine 1 pixel breite linie nunmal sich immer nur um 1 pixel nach oben bewegt (halbe pixel gehen ja schlecht ;) ) müssen doch zwangsläufig treppeneffekte entstehen.

wenn das bei ati nicht der fall ist zeigt das ja nur das die karte zum überfiltern neigt.

Ja aber bei den Treppeneffekten ist aber ab einer gewissen Verzerrung immer eine 1 Pixel große Lücke; die gibts bei ATi nicht.

Und ja Ati neigt tatsächlich zum Überfiltern und kompensiert das anscheinend mit nem leicht negativen LOD Bias. Dummerweise bringt diese Holzhammermethode im Durchschnitt das bessere Bild.

Gast
2006-01-21, 23:39:08
Und ja Ati neigt tatsächlich zum Überfiltern und kompensiert das anscheinend mit nem leicht negativen LOD Bias. Dummerweise bringt diese Holzhammermethode im Durchschnitt das bessere Bild.

ich behaupte mal, bei "vernünftigen" texturen nicht.

Mr. Lolman
2006-01-22, 00:08:49
ich behaupte mal, bei "vernünftigen" texturen nicht.

Ich behaupte das Gegenteil. Denn - wann ist ne Textur vernünftig - wenn sie nicht allzu scharf ist?

Ok, dann ist sie zB so unscharf wie im Durchschnitt bei UT2004 und schon machen sich das gewisse IHV zunutze und zwingen einem dann gleich briAF bei TS>0 auf. Egal was man eingestellt hat. Nochdazu hat ATis Überfilterung den Vorteil dass man beim triAF dann tatsächlich mehr pfuschen kann. (also briAF verwenden, ohne dass mans merkt => ein Punkt wo auch Catalyst AI ansetzt)

Außerdem: Die Textur die in meinem Fitzelausschnitt zu sehen ist, ist auch nicht unvernünftig. Da sieht man einfach gerade weisse Linie, die durch den Blinkwinkel verzerrt ist. Wenn ATi es schafft durch Überfilterung die Lückenbildung zu vermeiden, ist auch klar warum NV den AF-Algorithmus bei div. Spielen + aktiven LODClamp ändert. Nur müssten sie genauso ein (auf die performance schlagendes) negatives LOD Bias verwenden, dass die Grafik an manchen Stellen nicht unschärfer wird. Und darauf verzichten sie halt...

aths
2006-01-22, 01:18:29
Alle Texturen, die kontrastreiche Strukturen von nur 1 Texel Ausdehnung (Länge oder Breite) haben sind per se "unvernünftig". Manchmal nimmt man das aber in Kauf, um die Texturauflösung nicht in irre Höhe treiben zu müssen. "Gute" Texturen fangen auch bei Unterfilterung nicht sofort an, zu flimmern (sonst würde bei derzeitiger Realisierung schon bilineare Filterung flimmern.) Alle Texturen, die 1:1-Fotos sind, können in erster Näherung als "gut" angesehen werden (wenn man mal einige Sonderfälle außer Acht lässt.)

Lolmans Methode "böse" Texturen zu testen ist aber gut geeignet um Schwächen aufzudecken. Unterbrochene Texellinien sollten nun mal nicht vorkommen. Wenn doch, darf man davon ausgehen, dass besonders scharfe und/oder kontrastreiche "normale" Texturen ebenfalls zum Flimmern neigen.

Brilineare Artefakte werden durch Überfilterung übrigens kaum gelindert.

Mr. Lolman
2006-01-22, 01:28:52
Alle Texturen, die kontrastreiche Strukturen von nur 1 Texel...

Die Linie ist 2 Texel breit ;)

/edit: Ok in der verwendeten Mip bei gezeigtem Verzerrungsgrad ists nur mehr 1 Texel.

Coda
2006-01-22, 01:31:22
Aus dem Bild lässt sich mal überhaupt nichts übers Clamp-Verhalten ablesen. Das kann auch der Texturfilter verursachen.

Vor allem wäre ich da immer mit "besser" oder "schlechter" vorsichtig. Auf Standbildern sind die rechnerisch schlechteren Verfahren manchmal auch im Vorteil.

Mr. Lolman
2006-01-22, 01:32:19
Aus dem Bild lässt sich mal überhaupt nichts übers Clamp-Verhalten ablesen. Das kann auch der Texturfilter verursachen.

Sollte der Texturfilter nicht unabhängig von der verwendeten App. arbeiten?

Vor allem wäre ich da immer mit "besser" oder "schlechter" vorsichtig. Auf Standbildern sind die rechnerisch schlechteren Verfahren manchmal auch im Vorteil.

Meinst du eine unterbrochene Linie ist bei einem bewegten Bid plötzlich "besser"?

Coda
2006-01-22, 01:39:28
Sollte der Texturfilter nicht unabhängig von der verwendeten App. arbeiten?Natürlich, aber wo zeigst du gerade dass es in einer anderen App anders wäre?

Meinst du eine unterbrochene Linie ist bei einem bewegten Bild plötzlich "besser"?Mathematisch korrekter? Kann sein. Weiß ich aber nicht ohne genauere Analyse.

Du siehst manchmal Gespenster. Vor allem bringt negativer LOD auch nicht mehr, sondern weniger Performance.

Mr. Lolman
2006-01-22, 02:06:04
Natürlich, aber wo zeigst du gerade dass es in einer anderen App anders wäre?

Ich habs hingeschrieben. Mehr Screenshots gibts erst im Artikel. Bis dahin musst du meiner Argumentation, von wegen des seltsamen Zufalles, dass div. Rennspiele unterschiedlicher ISV alle ein negatives TextureLODBias haben sollen, folgen.

Außerdem hab ichs mit LFS Alpha 2 überprüft. Da kann man die "Schärfe" (LOD Bias) einstellen. Und da reagiert trotz 0.0 NVs LOD Clamp nochmal anders, und zwar bei zerhackten Begrenzungslinien "lückenfüllend".


Mathematisch korrekter? Kann sein. Weiß ich aber nicht ohne genauere Analyse.

Ja, mathematisch korrekter meinetwegen. Aber nicht optisch besser. Ein Fernsehbild lässt sich auf nem TFT auch mathematisch korrekter darstellen als an einem 50Hz Röhrenfernsehgerät. Ohne zusätzlichen Filter ist ein bewegtes Fernsehbild am TFT jedoch nicht auszuhalten.


Du siehst manchmal Gespenster. Vor allem bringt negativer LOD auch nicht mehr, sondern weniger Performance.

Und du missverstehst: Der Satz war so gemeint, dass negatives LOD-Bias (im Normalfall) negativ auf die Performance schlägt. (auch wenn Manni und ich bei Q3a mal genau das Gegenteil beobachten konnten. positives Bias => schlechtere Performance :|)

up¦²
2006-01-22, 02:24:21
HIS ist auch mit dabei:
http://img42.imageshack.us/img42/3696/hisr5809ea.th.jpg (http://img42.imageshack.us/my.php?image=hisr5809ea.jpg)

Gandharva
2006-01-22, 09:05:48
Na endlich: F.E.A.R. Benches mit AA + AF und SSAll right, here are more F.E.A.R benchmarks at higher resolution if you can't wait for our full review :

All settings to Maximum, X1900XT at stock, FX-60 at stock :

1600x1200, Soft Shadows Off

http://resources.vr-zone.com/newspics/Jan06/22/Fear-1600x1200-SSoff.jpg


1600x1200, Soft Shadows On

http://resources.vr-zone.com/newspics/Jan06/22/Fear-1600x1200-SSon.jpg


1600x1200, 4xAA + 8xAF, SS off

http://resources.vr-zone.com/newspics/Jan06/22/Fear-1600x1200-4xAA8xAF.jpg


1600x1200, 4xAA + 16xHQAF, SS off

http://resources.vr-zone.com/newspics/Jan06/22/Fear-1600x1200-4xAA16xHQAF.jpghttp://forums.vr-zone.com.sg/showpost.php?p=1395305&postcount=106

Hat doch geholfen das ich rumgenerft habe dort ;)

GTX 512 & X1900XT im Vergleich:

X1900XT/FX-60
http://img61.imageshack.us/img61/1250/fear1600x12004xaa8xaf2dy.jpg

GTX512/FX-55
http://img61.imageshack.us/img61/5847/fear248bar9yr.gifhttp://img61.imageshack.us/img61/1967/fear148bar6mm.gif

reunion
2006-01-22, 10:05:37
Einen Vergleich über unterschiedliche Platformen halte ich für äußerst problematisch. Niemand weiß, ob wirklich überall die gleichen Einstellungen verwendet wurden. Zudem würde mich mal intressieren, was pcper dort zusammengebencht hat. In allen anderen, mir bekannten Reviews, reicht bereits eine X1800XT, um die GTX 512 zu schlagen.

Vermutlich wird hier das Multiplayer-Demo mit der Vollversion vermixt.

chrisihamm
2006-01-22, 10:12:25
Das sehe ich genauso,besitze eine X1800XT und kann diese Werte nicht bestätigen!


mfg

Ailuros
2006-01-22, 10:32:21
Die scores in den graphs sind nicht vom timedemo. Eine 512 GTX landet 36 fps in 1600 mit 4xAA.

Gandharva
2006-01-22, 10:44:31
Eine 512 GTX landet 36 fps in 1600 mit 4xAA.Average? Min? Hab leider kein anderes Review gefunden auf die schnelle in der die GTX 512 in den gleichen Settings gebencht wurde wie die X1900 auf vr-zone.

reunion
2006-01-22, 10:49:40
http://www.xbitlabs.com/images/video/games-2005/high/fear_highend_candy.gif

http://www.xbitlabs.com/articles/video/display/games-2005_12.html

AF kostet in FEAR praktisch nichts.

Ailuros
2006-01-22, 10:49:42
Average? Min? Hab leider kein anderes Review gefunden auf die schnelle in der die GTX 512 in den gleichen Settings gebencht wurde wie die X1900 auf vr-zone.

Nochmal (obwohl das schon der zweite Thread ist):

http://www.xbitlabs.com/images/video/games-2005/high/fear_highend_candy.gif

http://www.xbitlabs.com/articles/video/display/games-2005_12.html

Oben habt Ihr ein screenshot einer X1900XT@625MHz die 49fps anzeigt. Ist es etwas klarer jetzt?

***edit: reunion war schneller und um mich selber zu korrigieren es sind 35 und nicht 36 fps.

Gandharva
2006-01-22, 10:59:57
Alles klar. Danke.

mpV
2006-01-22, 11:29:00
Bin ich eigentlich der einzige, der sich wundert, dass die X1900XT (--> X1800XT mit verdreifachter Shadingleistung) im extrem shadinglastigen F.E.A.R nur gut ein Viertel besser abschneiden soll als die X1800XT (49 fps vs. 39)?

Da hier mit AA in UXGA gebencht wird, könnte die (ja bei beiden ähnliche) Bandbreite ein Grund dafür sein. Ich halte sie hier aber nach einem Vergleich der beiden GTXen für kaum relevant: Die 512 verfügt ggü. der "normalen" über einen 28% höheren Kern- und einen 42% höheren Speichertakt (und natürlich einen doppelt so großen Speicher), ihr Vorsprung beträgt aber "nur" 29% - etwa ebenso viel wie in XGA.

[dzp]Viper
2006-01-22, 12:07:24
Bin ich eigentlich der einzige, der sich wundert, dass die X1900XT (--> X1800XT mit verdreifachter Shadingleistung) im extrem shadinglastigen F.E.A.R nur gut ein Viertel besser abschneiden soll als die X1800XT (49 fps vs. 39)?

irgendwo könnte dann auch der CPU Limitieren...

selbst wenn die x1900xt die 3fache Shadingleistung hat, ist das ganze nur theorie - wieviel davon am ende umgesetzt wird steht immer auf einem anderen Platt. Spiele bestehen ja nicht nur aus Shadern ;)

Ailuros
2006-01-22, 12:15:40
Seine Beobachtungen koennten schon zustimmen. GTX 512 landet ~30% mehr Leistung als die GTX 256, aber ich wuerde einen kleinen Anteil der zusaechtzlichen Leistung auch an den doppelt so grossen Framebuffer haengen.

mpV
2006-01-22, 12:22:23
Viper']irgendwo könnte dann auch der CPU Limitieren...Die CPU scheint in dem Beispiel unterhalb von etwa 60-70 fps keine größere Rolle zu spielen (siehe niedrigere Auflösungen).

selbst wenn die x1900xt die 3fache Shadingleistung hat, ist das ganze nur theorie - wieviel davon am ende umgesetzt wird steht immer auf einem anderen Platt. Spiele bestehen ja nicht nur aus Shadern ;)Sind nicht in FEAR schon Shader der weitem Abstand wichtigste Faktor? Was sollte dort die - vorhandene - Shadingleistung davon abhalten, sich zu "entfalten"?

Ich bin wirklich mal gespannt auf synthtische Tests. Sind ja nur noch drei Tage.

Gast
2006-01-22, 13:25:45
Vielleicht hat es sich nicht gelohnt für die X1800er Karten. ;)
Die X1600 XT gibt es jedenfalls als HIS X1600XT IceQ (http://germany.hisdigital.com/html/product_sp.php?id=202) und HIS X1600XT IceQ Turbo (http://germany.hisdigital.com/html/product_sp.php?id=214).
Ja, das ist mir bekannt.

Hoffentlich meint irgendein AIB, dass es sich für die X1900 lohnt.


*hoffnungsvoll*
Q

Coda
2006-01-22, 13:29:22
Ja, mathematisch korrekter meinetwegen. Aber nicht optisch besser. Ein Fernsehbild lässt sich auf nem TFT auch mathematisch korrekter darstellen als an einem 50Hz Röhrenfernsehgerät. Ohne zusätzlichen Filter ist ein bewegtes Fernsehbild am TFT jedoch nicht auszuhalten. Die GPU soll machen was ihr vorgegeben ist in den Specs und nicht was du für besser hälst. Der Content ist eben in dem Fall schlecht.

Gast
2006-01-22, 13:29:42
Nein:

X1800XL - 1.1V core, 1.9V RAM
X1800XT - 1.35V core, 2.1V RAM
X1800XT PE - 1.45V core, 2.1V RAM
X1900XT - 1.2V core, 2.1V RAM

http://www.beyond3d.com/forum/showpost.php?p=673076&postcount=621
Nein? Nein zu einer "Oder"-Frage ist ein bißchen zweideutig, oder?

Bedenke: Allein das Absenken der Spannung führt zwar zu sinkender Verlustleistung, aber nur, wenn alle sonstigen Faktoren sich nicht ändern. Und ein R520 ist ja wohl ein anderer Faktor als ein R580.

BTW: 1,45v für die X1800 XT-PE? Wie war das nochmal mit der "Act of Desparation" und dem Überschreiten der zulässigen Grenzspannung des 0,11µ-Prozesses? Sollte bei sinkender Strukturbreite nicht auch die Durchschlag-Spannung sinken?

Wie lange halten denn dann die XT-PEs? ;)


*sichwundernd*
Q

Gast
2006-01-22, 13:30:39
In Quake4 ist NVidia nur dann überlegen, wenn mit Quality (und vll sogar biAF :mad: ) gebencht wird.
Nö.

Q

Gast
2006-01-22, 13:34:21
Hmm, also falls der ~21xx GAME SCORE (cpu bereinigt) in 3dm06 wirklich stimmt für die X1900XT,
http://www.ocworkbench.com/ocwbcgi/newspro/viewnews.cgi?newsid1137735501,8096,
schauts sehr schlecht aus.
Es gibt zwei Game-Scores. Und ich glaube nicht, dass das Endergebnis, wenn man die CPU herausrechnet, nur halb so hoch ausfällt, wie der Single-Score einer X1800. ;)


Q

Gast
2006-01-22, 13:35:51
"The default clk on the X1900XT is at core/mem = 500MHz/600MHz."

WTF??????????
Das CCC zeigt diesen Takt auch für die X1800 XT an - in 2D. Unter 3D steigt der Takt dann auf die normalen 625/750 MHz bei der X1800 XT.
Warum sollte sich das bei der X1900 geändert haben?


Q

Gast
2006-01-22, 13:38:41
Ja, aber die Werte sind so unterschiedlich dass ich zweifle, dass man die Ergebnisse so in Relation zueinander setzen darf.
Sub und RCP werden vom Treiber bei Nv "veroptimiert". Der Rest sollte laut Mike Houston vergleichbar sein.

Q

Gast
2006-01-22, 13:41:05
auf jeden Fall gehts mit gegen den Strich, dass ich meinen Artikel schon wieder ändern muss. :mad:
Jetzt weißt du mal, wie's "auf der anderen Seite" ausschaut. Es wird einem nicht gerade leicht gemacht, wenn man mal was Substantielles bringen will. Und Angriffsfläche bleibt immer genug.


Q

mpV
2006-01-22, 13:42:19
Es gibt zwei Game-Scores. Und ich glaube nicht, dass das Endergebnis, wenn man die CPU herausrechnet, nur halb so hoch ausfällt, wie der Single-Score einer X1800. ;)Es gibt anscheinend auch eine Grafik- Gesamtpunktzahl (http://www.computerbase.de/artikel/software/2006/bericht_3dmark06_der_performance-report/7/#abschnitt_berechnung_der_punkte), die zwar berechnet, aber nicht ausgegeben wird. Das ist schlicht der Durchschnitt aus der SM2- und der SM3- Punktzahl.

Gast
2006-01-22, 13:43:35
HIS ist auch mit dabei:
http://img42.imageshack.us/img42/3696/hisr5809ea.th.jpg (http://img42.imageshack.us/my.php?image=hisr5809ea.jpg)
Sieht vorerst aber leider nicht nach IceQ aus. :(


Q

Mr. Lolman
2006-01-22, 13:45:19
Die GPU soll machen was ihr vorgegeben ist in den Specs und nicht was du für besser hälst. Der Content ist eben in dem Fall schlecht.
-Also darf man keine Begrunzungslinien mehr basteln? Mach dich nicht lächerlich.

-Schlechter Content, nur weil ne 2 Texel breite scharfkontrastige Struktur darin vorkommt? NV siehts ja ihr StandardAF auch als Problem an, sonst hätten sie wohl nie den LOD Clamp Schalter gebaut.

-Oder bist du ernsthaft der Meinung, dass sooo viele Rennspiele alle negatives LOD Bias verwenden? Ich kenn nur div Spiele der Unrealengine, wo das tatsächlich geschieht. Meinst du die Designer von LFS sie lügen, wenn ihr sie behaupten dass ihr LODBias auf 0.0 steht wenn 0.0 angezeigt wird?

-Oder muss ich für den ungläubigen Thomas auch noch Colormipmapshots basteln und die mit nem Filtertestproggi überlagen, dass er mir endlich glaubt, dass die alle LOD 0.0 verwenden? :mad:

Gast
2006-01-22, 13:45:42
Na endlich: F.E.A.R. Benches mit AA + AF und SShttp://forums.vr-zone.com.sg/showpost.php?p=1395305&postcount=106

Hat doch geholfen das ich rumgenerft habe dort ;)

GTX 512 & X1900XT im Vergleich:

X1900XT/FX-60
http://img61.imageshack.us/img61/1250/fear1600x12004xaa8xaf2dy.jpg

GTX512/FX-55
http://img61.imageshack.us/img61/5847/fear248bar9yr.gifhttp://img61.imageshack.us/img61/1967/fear148bar6mm.gif
Diese Werte der 512er-GTX kann ich mit der Vollversion von FEAR absolut nicht nachvollziehen. Sie liegen m.E. um etwa 60% zu hoch.

Q

Gast
2006-01-22, 13:48:17
Bin ich eigentlich der einzige, der sich wundert, dass die X1900XT (--> X1800XT mit verdreifachter Shadingleistung) im extrem shadinglastigen F.E.A.R nur gut ein Viertel besser abschneiden soll als die X1800XT (49 fps vs. 39)?

Da hier mit AA in UXGA gebencht wird, könnte die (ja bei beiden ähnliche) Bandbreite ein Grund dafür sein. Ich halte sie hier aber nach einem Vergleich der beiden GTXen für kaum relevant: Die 512 verfügt ggü. der "normalen" über einen 28% höheren Kern- und einen 42% höheren Speichertakt (und natürlich einen doppelt so großen Speicher), ihr Vorsprung beträgt aber "nur" 29% - etwa ebenso viel wie in XGA.

Seit wann kommt eine theoretische Leistungssteigerung 1:1 in Spielen an? Realistisch dürften 25-40% etwa sein – je nach Settings.


Q

Gast
2006-01-22, 13:53:06
Es gibt anscheinend auch eine Grafik- Gesamtpunktzahl (http://www.computerbase.de/artikel/software/2006/bericht_3dmark06_der_performance-report/7/#abschnitt_berechnung_der_punkte), die zwar berechnet, aber nicht ausgegeben wird. Das ist schlicht der Durchschnitt aus der SM2- und der SM3- Punktzahl.
Aha! Dann bin ich aber mal gespannt, wie weit Nvidia dort zulegen kann. Sie müssen ja entweder breite oder fixer werden. Aber ein "in den Boden stampfen" sehe ich noch nicht.

Q

Coda
2006-01-22, 13:57:43
-Also darf man keine Begrunzungslinien mehr basteln? Mach dich nicht lächerlich.

-Schlechter Content, nur weil ne 2 Texel breite scharfkontrastige Struktur darin vorkommt? NV siehts ja ihr StandardAF auch als Problem an, sonst hätten sie wohl nie den LOD Clamp Schalter gebaut.

-Oder bist du ernsthaft der Meinung, dass sooo viele Rennspiele alle negatives LOD Bias verwenden? Ich kenn nur div Spiele der Unrealengine, wo das tatsächlich geschieht. Meinst du die Designer von LFS sie lügen, wenn ihr sie behaupten dass ihr LODBias auf 0.0 steht wenn 0.0 angezeigt wird?

-Oder muss ich für den ungläubigen Thomas auch noch Colormipmapshots basteln und die mit nem Filtertestproggi überlagen, dass er mir endlich glaubt, dass die alle LOD 0.0 verwenden? :mad:Nochmal: Negatives LOD verursacht schlechtere Performance.

Es macht überhaupt keinen Sinn für nVIDIA den Schalter nur für manche Spiele zu berücksichtigen.

Gast
2006-01-22, 14:03:46
-Oder bist du ernsthaft der Meinung, dass sooo viele Rennspiele alle negatives LOD Bias verwenden?

könnte ich mir ehrlich gesagt gut vorstellen, dass viele rennspiele zumindest auf der texturstage der die markierungslinien liegen ein negatives LOD nehmen, um das ausfransen etwas zu verringern.

mpV
2006-01-22, 14:12:46
Seit wann kommt eine theoretische Leistungssteigerung 1:1 in Spielen an? Realistisch dürften 25-40% etwa sein – je nach Settings.Beziehst du dich jetzt auf den ersten Absatz oder auf den zweiten?

Dass die X1900er in keinem praktischen Benchmark die dreifache Leistung einer X1800Xt erreichen werden, ist mir klar. Aber hier geht es, obwohl FEAR als extrem shadinglastig gilt, nicht um 25-40% der erreichbaren Steigerung, sondern um noch deutlich weniger. Wobei in nur geringfügig CPU- limitierten Settings sicherlich auch ein deutlich größerer Anteil einer GPU- Leistungssteigerung "durchschlagen" kann als von dir genannt.

Im zweiten Absatz ging es mir darum, dass wahrscheinlich keine nennenswerte Bandbreitenlimitierung vorliegt. Dabei ist der entscheidene Punkt, dass der Abstand der beiden Karten in XGA und UXGA fast gleich ist - und in XGA wird wohl trotz 4xAA die Bandbreite kein großartig begrenzender Faktor sein. Warum sollte denn im Falle einer durch AA bedingten starken Bandbreitenlimitierung ein höherer Speichertakt nicht zu einem ähnlich hohen Leistungszuwachs führen?

Aha! Dann bin ich aber mal gespannt, wie weit Nvidia dort zulegen kann. Sie müssen ja entweder breite oder fixer werden. Aber ein "in den Boden stampfen" sehe ich noch nicht.Habe ich irgendetwas davon gesagt, dass "nVidia ATI in den Boden stampfen wird"? Ich denke schon, dass der G71, was reine Geschwindigkeit anbelangt, den R580 übertreffen wird, falls du das meinst, ja. Aber ich würde das auch an anderen Faktoren festmachen als ausgerechnet an 3DMark- Pünktchen. Zumal reine Geschwindigkeit allein nicht eine gute Karte ausmacht.